Pages

11 नवंबर 2023

एआई दुरुपयोग का दुष्परिणाम है डीपफेक

पिछले दिनों फिल्म अभिनेत्री रश्मिका मंधाना का नकली वीडियो वायरल हुआ. इसके आने के बाद से भ्रम की एक स्थिति ‘फेक’ और ‘डीपफेक’ को लेकर बन गई. इंटरनेट की दुनिया में आये दिन लोग ‘फेक’ शब्द से सामना करते रहते हैं, अब उनका सामना ‘डीपफेक’ से भी हो गया. फेक कंटेंट में शामिल खबरों, वीडियो, चित्रों आदि की तरह ही डीपफेक कंटेंट भी इन्हीं सबके लिए प्रयोग किये जाने वाली तकनीक है. देखा जाये तो फेक और डीपफेक का मूल एक ही है लेकिन इनके बनाये जाने की प्रक्रिया में जमीन-आसमान का अंतर है. फेक कंटेंट में किसी फोटो, वीडियो, ऑडियो आदि की नकल की जाती है जबकि डीपफेक कंटेंट में किसी वीडियो, फोटो, ऑडियो या किसी अन्य डिजिटल सामग्री पर किसी दूसरे का चेहरा अथवा आवाज लगा कर उसे वायरल किया जाता है. डीपफेक निर्माण के लिए कृत्रिम बुद्धिमत्ता (आर्टिफिशियल इंटेलीजेंस-एआई) की सहायता ली जाती है. यह मूल कंटेंट का एक अवास्तविक रूप है जिसके द्वारा वीडियो, ऑडियो बनाकर लोगों को गुमराह किया जा सकता है. डीपफेक की विशेषता ये है कि इसमें असली और नकली में अंतर कर पाना कठिन होता है. फेक कंटेंट को सामान्य रूप में किसी साधारण सॉफ्टवेयर पर बनाया जा सकता है जबकि डीपफेक कंटेंट को बनाने के लिए कृत्रिम बुद्धिमत्ता (एआई) की सहायता ली जाती है. डीपफेक को डीप लर्निंग प्रक्रिया से लिया गया है, जिसका अर्थ है एआई की सहायता से किसी समस्‍या का समाधान खोजना.

 



यह एक बहुत बड़ा और दुर्भाग्ययुक्त सच है कि जैसे-जैसे नवीन तकनीक का आगमन हुआ, उसका विकास हुआ अपराधी मानसिकता वालों ने उसका दुरुपयोग किया है. एआई कोई पहली तकनीक नहीं है जिसका दुरुपयोग किया जाने लगा है, इससे पहले भी लगभग सभी तकनीकों का दुरुपयोग किया गया है. डीपफेक को पहली बार सन 2017 में अमेरिकी सामाजिक समाचार एकत्रीकरण वेबसाइट ‘रेडिट’ के उपयोगकर्ता द्वारा शुरू किया गया था. उसके द्वारा डीप लर्निंग तकनीक की मदद से अश्लील वीडियो पर प्रसिद्ध व्यक्तियों के चेहरे को लगाकर डीपफेक का निर्माण किया गया. इस घटना ने लोगों का ध्यान न केवल अपनी तरफ खींचा बल्कि तकनीक के दुरुपयोग पर भयभीत भी किया. इस तकनीक पर इंटरनेट पर उपलब्ध ओपन-सोर्स लाइब्रेरी और ऑनलाइन पाठ्य-सामग्री ने इसके दुरुपयोग को और अधिक बढ़ा दिया. अपराधी मानसिकता के लोगों के लिए अब इस तकनीक का इस्तेमाल और भी आसान हो गया था.

 

डीपफेक का निर्माण गणितीय, वैज्ञानिक परिकलन पर आधारित होता है. इसके लिए जेनरेटिव एडवरसैरियल नेटवर्क (GAN) तकनीक का इस्तेमाल किया जाता है. इस तकनीक में एक उत्पादक अर्थात जेनरेटर और एक विभेदक अर्थात डिस्क्रिमिनेटर नामक नेटवर्क होते हैं. इन दोनों को एक तरह से एल्गोरिदम कहा जा सकता है, जो डीपफेक निर्माण के लिए उपलब्ध डाटा का गणनात्मक आकलन करते हैं. दोनों नेटवर्क एआई की सहायता से काम करते हैं. डीपफेक निर्माण में जेनरेटर उस डिजिटल कंटेंट को तैयार करता है जो अवास्तविक चित्रों अथवा वीडियो के रूप में होता है और दिखने में वास्तविक जैसा. इसके बाद वह डिस्क्रिमिनेटर से इस बनाये गए कंटेंट की वास्तविकता पर प्रतिक्रिया माँगता है. डिस्क्रिमिनेटर बनायी गई सामग्री को वास्तविक सामग्री से अलग करते हुए जेनरेटर को अवास्तविक सामग्री का सच बताता है. उसकी लगातार मिलती प्रतिक्रिया से जेनरेटर अपनी बनायी सामग्री में तब तक सुधार करता है जब तक कि उस कंटेंट से डिस्क्रिमिनेटर भी दुविधा में नहीं आ जाता. सामान्यरूप में कहें तो यहाँ एक नेटवर्क कंटेंट तैयार करता है और दूसरा उसे डिकोड करके उसका वास्तविक जैसा अथवा बनावटी दिखना बताता है. जब डिस्क्रिमिनेटर कंटेंट को पूरी तरह से सच जैसा बता देता है तो उस वीडियो, ऑडियो आदि को वायरल कर दिया जाता है. डीपफेक बनाने के लिये किसी व्यक्ति के फोटो, वीडियो को उस व्यक्ति की जानकारी के बिना इंटरनेट पर उपलब्ध अनेक प्लेटफ़ॉर्म से एकत्र कर लिया जाता है.

 

वैज्ञानिक पद्धति पर आधारित इस तकनीक का इस्तेमाल यदि सकारात्मक रूप में किया जाये तो इसका लाभ समाज को मिल सकता है. शिक्षा, चिकित्सा, इतिहास आदि के क्षेत्र में इसके उपयोग से क्रांतिकारी बदलाव आ सकता है. ऐतिहासिक व्यक्तित्वों की आवाज़ को, उनकी कृतियों को संग्रहीत करके न केवल सुरक्षित रखा जा सकता है बल्कि उनका पुनर्निर्माण किया जा सकता है. ऐतिहासिक व्यक्तियों की कहानियों को, उनके जीवन की घटनाओं को उन्हीं के स्वर में सुनने का अद्भुत अनुभव लिया जा सकता है. विद्यार्थियों को पढायी जाने वाली सामग्री को चित्रों, वीडियो, ऑडियो द्वारा और भी आकर्षक बनाया जा सकता है. जो व्यक्ति शारीरिक अथवा मानसिक रूप से अक्षम हैं वे लोग एआई की मदद से उत्पन्न अवतारों के द्वारा अपनी ऑनलाइन आवश्यकताओं को पूरा कर सकते हैं. इसके उलट डीपफेक तकनीक समाज के लिए चुनौती बनी है. इसके द्वारा किसी को भी बदनाम किया जा सकता है. दुर्भावनावश अश्लील सामग्री का निर्माण, फर्जी खबरों का प्रचार-प्रसार किया जा सकता है. यह अपने क्षेत्र के प्रसिद्ध व्यक्तियों, विशेषरूप से महिलाओं की विश्वसनीयता, सम्मान को नुकसान पहुँचा सकती है.

 

वर्तमान में यद्यपि भारत में ऐसे विशिष्ट कानून या नियम नहीं हैं जो डीपफेक तकनीक के उपयोग को प्रतिबंधित करते हों तथापि सूचना प्रौद्योगिकी अधिनियम, भारतीय दंड संहिता, डिजिटल व्यक्तिगत डाटा संरक्षण अधिनियम आदि के द्वारा कार्यवाही का विधान है. वैश्विक स्तर पर 1-2 नवम्बर को ब्रिटेन के बकिंघमशायर के बैलेचली पार्क में विश्व के प्रथम एआई सुरक्षा शिखर सम्मेलन-2023 में भारत, अमेरिका, चीन सहित 28 प्रमुख देशों ने एआई के संभावित जोखिमों को दूर करने के लिये वैश्विक कार्रवाई की आवश्यकता सम्बन्धी घोषणापत्र पर हस्ताक्षर किये. इस तकनीक के बढ़ते खतरों, गोपनीयता, सामाजिक स्थिरता, राष्ट्रीय सुरक्षा और लोकतंत्र पर सम्भावित प्रभाव को देखते हुए भारत को डीपफेक पर नियंत्रण हेतु एक कानूनी ढाँचा विकसित करने की आवश्यकता है. 





 

कोई टिप्पणी नहीं:

एक टिप्पणी भेजें