कृत्रिम बुद्धिमत्ता लेबलों वाले संदेश दिखाए जा रहे हैं. सभी संदेश दिखाएं
कृत्रिम बुद्धिमत्ता लेबलों वाले संदेश दिखाए जा रहे हैं. सभी संदेश दिखाएं

11 फ़रवरी 2026

सरकार ने डीपफेक और एआई पर सख्त किए नियम

ऐसा लगता है जैसे कोई चीज मुफ्त में या फिर लगभग मुफ्त जैसी कीमत में मिलती है तो उसका दुरुपयोग पूरी ताकत से किया जाने लगता है. इस मामले में अनेकानेक उदाहरण हम सबके सामने हैं. ऐसे ही उदाहरणों में से एक ताजातरीन उदाहरण कृत्रिम बुद्धिमत्ता (एआई) का लिया जा सकता है. हम भारतीयों ने जिस तरह से डीपफेक सहित एआई का दुरुपयोग किया है, वैसा हाल एआई को सामने लाने वालों ने भी नहीं सोचा होगा. न जाने कितनी कृत्रिम सामग्री, बनावटी फोटो, नकली वीडियो आदि के माध्यम से सोशल मीडिया प्लेटफ़ॉर्म को इतनी बुरी तरह से भर दिया गया है कि कई बार असली और नकली का अंतर ही समझ नहीं आता है.

 



सवाल अकेले नकली सामग्री बनाये जाने का नहीं बल्कि इसके माध्यम से धोखाधड़ी, अश्लीलता आदि को बढ़ावा मिलने लगा था. लगातार आती शिकायतों को दृष्टिगत रखते हुए केन्द्र सरकार ने डीपफेक सहित एआई से तैयार सामग्री के सम्बन्ध में ऑनलाइन मंचों के लिए सख्त नियम बना दिए हैं. ये नियम इसी माह की बीस तारीख से लागू हो जाएँगे. इसके तहत सोशल मीडिया के विविध मंचों से डीपफेक वाली सामग्री को तीन घंटे के भीतर ही हटाना होगा. पहले इस सम्बन्ध में समय-सीमा 36 घंटे की थी. इसके अलावा एआई के माध्यम से निर्मित सामग्री, चाहे वो फोटो हो या फिर वीडियो, उसमें एआई कंटेंट होने का लेबल स्पष्ट रूप से लगाना होगा, जिससे दर्शकों को आसानी से असली और नकली का अंतर समझ आ सके.

 

सरकार ने सूचना प्रौद्योगिकी (मध्यवर्ती दिशानिर्देश और डिजिटल मीडिया आचार संहिता) नियम 2021 में संशोधन करके इसके माध्यम से एआई से निर्मित बनावटी कटेंट को परिभाषित किया गया है. इन संशोधनों में ‘ध्वनि, दृश्य या ध्वनि-दृश्य जानकारी' और ‘बनावटी रूप से तैयार की गई जानकारी' को परिभाषित किया गया है, जिसमें एआई द्वारा निर्मित या परिवर्तित ऐसी सामग्री शामिल है जो वास्तविक या प्रामाणिक प्रतीत होती है. इस तरह के संशोधनों से निश्चित रूप से एआई का दुरुपयोग रोकने में मदद मिल सकेगी.


24 जनवरी 2025

महाकुम्भ और एआई संचालित पत्रकारिता

सनातन के वास्तविक लोग, महाकुम्भ के सजग नागरिक कथित मीडिया और इस कृत्रिम बुद्धिमत्ता (AI) के हमले से सावधान रहें.

 

पत्रकारिता को लोकतंत्र का चौथा खम्भा माना जाता है. यहाँ ध्यान रहे कि 'माना' जाता है, वो चौथा खम्भा है नहीं. लोकतंत्र में मात्र तीन खम्भे ही सहज स्वीकार्य हैं-कार्यपालिका, विधायिका, न्यायपालिका. पत्रकारिता को जबरिया एक खम्भा घोषित कर दिया गया है. इस चौथे स्तम्भ की आड़ में उपजे कथित जबरिया, नियंत्रण-मुक्त, उच्छृंखल सोशल मीडिया खम्भे ने बहुत नुकसान पहुँचाया है. इसे प्रयागराज के महाकुम्भ में देखा जा सकता है.

 

हर हाथ मोबाइल, हर हाथ इंटरनेट ने सबको सोशल मीडिया चैनल बना दिया है. जहाँ मन हुआ मुँह उठाकर घुस पड़े. न सवाल पूछने की अकल, न विषय की गम्भीरता, न वातावरण-देशकाल का भान.... बस मोबाइल का मोबाइल ओं और बन गए पत्रकार. सनातन संस्कृति के पवित्र, पावन, भव्य, संस्कारित आयोजन महाकुम्भ पर ऐसे कथित मीडिया मंचों से बचने की आवश्यकता है. इन कथित मानसिकता वालों को पर्याप्त मदद मिल रही है कृत्रिम बुद्धिमत्ता (AI) से.


सावधान रहें.




11 नवंबर 2023

एआई दुरुपयोग का दुष्परिणाम है डीपफेक

पिछले दिनों फिल्म अभिनेत्री रश्मिका मंधाना का नकली वीडियो वायरल हुआ. इसके आने के बाद से भ्रम की एक स्थिति ‘फेक’ और ‘डीपफेक’ को लेकर बन गई. इंटरनेट की दुनिया में आये दिन लोग ‘फेक’ शब्द से सामना करते रहते हैं, अब उनका सामना ‘डीपफेक’ से भी हो गया. फेक कंटेंट में शामिल खबरों, वीडियो, चित्रों आदि की तरह ही डीपफेक कंटेंट भी इन्हीं सबके लिए प्रयोग किये जाने वाली तकनीक है. देखा जाये तो फेक और डीपफेक का मूल एक ही है लेकिन इनके बनाये जाने की प्रक्रिया में जमीन-आसमान का अंतर है. फेक कंटेंट में किसी फोटो, वीडियो, ऑडियो आदि की नकल की जाती है जबकि डीपफेक कंटेंट में किसी वीडियो, फोटो, ऑडियो या किसी अन्य डिजिटल सामग्री पर किसी दूसरे का चेहरा अथवा आवाज लगा कर उसे वायरल किया जाता है. डीपफेक निर्माण के लिए कृत्रिम बुद्धिमत्ता (आर्टिफिशियल इंटेलीजेंस-एआई) की सहायता ली जाती है. यह मूल कंटेंट का एक अवास्तविक रूप है जिसके द्वारा वीडियो, ऑडियो बनाकर लोगों को गुमराह किया जा सकता है. डीपफेक की विशेषता ये है कि इसमें असली और नकली में अंतर कर पाना कठिन होता है. फेक कंटेंट को सामान्य रूप में किसी साधारण सॉफ्टवेयर पर बनाया जा सकता है जबकि डीपफेक कंटेंट को बनाने के लिए कृत्रिम बुद्धिमत्ता (एआई) की सहायता ली जाती है. डीपफेक को डीप लर्निंग प्रक्रिया से लिया गया है, जिसका अर्थ है एआई की सहायता से किसी समस्‍या का समाधान खोजना.

 



यह एक बहुत बड़ा और दुर्भाग्ययुक्त सच है कि जैसे-जैसे नवीन तकनीक का आगमन हुआ, उसका विकास हुआ अपराधी मानसिकता वालों ने उसका दुरुपयोग किया है. एआई कोई पहली तकनीक नहीं है जिसका दुरुपयोग किया जाने लगा है, इससे पहले भी लगभग सभी तकनीकों का दुरुपयोग किया गया है. डीपफेक को पहली बार सन 2017 में अमेरिकी सामाजिक समाचार एकत्रीकरण वेबसाइट ‘रेडिट’ के उपयोगकर्ता द्वारा शुरू किया गया था. उसके द्वारा डीप लर्निंग तकनीक की मदद से अश्लील वीडियो पर प्रसिद्ध व्यक्तियों के चेहरे को लगाकर डीपफेक का निर्माण किया गया. इस घटना ने लोगों का ध्यान न केवल अपनी तरफ खींचा बल्कि तकनीक के दुरुपयोग पर भयभीत भी किया. इस तकनीक पर इंटरनेट पर उपलब्ध ओपन-सोर्स लाइब्रेरी और ऑनलाइन पाठ्य-सामग्री ने इसके दुरुपयोग को और अधिक बढ़ा दिया. अपराधी मानसिकता के लोगों के लिए अब इस तकनीक का इस्तेमाल और भी आसान हो गया था.

 

डीपफेक का निर्माण गणितीय, वैज्ञानिक परिकलन पर आधारित होता है. इसके लिए जेनरेटिव एडवरसैरियल नेटवर्क (GAN) तकनीक का इस्तेमाल किया जाता है. इस तकनीक में एक उत्पादक अर्थात जेनरेटर और एक विभेदक अर्थात डिस्क्रिमिनेटर नामक नेटवर्क होते हैं. इन दोनों को एक तरह से एल्गोरिदम कहा जा सकता है, जो डीपफेक निर्माण के लिए उपलब्ध डाटा का गणनात्मक आकलन करते हैं. दोनों नेटवर्क एआई की सहायता से काम करते हैं. डीपफेक निर्माण में जेनरेटर उस डिजिटल कंटेंट को तैयार करता है जो अवास्तविक चित्रों अथवा वीडियो के रूप में होता है और दिखने में वास्तविक जैसा. इसके बाद वह डिस्क्रिमिनेटर से इस बनाये गए कंटेंट की वास्तविकता पर प्रतिक्रिया माँगता है. डिस्क्रिमिनेटर बनायी गई सामग्री को वास्तविक सामग्री से अलग करते हुए जेनरेटर को अवास्तविक सामग्री का सच बताता है. उसकी लगातार मिलती प्रतिक्रिया से जेनरेटर अपनी बनायी सामग्री में तब तक सुधार करता है जब तक कि उस कंटेंट से डिस्क्रिमिनेटर भी दुविधा में नहीं आ जाता. सामान्यरूप में कहें तो यहाँ एक नेटवर्क कंटेंट तैयार करता है और दूसरा उसे डिकोड करके उसका वास्तविक जैसा अथवा बनावटी दिखना बताता है. जब डिस्क्रिमिनेटर कंटेंट को पूरी तरह से सच जैसा बता देता है तो उस वीडियो, ऑडियो आदि को वायरल कर दिया जाता है. डीपफेक बनाने के लिये किसी व्यक्ति के फोटो, वीडियो को उस व्यक्ति की जानकारी के बिना इंटरनेट पर उपलब्ध अनेक प्लेटफ़ॉर्म से एकत्र कर लिया जाता है.

 

वैज्ञानिक पद्धति पर आधारित इस तकनीक का इस्तेमाल यदि सकारात्मक रूप में किया जाये तो इसका लाभ समाज को मिल सकता है. शिक्षा, चिकित्सा, इतिहास आदि के क्षेत्र में इसके उपयोग से क्रांतिकारी बदलाव आ सकता है. ऐतिहासिक व्यक्तित्वों की आवाज़ को, उनकी कृतियों को संग्रहीत करके न केवल सुरक्षित रखा जा सकता है बल्कि उनका पुनर्निर्माण किया जा सकता है. ऐतिहासिक व्यक्तियों की कहानियों को, उनके जीवन की घटनाओं को उन्हीं के स्वर में सुनने का अद्भुत अनुभव लिया जा सकता है. विद्यार्थियों को पढायी जाने वाली सामग्री को चित्रों, वीडियो, ऑडियो द्वारा और भी आकर्षक बनाया जा सकता है. जो व्यक्ति शारीरिक अथवा मानसिक रूप से अक्षम हैं वे लोग एआई की मदद से उत्पन्न अवतारों के द्वारा अपनी ऑनलाइन आवश्यकताओं को पूरा कर सकते हैं. इसके उलट डीपफेक तकनीक समाज के लिए चुनौती बनी है. इसके द्वारा किसी को भी बदनाम किया जा सकता है. दुर्भावनावश अश्लील सामग्री का निर्माण, फर्जी खबरों का प्रचार-प्रसार किया जा सकता है. यह अपने क्षेत्र के प्रसिद्ध व्यक्तियों, विशेषरूप से महिलाओं की विश्वसनीयता, सम्मान को नुकसान पहुँचा सकती है.

 

वर्तमान में यद्यपि भारत में ऐसे विशिष्ट कानून या नियम नहीं हैं जो डीपफेक तकनीक के उपयोग को प्रतिबंधित करते हों तथापि सूचना प्रौद्योगिकी अधिनियम, भारतीय दंड संहिता, डिजिटल व्यक्तिगत डाटा संरक्षण अधिनियम आदि के द्वारा कार्यवाही का विधान है. वैश्विक स्तर पर 1-2 नवम्बर को ब्रिटेन के बकिंघमशायर के बैलेचली पार्क में विश्व के प्रथम एआई सुरक्षा शिखर सम्मेलन-2023 में भारत, अमेरिका, चीन सहित 28 प्रमुख देशों ने एआई के संभावित जोखिमों को दूर करने के लिये वैश्विक कार्रवाई की आवश्यकता सम्बन्धी घोषणापत्र पर हस्ताक्षर किये. इस तकनीक के बढ़ते खतरों, गोपनीयता, सामाजिक स्थिरता, राष्ट्रीय सुरक्षा और लोकतंत्र पर सम्भावित प्रभाव को देखते हुए भारत को डीपफेक पर नियंत्रण हेतु एक कानूनी ढाँचा विकसित करने की आवश्यकता है.