• India
  • Thu , Feb , 29 , 2024
  • Last Update 06:58:AM
  • 29℃ Bhopal, India

समाज को खोखला कर देगी, डीपफेक तकनीक

राकेश दुबे राकेश दुबे
Updated Sun , 29 Feb

सार

डीपफेक बनाने में कृत्रिम बुद्धिमत्ता के जरिये किसी की फर्जी तस्वीर या वीडियो बनाया जाता है...!!

janmat

विस्तार

देश में डीपफेक तकनीक से शिकार होने के मामले लगातार सामने आ रहे हैं। इस संकट को लेकर पिछले दिनों प्रधानमंत्री भी चिंता जता चुके हैं। अब सरकार भी सोशल मीडिया कंपनियों को चेता चुकी है कि वे इसके लिये जवाबदेह होंगे और उन्हें सेफ हार्बर नहीं मिलेगा। सरकार इस मामले में कमर कस चुकी है और पंद्रह दिन में नया कानून लाने की बात कर रही है, जिसमें पुराने नियमों में बदलाव करके नये सख्त नियम जोड़ने की बात सामने आई है। 

उल्लेखनीय है कि इस तकनीक के गलत इस्तेमाल से बने सेलिब्रिटीज के भी कई डीपफेक वीडियो वायरल हुए हैं। इसमें बॉलीवुड अभिनेत्रा रश्मिका मंदाना, काजोल व कटरीना आदि के नाम सामने आए हैं। दरअसल, ऐसा नहीं है कि डीपफेक के मामले केवल भारत तक ही सीमित हों। विगत में पूर्व अमेरिकी राष्ट्रपति बराक ओबामा व मेटा के मुखिया मार्क जुकरबर्ग भी इसकी चपेट में आ चुके हैं।

डीपफेक बनाने में कृत्रिम बुद्धिमत्ता के जरिये किसी की फर्जी तस्वीर या वीडियो बनाया जाता है। इसमें कृत्रिम बुद्धिमता के एक प्रकार डीप लर्निंग का प्रयोग किया जाता है, जिसके चलते इसे डीपफेक कहा जाता है। दुनिया में अश्लील सामग्री तैयार करने में बड़े पैमाने पर इस तकनीक का प्रयोग किया जाता रहा है। इस मामले में तकनीकी विस्तार से समाज पर खासा प्रतिकूल असर पड़ रहा है। हर साल हजारों की संख्या में डीपफेक वीडियो इंटरनेट पर प्रसारित होते रहते हैं। 

इस तकनीक का प्रयोग महिलाओं की छवि को नुकसान पहुंचाने के लिये किया जाता रहा है, जिसके लिये फिल्म व संगीत से जुड़ी हस्तियों को ज्यादा निशाना बनाया जाता है। कुछ साल पहले भारत में फर्जी वीडियो बनाकर संप्रदाय विशेष के लोगों को टारगेट किया गया था। ऐसा भी नहीं है कि सिर्फ महिलाएं ही इस फर्जी तकनीक का शिकार होती हैं। पुरुष भी इस भ्रमजाल का शिकार बनते हैं। लेकिन सामान्यत: पुरुष ऐसे मामलों को गंभीरता से नहीं लेते।

बहरहाल, यह रोग समाज को घुन की तरह खोखला कर रहा है। अब तक ऐसी खबरें आती थी कि विशिष्ट लोगों के चित्रों से छेड़छाड़ की गई है, लेकिन उसकी पहचान हो जाती थी कि खेल नकली है। लेकिन कृत्रिम बुद्धिमत्ता के चलते डीपफेक इतनी चतुराई से तैयार किया जाता है कि सही-गलत का भेद करना मुश्किल हो जाता है, जिसका उपयोग किसी की प्रतिष्ठा को ठेस पहुंचाने के लिये किया जाता है। चिंता की बात यह है कि विकसित तकनीक के जरिये वीडियो व ऑडियो के सही-गलत का भेद करना मुश्किल हो जाता है। ऐसे में यदि इसका दुरुपयोग धार्मिक व सांप्रदायिक मामलों में किया जाता है तो समाज में अराजकता की स्थिति पैदा हो सकती है।

संकट यह भी है कि इस तकनीक के जरिये ऑडियो का भी डीपफेक तैयार किया जाता है। बड़ी हस्तियों की आवाज बदलने के लिये वायस क्लोन्स का इस्तेमाल किया जाता है। आज शातिर लोग बिना कंप्यूटर के मोबाइल से भी डीपफेक वी़डियो बनाने लगे हैं, जो साइबर अपराधियों का नया हथियार बन गया है, जिसके जरिये इसका इस्तेमाल भयादोहन व फिरौती वसूलने तक के लिये किया जा रहा है। किसी भी सामाजिक व्यक्ति की छवि खराब करने के लिये डीपफेक वीडियो को सोशल मीडिया पर डालकर वे अपने खतरनाक मंसूबों को अंजाम देते हैं। खासकर वे समाज के प्रतिष्ठित व्यक्तियों व राजनेताओं को निशाने पर लेते हैं। 

आशंका व्यक्त की जा रही है कि भविष्य में चुनाव के दौरान मतदाताओं को भ्रमित करने के प्रयास किये जा सकते हैं। राजनेताओं के डीपफेक वीडियो प्रसारित करने से राजनीतिक दल की संभावनाओं को प्रभावित करने की आशंका भी पैदा हो सकती है। यही वजह है कि पिछले दिनों प्रधानमंत्री ने इसे देश के सामने मौजूद बड़े खतरों के रूप में दर्शाया और समाज में अराजकता फैलने की आशंका व्यक्त की। उम्मीद की जानी चाहिए कि नये कानून बनने और इस मामले में कड़ी सजा के प्रावधान से इस चुनौती का मुकाबला किया जा सकेगा।