मुंबई में आयोजित ग्लोबल फिनटेक फेस्ट 2025 के दौरान, वित्त मंत्री निर्मला सीतारमण ने AI के दुरुपयोग के बारे में चेतावनी दी। उन्होंने खुलासा किया कि उनके कई डीपफेक वीडियो ऑनलाइन प्रसारित हो रहे हैं।
मंगलवार 7 अक्टूबर को मुंबई में आयोजित फिनटेक फेस्ट को संबोधित करते हुए, वित्त मंत्री निर्मला सीतारमण ने साइबर सुरक्षा के बारे में चेतावनी देते हुए कहा कि उन्होंने अपने कई डीपफेक वीडियो देखे हैं। डीपफेक वीडियो और ऑडियो वित्तीय उल्लंघनों से लेकर मानहानि तक, हर चीज़ के लिए एक वैश्विक उपकरण बन रहे हैं।
डीपफेक आर्टिफिशियल इंटेलिजेंस (AI) की मदद से बनाया जाता है। इसका मुकाबला करने के लिए, इंडिया AI ने पाँच परियोजनाओं के विकास को मंज़ूरी दी है जो वीडियो और ऑडियो में डीपफेक की तुरंत पहचान करेंगी, जिससे देश में सुरक्षित और विश्वसनीय AI उपकरणों का विकास सुनिश्चित होगा।
भारत अपनी ज़रूरतों के हिसाब से अपना AI मॉडल विकसित कर रहा है। आईआईटी जोधपुर, आईआईटी मंडी और आईआईटी खड़गपुर सहित पाँच संस्थानों को डीपफेक का पता लगाने के लिए एक परियोजना विकसित करने का काम सौंपा गया है। इन्हें साक्ष्य और AI विश्लेषक कहा जाएगा, जो वास्तविक समय में डीपफेक का पता लगाने में सक्षम होंगे।
सरकार का मानना है कि ये प्रणालियाँ भारत में ऐसे AI मॉडल विकसित करने में मदद करेंगी जो सुरक्षित, समावेशी हों और राष्ट्र निर्माण में योगदान दें, जिससे AI पारिस्थितिकी तंत्र का विकास हो। इंडियाAI, इलेक्ट्रॉनिक्स और आईटी मंत्रालय के अंतर्गत एक स्वतंत्र विभाग है, जो भारत के AI मिशन का नेतृत्व करता है।
वित्त मंत्री ने उन्नत तकनीक के "अंधकारमय पक्ष" से निपटने के लिए तैयार रहने का आह्वान किया। सीतारमण ने कहा, “जिन उपकरणों से नवाचार को बल मिलता है, उनका उपयोग धोखाधड़ी और छल के लिए भी किया जा सकता है। मैं इसे व्यक्तिगत रूप से नहीं ले रही हूँ, लेकिन मैं कह सकती हूँ कि मैंने ऑनलाइन कई डीपफेक वीडियो प्रसारित होते देखे हैं। इन डीपफेक वीडियो का इस्तेमाल नागरिकों को गुमराह करने और तथ्यों को तोड़-मरोड़ कर पेश करने के लिए किया गया है।”
उन्होंने कहा कि ये वीडियो इस तरह की हरकतों के खिलाफ हमारी सुरक्षा को "सक्रिय रूप से" बढ़ाने की आवश्यकता की याद दिलाते हैं। डीपफेक वीडियो किसी व्यक्ति के चेहरे, आवाज़ या हाव-भाव को किसी अन्य व्यक्ति या परिस्थिति से कृत्रिम रूप से जोड़ने के लिए AI और मशीन लर्निंग तकनीकों का उपयोग करते हैं। दर्शक अक्सर इन्हें असली वीडियो समझ लेते हैं।