
आज डिजिटल दौर में सोशल मीडिया पर कई वीडियो ऐसे भी दिखाई देते हैं जो वास्तविक नहीं होते हैं। इन्हें 'डीपफेक वीडियोज' कहा जाता है। यह सेलिब्रिटियों के लिए मुसीबत भी बन चुकी है। आर्टिफिशियल इंटेलिजेंस (एआई) की तकनीक की वजह से आज जहां एक ओर दुनिया उत्साहित है वहीं इसके गलत इस्तेमाल को लेकर भी चिंताएं बढ़ रही हैं। इसी को ध्यान में रखते हुए अब केंद्र सरकार ने डीपफेक वीडियोज पर रोक लगाने के लिए कानून लाने जा रही है। डीपफेक पर केंद्रीय संचार, इलेक्ट्रॉनिक्स और आईटी मंत्री अश्विनी वैष्णव ने कहा, सभी सोशल मीडिया प्लेटफॉर्म को बैठक के लिए बुलाया गया था। सभी के साथ चर्चा हुई और सभी ने डीपफेक के खतरे और इसकी गंभीरता को स्वीकार किया कि ये एक बहुत बड़ा सामाजिक खतरा उभर कर आया है।
केंद्रीय मंत्री अश्विनी वैष्णव ने कहा कि डीपफेक पर एक नए रेगुलेशन की जरूरत है, अगले कुछ हफ्तों में रेगुलेशन के ड्राफ्ट को तैयार करने की कोशिश की जाएगी। उन्होंने कहा कि कंपनियां ‘डीपफेक’ का पता लगाने, इससे निपटने, इसकी सूचना देने के तंत्र को मजबूत करने और उपयोगकर्ताओं में जागरूकता बढ़ाने जैसी स्पष्ट कार्रवाइयां करने पर सहमत हुईं। डीपफेक में आर्टिफिशियल इंटेलिजेंस (एआई) का इस्तेमाल करते हुए किसी तस्वीर या वीडियो में मौजूद व्यक्ति की जगह किसी दूसरे को दिखा दिया जाता है। डीपफेक ऐसे वीडियोज होते हैं इसमें इतनी समानता होती है कि असली और नकली में अंतर करना काफी मुश्किल होता है। इनमें आर्टिफिशियल इंटेलिजेंस तकनीक और मशीन लर्निंग सॉफ्टवेयर का इस्तेमाल किया जाता है।
हाल ही में पीएम मोदी, एक्ट्रेस रश्मिका मंदाना और काजोल के डीपफेक वीडियोज वायरल हुए थे। पीएम मोदी का भी गरबा करते हुए डीपफेक वीडियो सामने आया था। इससे फेक कंटेंट बनाने के लिए टेक्नॉलॉजी और उपकरणों के दुरुपयोग को लेकर भी कई सवाल खड़े हो गए। इस मामले पर प्रधानमंत्री नरेंद्र मोदी ने कहा था कि गरबा खेलते हुए उनका एक वीडियो सोशल मीडिया पर वायरल हो रहा है, जबकि उन्होंने कभी गरब खेला ही नहीं। पीएम मोदी ने भी मामले पर गंभीरता दिखाते हुए कहा कि इस तरह की चीज खतरनाक है।
आज के डिजिटल दौर में कई बार गलत खबरें और भ्रामक जानकारियां इंटरनेट की मदद से लोगों तक पहुंचाई जा रही हैं। ऐसे ही वीडियो भी पहुंचाए जाते हैं। इसे डीपफेक कहते हैं। इनका उपयोग करके मीडिया फाइल जैसे फोटो, ऑडियो और वीडियो की परिवर्तित कॉपी तैयार की जाती है, जो वास्तविक फाइल की तरह ही दिखती है। सरल भाषा में कहें तो डीपफेक, मॉर्फ वीडियो का ही एडवांस रूप है।