"फेक न्यूज" के इस युग में, एक नयी मुसीबत सामने आई है: Deepfakes. डीपफेक्स ऐसे फेक वीडियोज हैं जिसमें व्यूअर्स पूरी तरह धोखा खा जाते हैं. इन वीडियोज में आम व्यक्ति या कोई सेलिब्रिटीज को वैसे काम करते हुए दिखाया जाता है, जो उन्होंने कभी किए ही नहीं. ये आर्टिफिशियल इंटेलीजेंस के कारण ही संभव हो पाया है कि यूजर्स hyperrealistic result क्रिएट कर पाते हैं, जिसका पता लगाना लगभग नामुमकिन है.
यदि आप डीपफेक के बारे में सब कुछ जानना चाहते हैं और ये भी जानना चाहते हैं कि इससे क्यों बच कर रहना चाहिए, तो ये आर्टिकल आखिर तक पढ़ें.
Deepfake दो शब्दों से मिल कर बना है: डीप लर्निंग यानी वो लर्निंग सिस्टम जो आर्टिफिशियल इंटेलीजेंसी का इस्तेमाल करती है. दूसरा फेक यानी झूठा. सबसे पहला डीपफेक वो वीडियो था जो वायरल हो गया था. इस वीडियो में जेसिका अल्बा और नटाले फोर्टमैन जैसे हॉलीवुड कलाकारों को पोर्न मूवी में एक्टिंग करते हुए दिखाया गया था. इसके बाद, ये बात सामने आई कि ये वीडियोज कुछ माहिर लोगों ने आर्टिफिशियल इंटेलीजेंस की मदद से तैयार की थी. इस तरह की घटनाएं साल 2018 में शुरू हुईं. तब से दूसरे अदाकारों के कई वीडियोज अब तक सामने आ चुके हैं.
इनमें हास्य अभिनेता बिल हैदर को डेविड लेटरमैन के टॉक शो में टॉम क्रूज के रूप में दिखाया गया था. इसी तरह बॉलीवुड अभिनेत्री प्रियंका चोपड़ा भी डीपफेक का शिकार हो चुकी हैं.
राजनीतिक शख्सियतों की बात करें, तो अमरीकी राष्ट्रपति बराक ओबामा ऐसे ही एक वीडियो में डोनल्ड ट्रंप का अपमान करते हुए दिखाए गए. आप समझ सकते हैं कि डीपफेक में केवल पोर्न का ही नहीं ऐसे भाषणों का भी सहारा लिया गया जो उस वीडियो में दिखने वाले शख्स की प्रतिष्ठा को गंभीर रूप से नुकसान पहुँचा सकते हैं. इन वीडियोज में इन्हें वो बातें या शब्द बोलते हुए दिखाया गया है जो उन्होंने खुद कभी भी नहीं बोलें, या इस्तेमाल किए हैं.
आज सबसे आश्चर्य की बात ये है कि जब इन्हें सबसे पहले देखा गया, उसके बाद आज ये तकनीक किस तेजी से इन ऊंचाइयों तक आ पहुँची है. इस वक्त तो ऐसे अनगिनत प्रोग्राम और ऐप्लिकेशन उपलब्ध हैं जिनकी मदद से कोई भी आसानी से डीपफेक क्रिएट कर सकता है.
ये सब करने के लिए आपको बस इनमें से कोई एक सॉफ्टवेयर, जिस व्यक्ति का आप डीपफेक बना रहे हैं उसके कुछ वीडियोज और इन सबको एक प्रोग्राम में बस एंटर कर देना है. आर्टिफिशियल इंटेलीजेंस व्यक्ति के हाव-भाव को समझ कर उसकी नकल तैयार करता है, उन तस्वीरों को फ्रेम दर फ्रेम इस तरह निकालता है जैसे वो फोटोग्राफ हों. और फिर कुछ ही मिनटों में डीपफेक वीडियोज तैयार हो जाते हैं: प्रोग्राम में आप जितनी अधिक जानकारियां डालेंगे, डीपफेक उतना ही असली लगेगा.
वैसे तो ये साइंस फिक्शन तकनीक किसी को भी अपनी ओर खींच सकती है, मगर इसमें कई खतरे हैं. हालांकि हम झूठी तस्वीरों और फेक न्यूज के आदी हो चुके हैं. कई लोग आज भी इन तस्वीरों को देखकर किसी व्यक्ति या घटना के बारे में अपनी राय बना लेते हैं. क्या आपको अंदाजा है कि इस डीपफेक वीडियोज से कितना गहरा नुकसान पहुँच सकता है? जानकारों की चेतावनी के मुताबिक डीपफेक का इस्तेमाल चुनाव में हेर-फेर के मकसद से किया जा सकता है. यही नहीं, ऐसे नकली वीडियोज समाज में विद्रोह का कारण बन सकते हैं.
दूसरी ओर, ये भी सच है कि डीपफेक का इस्तेमाल केवल जानी-मानी हस्तियों को शर्मिंदा करने के लिए ही नहीं किया जा रहा. मेक्सिको सहित कई देशों में पहले से ऐसे वीडियोज का इस्तेमाल लोगों से जबरन वसूली के लिए होता रहा है. इसमें वे लोग शामिल हैं जिन्हें पहले तो नेटवर्क की ओर से संपर्क किया गया. फिर उनका फेक वीडियोज बना कर उन्हें ब्लैकमेल किया जाने लगा. इन वीडियोज में उन्हें सेक्स करते हुए या नंगे दिखाया गया है:
सबसे पहले, तो आपको जब भी कोई ऐसा वीडियो मिले जिसमें ऐसा कुछ दिखाया गया हो, जिस पर आप विश्वास ही ना कर पा रहे हों, तोवेब पर जाकर वैकल्पिक और विश्वस्त सूत्रों की मदद से इस खबर को खोजें (उदाहरण के लिए जानी मानी मीडियो सोर्स) की मदद से खबर को सत्यापित कर लें. उदाहरण के लिए, किसी नेता के भाषण में किसी खास शब्द का जबरदस्त इस्तेमाल हुआ हो, या किसी ने संदिग्ध टिप्पणी किया हो, तो उसे जरूर जांच लें.
जहां तक आपकी सुरक्षा और निजता का सवाल है, आप जो भी जानकारियां नेटवर्क पर अपलोड करे हैं, उस पर थोड़ा ठहर कर सोचें. और यदि दुर्भाग्य से आप इस तरह की धोखाधड़ी का शिकार हो जाते हैं, तो तुरंत पुलिस को रिपोर्ट करें.
Photo: 123rf.com