Zee News DNA on Deepfake: लोकसभा चुनाव का आज पहला चरण था. 21 राज्यों की 102 सीटों पर आज वोटिंग हुई. पार्टियां अब दूसरे चरण के चुनाव प्रचार में जुट गई हैं. इस बार चुनाव प्रचार में Technology का जमकर प्रयोग हो रहा है... लेकिन साथ ही साथ चुनाव प्रचार में Technology का दुरुपयोग भी किया जा रहा है. कुछ शरारती तत्व अपनी चहेती राजनीतिक पार्टियों, और उम्मीदवारों को फायदा पहुंचाने के लिए बॉलीवुड celebs के Deepfake वीडियोज़ का सहारा ले रहे हैं.


COMMERCIAL BREAK
SCROLL TO CONTINUE READING

कुछ दिन पहले आमिर खान का एक Deepfake वीडियो वायरल हुआ था, जिसमें वो कांग्रेस पार्टी के लिए वोट मांगते नजर आ रहे थे... वीडियो वायरल होने के बाद आमिर खान को इस पर सफाई देनी पड़ी, और उन्होंने कहा कि वो किसी पार्टी का समर्थन नहीं करते. आमिर खान ने साइबर सेल में FIR भी दर्ज कराई थी. लेकिन अब रणवीर सिंह का भी ऐसा ही एक Deepfake वीडियो वायरल हो रहा है.


एक्टर रणवीर सिंह का डीपफेक वीडियो हुआ वायरल


इस Fake वीडियो में रणवीर सिंह एक पॉलिटिकल पार्टी का सपोर्ट करते नजर आ रहे हैं. ये वीडियो हाल ही में रणवीर सिंह की वाराणसी विजिट का है. जिसमें वो शहर से जुड़े अपने एक्सपीरियंस शेयर कर रहे थे. लेकिन AI के Deepfake तकनीक से बनाए गए वीडियो में... Ranveer Singh को केंद्र सरकार पर हमला बोलते हुए दिखाया गया है.  इस Fake वीडियो में रणवीर सिंह मतदाताओं से सही पार्टी को वोट देने की बात कह रहे हैं. वीडियो के अंत में 'वोट फॉर कांग्रेस' टैगलाइन भी लगाई गई है. इस वीडियो के वायरल होने के बाद रणवीर सिंह ने ट्वीट किया है और 'डीप फेक से बचने की अपील की है.


हम आपको इस FAKE VIDEO का पूरा Demo बताते हैं ताकि आप भी Deepfake वीडियो वाले खतरे से सावधान हो जाएं. AI का चुनाव प्रचार में प्रयोग कोई नई बात नहीं है. कुछ लोग इसका इस्तेमाल नये वोटर्स तक पहुंच बढ़ाने के लिए करते हैं. जबकि इसी तकनीक का दुरुपयोग भी किया जा सकता है. जैसे राजनीतिक दल बिना किसी सेलेब्रिटी को पैसे दिए. उनके AI GENERETED वीडियो का इस्तेमाल अपने चुनाव प्रचार में कर सकते हैं. हालांकि AI TECHNOLOGY का इससे भी खतरनाक दुरुप्रयोग किया जा सकता है. 


चुनावों को प्रभावित कर सकती है तकनीक


जब एक पॉलिटिकल पार्टी किसी विरोधी दल या विरोधी नेता को बदनाम करने के लिए AI GENERETED DEEPFAKE VIDEO बनाती है. लेकिन इस तकनीक का सबसे खतरनाक इस्तेमाल तब हो सकता है. जब एक देश किसी दूसरे देश के चुनाव को प्रभावित करने के लिए... DEEPFAKE VIDEO का सहारा लेता है..भले ही ये तकनीक नई लग रही हो, लेकिन इसका इस्तेमाल काफी पहले से हो रहा है. इसके कुछ उदाहरण हम आपको बताते हैं.


पहली वो स्थिति है जब एक पार्टी अपने नेता की पहुंच ज्यादा से ज्यादा मतदाताओं तक बढ़ाने के लिए... AI VIDEO बनाती है. वर्ष 2020 के दिल्ली विधानसभा चुनाव में ऐसा हो चुका है. तब बीजेपी ने अपने उम्मीदवार मनोज तिवारी के हरियाणवी और अंग्रेजी भाषा में AI वीडियो बनाए थे. 


पाकिस्तान में भी दिखा था एआई का जलवा


हाल ही में हुए पाकिस्तान चुनाव में भी AI का इस्तेमाल किया गया था. पाकिस्तान में चुनाव के दौरान इमरान खान जेल में थे. इमरान खान अपना बयान लिखकर अपनी पार्टी के नेताओं को देते थे. उसके बाद AI की मदद से इस लिखित बयान को इमरान की आवाज़ में बदल दिया जाता था. पार्टी की रैलियों में इस AI Generated Audio Video clips चलाई गई थी. इस तरह से देखा जाए तो इमरान खान जेल के अंदर रहकर भी, AI की मदद से रैलियां कर रहे थे.


अब आपको AI के दुरुपयोग की दूसरी स्थिति समझाते हैं. जब कोई राजनैतिक दल अपने चुनाव प्रचार के लिए किसी ऐसे नेता का AI VIDEO बनाये जिसका निधन हो चुका है... जैसा तमिलनाडु में हो चुका है. पिछले एक वर्ष में तमिलनाडु की दोनों मुख्य राजनीतिक पार्टियां अपने राजनीतिक प्रचार में AI का खूब इस्तेमाल कर रही हैं. DMK के सबसे बड़े नेता एम करुणानिधि का निधन वर्ष 2018 में हो गया था. लेकिन पिछले 6 महीने में DMK के अलग-अलग राजनीतिक कार्यक्रमों में एम करुणानिधि का AI Generated वीडियो चलाया जा रहा है. इन वीडियोज़ में एम करुणानिधि अपने खास अवतार अपने बेटे स्टालिन की तारीफ करते हुए दिखाए जाते हैं. एम करुणानिधि के इस AI Generated अवतार में उनका लुक वही है जिसमें वो जीवन भर नजर आते रहे हैं. वो सफेद कुर्ता,पीला गमछा और काला चश्मे पहने हुए दिखाई देते हैं.


मर चुके नेताओं के दिखाए जा रहे डीपफेक वीडियो


यही नहीं तमिलनाडु की मुख्य विपक्षी पार्टी AIADMK भी AI के इस्तेमाल में पीछे नहीं है. AIADMK की सबसे बड़ी महिला नेता जयललिता का निधन 2016 में ही हो गया था. लेकिन वर्ष 2024 में भी उनके AI Generated ऑडियो सामने आ रहे हैं, जिसमें वो सत्ताधारी पार्टी DMK के विरोध में बोलती सुनाई देती हैं. AIADMK के राजनीतिक कार्यक्रमों में भी जयललिता के AI Generated ऑडियो जनता को सुनाए जा रहे हैं.


राजनीतिक कार्यक्रमों में अक्सर स्वर्गीय वरिष्ठ नेताओं की तस्वीरें लगाई जाती है. इन तस्वीरों पर फूल चढ़ाकर नेतागण अपने पक्ष में माहौल बनाने की कोशिश करते हैं. लेकिन AI के ज़माने में अब नई परिपाटी शुरू की गई है. अब तस्वीरें नहीं बल्कि सीधा AI Generated वीडियो ही चलाए जा रहे हैं, जिसमें मृत नेता जीवित अवतार में आकर जनता को संबोधित कर रहे हैं.


AI के चुनावी इस्तेमाल की तीसरी स्थिति वो है. जब कोई पार्टी किसी सेलिब्रिटी को बिना कोई पैसे दिए उनके AI वीडियो का इस्तेमाल अपने चुनाव प्रचार में करे. जैसा इस बार आमिर खान और रणवीर सिंह के साथ हुआ. चौथी स्थिति वो है... जब एक पार्टी अपने विरोधी पार्टी या नेता को बदनाम करने के लिए... AI तकनीक का इस्तेमाल करे, जैसा कि अमेरिका में हो चुका है.


अमेरिका में भी हो चुका है हंगामा


अमेरिका में रिपब्लिकन पार्टी ने हाउस ऑफ कांग्रेस की चेयरपर्सन... Nancy Pelosi का deepfake video निकाला था. जिसमें उनकी आवाज को बदल दिया गया था और ऐसा लग रहा था कि वो नशे में हैं. ये वीडियो डोनल्ड ट्रंप ने भी ट्वीट किया था. इस तरह के वीडियो से किसी भी नेता की छवि को डैमेज किया जा सकता है.


आपको जानकार हैरानी होगी कि भारत में भी ऐसा हो चुका है... पिछले वर्ष नवंबर में जब 5 राज्यों के विधान सभा चुनाव हुए थे. तब BRS यानि भारत राष्ट्र समिति ने चुनाव आयोग में ये शिकायत की थी, कि कांग्रेस पार्टी ने वोटिंग के दिन एक फेक वीडियो शेयर किया था... जिसमें BRS के नेता... केटी रामाराव लोगों से कांग्रेस को वोट देने की अपील कर रहे थे... अब ये तो नहीं कहा जा सकता इस वीडियो से कितने लोगों के वोट प्रभावित हुए थे, लेकिन तेलंगाना में कांग्रेस ने BRS को हराकर सरकार बनाई थी.


दूसरे देश का चुनाव प्रभावित करने की कोशिश


AI के दुरुपय़ोग की सबसे खतरनाक स्थित वो है, जब एक देश किसी दूसरे देश के चुनाव या लोकतंत्र को, प्रभावित करने की कोशिश करता है. वर्ष 2016 के अमेरिकी राष्ट्रपति चुनाव में विदेशी दखल हुआ था...तब अमेरिकी जांच एजेंसियों ने लंबी जांच के बाद ये माना था कि... कुछ विदेशी ताकतें 2016 के चुनाव में डोनल्ड ट्रंप को जिताने के लिए फेक न्यूज फैला रही थीं.


भारत के इस लोकसभा चुनाव में भी Mircrosoft ने आशंका जताई थी कि चीन फेक न्यूज और फेक वीडियो के जरिए भारत के चुनाव को प्रभावित कर सकता है. अमेरिका की Tech Company Microsoft ने चीन की AI चालबाजी का खुलासा किया था.


Microsoft ने अपने एक Blog post में कहा है था... कि चीन इस वर्ष Artificial intelligence से बने content का इस्तेमाल करके भारत, अमेरिका और दक्षिण कोरिया में होने वाले चुनावों में असर डालने की कोशिश करेगा. AI की मदद से इन देशों की लोकतांत्रिक प्रक्रिया को, प्रभावित करने की इस साजिश में उसके साथ उत्तर कोरिया के भी शामिल होने का दावा किया गया था.


भारत में चुनाव को पहुंचा सकती हैं नुकसान


चीन के इस षडयंत्र का खुलासा Microsoft की THREAT INTELLIGENCE TEAM ने किया है. उनके मुताबिक अपने हितों के लिए चीन के Hackers group, उत्तर कोरिया की मदद से वर्ष 2024 में होने वाले कई देशों के चुनावों को निशाना बना सकता है. ये लोग Social Media के माध्यम से लोगों तक पहुंच रहे हैं, और AI की मदद से भ्रामक CONTENT तैयार करके जनता के विचारों को प्रभावित कर रहे हैं.


Microsoft ने अपनी Blog post में कहा है कि "इस वर्ष दुनिया भर में प्रमुख चुनाव हो रहे हैं, खासकर भारत, दक्षिण कोरिया और अमेरिका में. हमारा आकलन है कि चीन, कम से कम, अपने हितों को लाभ पहुंचाने के लिए Fake AI-CONTENT बनाएगा और फैलाएगा."


डीपफेक पर सरकार ने जारी की गाइडलाइन


DEEPFAKE एक ऐसा खतरा है, जिसपर प्रधानमंत्री नरेंद्र मोदी भी चिंता जता चुके है... पीएम मोदी ने कहा था कि deepfake से समाज में अशांति और अराजकता पैदा हो सकती है...इसीलिए इस खतरे से निपटने के लिए Ministry of Electronics and Information Technology ने इसी महीने एक Advisory जारी की है...इस Advisory में कहा गया है कि सभी सोशल मीडिया कंपनियां IT नियमों का पालन करें. सोशल मीडिया कंपनियां deepfake पर लोगों को आगाह करें. गलत और अनुचित कंटेंट पर कार्रवाई की जाए.


Advisory के rule 3(1)(b) का हवाला देते हुए कहा गया है कि अगर कोई अनुचित कंटेंट को social media platform पर पोस्ट या शेयर करेगा, तो उसके खिलाफ इस rule के तहत कार्रवाई की जाए. सरकार ने सोशल मीडिया कंपनियों को Misinformation और deepfakes पर ज्यादा ध्यान देने के लिए कहा है. सभी नियमों का सख्ती से पालन करने को कहा है. क्योंकि सरकार भी deepfake को लोकतंत्र के लिए खतरा मान रही है. इस साल 64 देशों में चुनाव हो रहे हैं... ऐसे में Deepfake का चुनावी दुरुपयोग, नतीजों को प्रभावित कर सकता है