Zee News DNA on Deepfake Video: चेहरा और आवाज़, ये इंसान की वो पहचान हैं जो उसे दुनिया में दूसरों से अलग बनाती हैं. लेकिन अगर आपकी इन दोनों चीजों को कोई चुरा ले तो क्या होगा? आज के समय में आपका चेहरा भी चोरी हो सकता है. आपकी आवाज भी चोरी हो सकती है. ये बात आपको सुनने में अजीब सी जरूर लगेगी, लेकिन ये 100 प्रतिशत सच है.


COMMERCIAL BREAK
SCROLL TO CONTINUE READING

तकनीक कितनी तेजी से आगे बढ़ रही है, इसका अंदाज़ा भी नहीं लगाया जा सकता है. आज के समय में मशीन से कोई भी काम चुटकियों में करवाया जा सकता है. deepfake वीडियो आज के समय की सबसे नई समस्या है. deepfake वीडियो एक ऐसी समस्या है जो दुनिया के हर देश और हर नागरिक को प्रभावित कर सकती है. 


दुनिया में डीपफेक का बढ़ रहा खतरा


इन दिनों deepfake तकनीक की काफी चर्चा है. ये वही तकनीक है जिसके जरिए किसी का भी चेहरा चुराया जा सकता है...किसी की भी आवाज की हूबहू कॉपी की जा सकती है. दुनिया के कई दूसरे देशों की ही तरह भारत में भी deepfake का इस्तेमाल कर ऐसे लोगों को निशाना बनाया जा रहा है जो सेलिब्रिटी हैं या फिर राजनीति से ताल्लुक रखते हैं.


हाल ही में अमेरिका की HOME SECURITY HEROES की एक रिपोर्ट आई है. जिसके मुताबिक वर्ष 2023 में पुरी दुनिया में करीब 95,820 डीपफेक वीडियो बनी. इसमें 98 प्रतिशत deepfakes वीडियो पोर्नोग्राफी से संबंधित हैं. यानि इन वीडियो का कंटेंट अश्लील है. 2 प्रतिशत ऐसी deepfakes वीडियो है जो Non-pornographic है. यानि अश्लील नहीं है. इस रिपोर्ट में सबसे हैरान करने वाली बात ये है कि 99 प्रतिशत deepfake पोर्नोग्राफी वीडियो महिलाओं की है. 1 प्रतिशत deepfakes वीडियो पुरूषों की है.


महिलाओं को किया जा रहा है टारगेट


ये रिपोर्ट बहुत बड़े खतरे के बारे में बता रही है. वर्ष 2023 में 99 प्रतिशत Deepfake वीडियो महिलाओं की बनाई गई. यानि महिलाओं को टारगेट किया गया. डीपफेक वीडियो बनाने वालों ने इसे एक कारोबार की तरह इस्तेमाल किया है. आज के समय में हर रोज़ सैकड़ों deepfake पोर्न वीडियो क्लिप इंटरनेट पर अपलोड हो रही हैं...जिसमें सबसे ज्यादा महिलाओं को टारगेट किया गया है. रिपोर्ट के मुताबिक deepfake pornography के लिए कई देशों को टारगेट किया जा रहा है. जिसमें दक्षिण कोरिया में सबसे ज्यादा 53 प्रतिशत डीपफेक पोर्न वीडियो बनीं. 


अमेरिका में 20 प्रतिशत, जापान में 10 प्रतिशत deepfake pornography Video बनीं. इंग्लैंड में 6 प्रतिशत, चीन में 3 प्रतिशत डीपफेक पोर्नोग्राफी वीडियो बनीं. भारत में भी डीपफेक वाला खतरा महिलाओं और लड़कियों पर मंडरा रहा है...भारत में 2 प्रतिशत deepfake pornography Video बनी. ताइवान में 2 प्रतिशत और इज़रायल में 1 प्रतिशत deepfake pornography Video बनीं.


आने वाले दिनों में बन सकता है समस्या


इसी से आप समझ सकते हैं कि deepfake pornography वाला ये खतरा एक या दो देश के लिए नहीं, बल्कि दुनिया के कई बड़े देशों के लिए खतरा बन रहा है. 2023 में 2019 की तुलना में 550 प्रतिशत डिपफेक पोर्नोग्राफी वीडियो का इजाफा हुआ है.


US based online traffic analytics service Semrush के मुताबिक, वर्ष 2023 में टॉप 10 websites ने deepfake porn वीडियो को होस्ट किया और 30 करोड़ से ज्यादा views हासिल किए. हर दिन इन websites पर 34 लाख से ज्यादा views आए.


ये रिपोर्ट बड़े खतरे की तरफ इशारा कर रही है...artifical Intelligence यानि AI तकनीक की वजह से Deepfake pornography एक बिजनेस में तब्दील हो रहा है. जो आने वाले समय में बहुत बड़ी समस्या बन सकता है.


बढ़ रहा ब्लैकमेलिंग का धंधा


आर्टिफिशियल इंटेलीजेंस ने महिलाओं के लिए खतरा बढ़ा दिया है. ऐप्स के जरिए महिलाओं की आम फोटो को अश्लील फोटो में तब्दील किया जा रहा है. दुनिया भर में ऐसे ऐप्स और वेबसाइट्स तेजी से बढ़ रहे हैं. डीपफेक वीडियो बनाने वालों ने इसे एक कारोबार की तरह यूज किया है...जिससे डीपफेक पोर्नोग्राफी वीडियो बनाकर महिलाओं को टारगेट कर रहे है. 



ये लोग डीपफेक वीडियो बनाकर महिलाओं को परेशान कर रहे हैं. डीपफेक पोर्नोग्राफी वीडियो के जरिए महिलाओं को ब्लैकमेल किया गया है. जिसकी डीपफेक वीडियो बनाई गई है उसे फर्जी वीडियो दिखाकर पैसे की डिमांड की गई है.


आज के समय में artifical Intelligence इस कदर high tech हो चुका है कि किसी की भी फोटो से चंद मिनटों में Deepfake की जा सकती है. Deepfake तकनीक के जरिए किसी की भी आवाज की हुबहू copy की जा सकती है. AI के जरिए आवाज़ की copy कर आजकल साइबर ठग लोगों को चुना भी लगा रहे हैं. वर्ष 2023 में डिपफेक वीडियो के जरिए महिलाओं को सबसे ज्यादा टारगेट किया गया है.


कैसे बच सकती हैं महिलाएं


अब हम आपको बताते हैं कि महिलाएं इस खतरे से कैसे बच सकती है.


- महिलाएं अपना सोशल मीडिया अकाउंट को प्राइवेट रखें


- अनजान लोगों को अपने सोशल मीडिया अकाउंट पर न जोड़े और फेक अकाउंट पहचानें


- फोन में लॉगिन अलर्ट और सेटिंग्स में हमेशा लेवल टू वेरिफिकेशन ऑन रखें.


- अनजान लिंक्स पर क्लिक न करें


- सोशल मीडिया पर अपनी और परिवार की तस्वीरें शेयर न करें.


काजोल, रश्मिका हो चुकी हैं शिकार


आपको याद होगा एक्टर रश्मिका मंदाना, बॉलीवुड अभिनेत्री काजोल का भी डीपफेक वीडियो वायरल हुआ था. अगर आपने इन वीडियो को देखा होगा तो शायद आपने भी यही सोचा होगा कि वीडियो में रश्मिका मंदाना है लेकिन ऐसा नहीं था. ये रश्मिका मंदाना का एक Deepfake Video था. इस वीडियो के वायरल होने के बाद मंदाना ने एक बयान में कहा था, ये ना केवल उनके लिए बल्कि हर किसी के लिए डराने वाला है. ऐसे वीडियो को महानायक अमिताभ बच्चन ने भी बड़ा खतरा बताया था.


AI के दौर में Deepfake Video एक बड़ी समस्या है, लेकिन इसे पहचाना जा सकता है. बस आपको वीडियो को बहुत ध्यान से देखना होगा. वीडियो पर दिखने वाले शख्स के चेहरे के एक्सप्रेशन, आंखों की बनावट और बॉडी स्टाइल पर अगर आप ध्यान देंगे तो आपको पता चल जाएगा कि ये असली है या नकली. आमतौर पर ऐसे वीडियो में बॉडी और चेहरे का कलर मैच नहीं करता, जिससे आप इसे पहचान सकते हैं. इसके साथ ही आप lip syncing यानि बोलते समय होठों के हिलने से भी डीपफेक वीडियो को आसानी से पहचान सकते हैं. 


सरकार ने जारी की एडवाइजरी


डीपफेक एक ऐसा खतरा है, जिसपर प्रधानमंत्री नरेंद्र मोदी भी चिंता जता चुके है. पीएम मोदी ने कहा था कि deepfake से समाज में अशांति और अराजकता पैदा हो सकती है. इस खतरे से निपटने के लिए Ministry of Electronics and Information Technology ने इसी हफ्ते Advisory जारी की है. Advisory में कहा गया है कि सभी सोशल मीडिया कंपनियां आईटी नियम का पालन करें. सोशल मीडिया कंपनियां deepfake पर लोगों को आगाह करें. गलत और अनुचित कंटेंट पर कार्रवाई की जाए.


Advisory के rule 3(1)(b) का हवाला देते हुए कहा गया है कि अगर कोई अनुचित कंटेंट को social media platform पर पोस्ट या शेयर करेगा तो उसके खिलाफ इस rule के तहत कार्रवाई की जाए. आईटी मंत्रालय ने सभी सोशल मीडिया कंपनियों को 7 दिन में 'Action taken cum status report' देने को कहा है


सरकार ने सोशल मीडिया कंपनियों को Misinformation और deepfakes पर ज्यादा ध्यान देने के लिए कहा है. सभी नियमों का सख्ती से पालन करने को कहा है. क्योंकि सरकार भी deepfake को लोकतंत्र के लिए खतरा मान रही है.