சமீப நாட்களாக பெண்களின் நிர்வாண புகைப்படங்கள் அதிக அளவில் இணையத்தில் வெளியாகி வருகின்றன. இந்த புகைப்படங்கள் அனைத்தும் artificial intelligence மூலம் உருவாக்கப்பட்டது என்பது பலருக்கும் தெரிந்திருக்க வாய்ப்பில்லை. இதனால் நடிகைகள் முதல் சாமானிய பெண்கள் வரை பல இன்னல்களுக்கு ஆளாகி வருகின்றனர். பெண்களை நிர்வாணமாக காட்டும் அந்த artificial intelligence ஆப்பிடம் இருந்து பாதுகாப்பாக இருப்பது எப்படி? சைபர் கிரைம் நிபுணர்கள் சொல்வது என்ன? இங்கு பார்க்கலாம்.
சாதாரண புகைப்படம் ஒன்றை AI ஆப்பில் அப்லோட் செய்தால் அது அந்த புகைப்படத்தில் இருக்கும் நபர் அணிந்திருக்கும் ஆடைகளை இல்லாமல் செய்து, நிர்வாணமாக காட்டும். இந்த ஆப்பை தற்போது கோடிக்கணக்கான பேர் பயன்படுத்துகின்றனர். இது தொடர்பான வெட்சைட்டுகள், ஆப்புகள் அதிகம் பிரபலமடைந்து வருவதாக எச்சரிக்கிறது தனியார் சமூக வலைதள ஆராய்ச்சி நிறுவனம். புகைப்படங்களில் பெண்களின் ஆடைகளை அவிழ்க்க செயற்கை நுண்ணறிவைப் பயன்படுத்துகின்றனர். கடந்த செப்டம்பரில் மட்டும், 24 மில்லியன் மக்கள் ஆடைகளை அவிழ்க்கும் இணையதளங்களைப் பார்வையிட்டுள்ளனர்.
போட்டோக்களை பதிவேற்றினால் ஆடைகளை அவிழ்ப்பது அல்லது நிர்வாணமாக்குவது போன்ற ஆப்புகளின் விளம்பரங்கள் பிரபலமான சமூக வலைதள பக்கங்களில் விளம்பரப்படுத்தப்படுவதாக கூறப்படுகிறது. உதாரணமாக, இந்த ஆண்டின் தொடக்கத்தில் இருந்து X மற்றும் Reddit உட்பட பல சமூக ஊடகங்களில் ஆடைகளை அவிழ்க்கும் ஆப் இணைப்புகளின் எண்ணிக்கை 2,400 சதவீதம் அதிகரித்துள்ளது என்று ஆராய்ச்சியாளர்கள் தெரிவித்துள்ளனர். இதில் பெரும்பாலும் பெண்களின் புகைப்படங்களே நிர்வாணமாக்கப்பட்டுள்ளன என்பது தான் வேதனை.
இதுபோன்ற அதீத தொழில்நுட்ப வளர்ச்சியால் பெண்களின் ஆபாச படங்கள் உருவாக்கப்பட்டு அதிக அளவில் பகிரப்படுகிறது. அப்படித்தான் deep fake வீடியோக்களும் உருவாகின்றது. சமூக வலைதளங்களில் நீங்கள் பதிவேற்றும் போட்டோ அல்லது வீடியோவை உங்கள் அனுமதி இல்லாமல் எடுத்து deep fake வீடியோக்கள் உருவாக்கப்படுகிறது. இப்படித்தான் ராஷ்மிகா மந்தனா, ஆலியா பட் என பல நடிகைகளின் வீடியோக்கள் வெளியாகி பெரும் விவாதத்தை கிளப்பியது. ஆனால் அந்த வீடியோக்களை பார்த்தால் அது போலியானது என்பதை கண்டுபிடிப்பதே சிரமம். அதனால் தான் நடிகைகள் இந்த deep fake வீடியோக்களைப் பார்த்து அலறுகின்றனர்.
எக்ஸ் தளத்தில் வெளியான ஒரு விளம்பரத்தில், நிர்வாணமாக்கும் ஆப் குறித்து சில தகவல்கள் இடம்பெற்றுள்ளன. அதில் புகைப்படங்களை நிர்வாணமாக்கலாம் என்ற வார்த்தை இடம்பெற்றுள்ளதால், அது பலருக்கும் trigger ஆகி பயன்படுத்துவதாக ஆராய்சியில் தெரியவந்துள்ளது. இது பல பாலியல் குற்றங்களுக்கும் துணை போவது தான் உண்மை.
மேலும் படிக்க | டிஸ்னி ஹாட்ஸ்டாரை வளைத்துபோடும் அம்பானி - மீண்டும் பேச்சுவார்த்தை?
இப்படி ஒரு App யூடியூபில் ஸ்பான்சர் பெற்று nudify என்று தேடினால் முதலில் வருகிறது. இதில் நிர்வாணமாக்கும் பல ஆப்புகள் அடுத்தடுத்து வீடியோக்களாக நமக்கு காட்டுகிறது. இந்த செயற்கை நுண்ணறிவு செயலிகள் ஓபன் சோர்ஸ் என்பதால் ஆப் டெவலப்பர்களுக்கு இலவசமாகவே இதன் மாதிரிகள் கிடைக்கின்றன.
முன்பெல்லாம் மார்பிங் செய்து பெண்களை நிர்வாணப்படுத்தினாலோ அல்லது வீடியோ தயாரித்தாலோ அது போலியானது என்பதை கண்டுபிடித்துவிடலாம். அதன் குவாலிட்டி அவ்வளவு துல்லியமாக இருக்காது. ஆனால் இப்போதோ அதன் குவாலிட்டி மிகவும் துல்லியமானதாக உள்ளது.
வெளிப்படையான பாலியல் தூண்டல்களை ஊக்கப்படுத்தும் விளம்பரங்களை கூகுள் ஆதரிக்காது என அந்நிறுவனம் சார்பில் விளக்கம் அளிக்கப்பட்டுள்ளது. அதோடு இது தொடர்பான பல செயலிகளும், விளம்பரங்களும் தடை செய்யப்பட்டுள்ளதாம்.
அமெரிக்காவில் சமீபத்தில் குழந்தைகள் மனநல காப்பகத்தில், மருத்துவர் ஒருவர் தனது நோயாளிகளின் புகைப்படங்களை இந்த AI Appஐ பயன்படுத்தி நிர்வாணமாக்கியுள்ளார். அதற்காக அவருக்கு 40 ஆண்டுகள் சிறை தண்டனை விதிக்கப்பட்டுள்ளது. ஆனால் பெரும்பாலான சமயங்களில் யார் இந்த நிர்வாண புகைப்படங்களை தயாரித்தார்கள் என்பதை கண்டுபிடிப்பது கடினம் தான் என்கின்றனர் நிபுணர்கள்.
சார்பில்லாத சமரசமில்லாத செய்திகள் உங்கள் உள்ளங்கைகளில்!
உடனுக்குடன் செய்திகளைத் தெரிந்து கொள்ளவும், உங்கள் கருத்துகளைப் பகிர்ந்து கொள்ளவும் சமூக வலைத்தளங்களில் எங்களைப் பின்தொடருங்கள்..
முகநூல் - @ZEETamilNews
ட்விட்டர் - @ZeeTamilNews
டெலிக்ராம் - https://t.me/ZeeTamilNews
வாட்ஸ்-அப் - https://whatsapp.com/channel/0029Va5XFvI90x2plF9cKY1r
அரசியல், கல்வி, பொழுதுபோக்கு, விளையாட்டு, சுகாதாரம், வாழ்க்கை முறை, சமூக, வேலைவாய்ப்பு என அனைத்து வகையான செய்திகளையும் தமிழில் பெற இப்போது ஜீ தமிழ் நியூஸ் செயலியைப் பதிவிறக்குங்கள்!!
Android Link: https://bit.ly/3AIMb22
Apple Link: https://apple.co/3yEataJ