Deepfake காணொளிகள் இந்தியா முழுக்க சர்ச்சையை ஏற்படுத்தியுள்ளது.
Deepfake
ஒருவரின் முகத்தை செயற்கை நுண்ணறிவு தொழில்நுட்பம் மூலம் போலியாக மாற்றும் தொழில்நுட்பம் Deepfake என்று அழைக்கப்படுகிறது.
முன்பு Photoshop தொழில்நுட்பத்தால் இது போலச் செய்யப்பட்டது ஆனால், அதை விடப் பல மடங்கு துல்லியமாகச் செயற்கை நுண்ணறிவின் மூலம் செய்ய முடியும்.
எனவே தான் இதன் மூலம் வரும், நிழற்படங்கள், காணொளிகள் உண்மையானது போலவே உள்ளது.
எப்படி உருவாக்குகிறார்கள்?
எப்படி Photoshop தொழில்நுட்பத்தில் மாற்றுகிறார்களோ அதே போல, Deepfake லும் செய்யப்படுகிறது. Photoshop சாதாரணமானது ஆனால், Deepfake செயற்கை நுண்ணறிவுடன் உருவாக்கப்படுவது.
செயற்கை நுண்ணறிவு (Artificial Intelligence) எப்படி வித்தியாசப்படுகிறது என்றால், கிடைக்கும் ஏராளமான தகவல்களை வைத்தே.பிரபலங்களின் நிழற்படங்கள், காணொளிகள் இணையத்தில் கொட்டிக்கிடப்பதால், அவற்றை அடிப்படையாக வைத்து உருவாக்கப்படுகிறது.
எந்த ஒரு உணர்வுக்கும் காணொளிகள், நிழற்படங்கள் இருப்பதால், அவற்றை வைத்துத் துல்லியமாக முகத்தை, உணர்வுகளைக் கொண்டுவர முடிகிறது.
இதன் அடிப்படையிலேயே ட்ரம்ப், ராஷ்மிகா காணொளிகள் வைரலானது.ஒருவருடைய நிழற்படங்கள், காணொளிகள் அதிகம் கிடைக்கிறது என்றால், இது போன்ற Deepfake காணொளிகளைத் துல்லியமாக உருவாக்க முடியும்.
Deepfake காணொளிகளில் வரும் கண்கள் சிமிட்டாது என்பதை வைத்துப் போலி என்று அடையாளம் காணலாம் ஆனால், எதிர்காலத்தில் இதையும் வளரும் தொழில்நுட்பத்தில் சரி செய்து விடுவார்கள்.
ஆபத்து நிறைந்தது
யாருக்கோ நடந்தது என்று எளிதாகக் கடக்க முடியாது காரணம், நமக்கே, நம் குடும்பத்தினருக்கே இது போன்று நடக்க ஏராளமான வாய்ப்புகள்.
தங்களுக்குப் பிடிக்காத ஒரு நபரை இத்தொழில்நுட்பம் மூலம் எளிதாக அவமானப்படுத்திவிட முடியும். இது உண்மையா பொய்யா என்று உணர்வதற்குள் போதுமான சேதம் ஆகியிருக்கும்.
இது நானில்லை என்று விளக்கம் கொடுத்து அது மற்றவர்களைச் சென்றடைவதற்குள் பொய் வேகமாக அனைவரிடையே சென்றடைந்து இருக்கும்.
தற்காலத்தில் ஆண்களும், பெண்களும் குறிப்பாகப் பெண்கள் Reels, இன்ஸ்டாகிராம், Shorts போன்றவற்றில் எல்லை மீறிய காணொளிகளைப் பகிர்ந்து வருகிறார்கள்.
இதை வைத்து எளிதாக Deepfake செய்து விட முடியும்.இவர்கள் அல்லாமல், லைக்ஸ் ஆர்வத்துக்காக தங்கள் நிழற்படங்களை, காணொளிகளை ஏராளமாகச் சமூகத்தளங்களில் பகிரும் பெண்கள் மிக எச்சரிக்கையாக இருக்க வேண்டிய தருணம்.
இவர்கள் சொல்லித் திருந்த மாட்டார்கள் காரணம், லைக்ஸ் போதைக்கு அடிமையாகி விட்டார்கள். எனவே, பட்டுத்திருந்தினால் தான் உண்டு.
திரைப்பட காட்சிகளை மீண்டும் எடுக்காமல், செலவைக் குறைத்து வேறு மொழிகளில் கொண்டு வரப் பயன்பட்ட தொழில்நுட்பம் தற்போது மற்றவர்களின் தனிப்பட்ட வாழக்கையில் விளையாடி வருகிறது.
குரல் மாற்றம்
முகம் மட்டுமல்லாது குரலையும் Deepfake மூலம் மாற்றம் செய்ய முடியும்.
முருகன் பாடலை மோடி பாடுவது உட்படப் பல பாடல்கள் இன்ஸ்டாகிராமில் ட்ரெண்டிங்காக இருந்தது. மோடி பேசுவது, பாடுவது போலவே இருந்தது.
மோடி தமிழ் பேசினால் எப்படிப் பேசுவாரோ அதே போல உருவாக்கப்பட்டு இருந்தது.
இவையெல்லாம் மீம்ஸாக வந்து நகைச்சுவையாக இருந்தாலும், இதே முறையில் மொபைலில் போலி முகம், குரல் மூலம் ஏமாற்றுவதும் நடைபெறுகிறது.
அதாவது, உங்களுக்குத் தெரிந்த நபர் போல Video Call ல் வந்து அவசரமாகப் பணம் தேவைப்படுவதாகக் கூறினால், ஏமாந்து கொடுத்து விட வாய்ப்பாகியுள்ளது.
எனவே, யாரை, எதை நம்புவது என்றே தெரியவில்லை.
தவிர்க்க முடியாதது
வளரும் தொழில்நுட்பம் பல நன்மைகளை, வசதிகளைக் கொண்டு வந்தாலும், இது போன்ற ஆபத்துகளையும், சிக்கல்களையும் உடன் கொண்டு வருகிறது.
எனவே, இவையெல்லாம் தவிர்க்க முடியாத பிரச்சனைகள். எச்சரிக்கையாக இருப்பதைத் தவிர வேறு வாய்ப்புக் கிடையாது.
தவறு செய்தவர்களும் கூட Deepfake என்று கூறி தப்பித்து விட வாய்ப்புள்ளது குறிப்பாக அரசியல்வாதிகள்.
பிடிக்கிறதோ இல்லையோ, எதிர்காலத்தில் இப்பிரச்சனைகளைக் கடந்து செல்லாமல் ஒதுங்க முடியாது. எச்சரிக்கை மட்டுமே ஒரே வழி...