• About
  • Contact
  • Privacy
  • Terms
  • Disclaimer
Wednesday, May 28, 2025
ALFATAMILAN | அரசியல், விழிப்புணர்வு, தொழில்நுட்பம், செயற்கை நுண்ணறிவு
  • முகப்பு
  • இஸ்லாம்
  • டெக்னாலஜி
  • கவிதைகள்
  • செய்திகள்
    • அரசியல்
    • ஊடகம்
    • விழிப்புணர்வு
    • பொருளாதாரம்
    • கல்வி
  • தளங்கள்
No Result
View All Result
ALFATAMILAN | அரசியல், விழிப்புணர்வு, தொழில்நுட்பம், செயற்கை நுண்ணறிவு
  • முகப்பு
  • இஸ்லாம்
  • டெக்னாலஜி
  • கவிதைகள்
  • செய்திகள்
    • அரசியல்
    • ஊடகம்
    • விழிப்புணர்வு
    • பொருளாதாரம்
    • கல்வி
  • தளங்கள்
No Result
View All Result
ALFATAMILAN | அரசியல், விழிப்புணர்வு, தொழில்நுட்பம், செயற்கை நுண்ணறிவு
No Result
View All Result
  • முகப்பு
  • இஸ்லாம்
  • டெக்னாலஜி
  • கல்வி
  • கவிதைகள்
  • செய்திகள்
  • விழிப்புணர்வு
  • அரசியல்
  • ஊடகம்
  • தளங்கள்
  • பொருளாதாரம்
Home டெக்னாலஜி

Deepfake Technology – எதிர்கால சந்ததிகளின் வாழ்வை சீரழிக்குமா?

in டெக்னாலஜி
Deepfake Technology

Deepfake Technology

12
SHARES
111
VIEWS
FacebookTwitterPinterestWhatsapp

Deepfake Technology – டீப்ஃபேக் தொழில்நுட்பம் என்றால் என்ன?

பொருளடக்கம்

  • Deepfake Technology – டீப்ஃபேக் தொழில்நுட்பம் என்றால் என்ன?
      • அறிமுகம்
    • எதற்காக அவை?
    • Deepfake Technology இது வெறும் வீடியோக்களைப் பற்றியதா?
    • அவை எவ்வாறு தயாரிக்கப்படுகின்றன?
      • ஃபேஸ்-ஸ்வாப்
      • டீப்ஃபேக்குகளை உருவாக்குவதற்கான மற்றொரு வழி,
    • டீப்ஃபேக்குகளை உருவாக்குவது யார்?
    • உங்களுக்கு என்ன தொழில்நுட்பம் தேவை?
    • டீப்ஃபேக்கை எப்படி கண்டறிவது?
      • டீப்ஃபேக்குகளை கண்டரிய நிதி
    • டீப்ஃபேக்குகள் அழிவை ஏற்படுத்துமா?
    • அவர்கள் நம்பிக்கையை குலைப்பார்களா?
      • நீதிக்கு சவாலாகலாம்
    • என்ன தீர்வு?
    • டீப்ஃபேக்குகளால் தீங்கு மட்டும் தானா?

அறிமுகம்

பராக் ஒபாமா, டொனால்ட் டிரம்பை “முழுமையான டிப்ஷிட் (dipshit)” என்று அழைப்பதை நீங்கள் பார்த்திருக்கிறீர்களா? அல்லது,

மார்க் ஜுக்கர்பெர்க் “பில்லியன் கணக்கான மக்களின் திருடப்பட்ட தரவுகள் மொத்தமும் தம் கட்டுப்பாட்டில்” இருப்பதைப் பற்றி தற்பெருமை பேசுவதைப் பார்த்தீர்களா? அல்லது,

கேம் ஆஃப் த்ரோன்ஸின் மோசமான முடிவுக்கு ஜான் ஸ்னோ மன்னிப்புக் கேட்டதைக் கண்டீர்களா? ஆம் என்று பதிலளித்தால், நீங்கள் ஒரு டீப்ஃபேக்கைப் பார்த்திருக்கின்றீர்கள்.

புகைப்படங்களுக்கு ஃபோட்டோஷாப் என்றால் 21 ஆம் நூற்றாண்டில் புகைப்படம் மற்றும் வீடியோக்களுக்கு டீப்ஃபேக்.

டீப்ஃபேக்குகள் போலி நிகழ்வுகளின் புகைப்படங்களை உருவாக்க செயற்கை நுண்ணறிவின் (Artificial Intelligence) ஒரு வடிவத்தைப் பயன்படுத்துகின்றன, இதுவே டீப்ஃபேக் என்று அழைக்கப்படுகின்றது.

ஒரு அரசியல்வாதியின் வாயில் புதிய வார்த்தைகளை வரவைக்க வேண்டுமா? உங்களுக்குப் பிடித்த திரைப்படத்தில் நீங்களே நடிக்க வேண்டுமா? அல்லது தேர்ந்த கலைஞன் போல ஆட வேண்டுமா? அப்படியானால் உங்களுக்கு ஒரு டீப்ஃபேக்கை உருவாக்க வேண்டிய நேரம் இதுதான்.

எதற்காக அவை?

டீப்ஃபேக்குகள் அதிகமானவை ஆபாசமானவை தான். AI நிறுவனமான டீப்ட்ரேஸ் Deeptrace செப்டம்பர் 2019 இல் ஆன்லைனில் 15,000 டீப்ஃபேக் தொழில்நுட்ப (Deepfake Technology) வீடியோக்களைக் கண்டறிந்தது.

இது ஒன்பது மாதங்களில் இரட்டிப்பானது. இதில் அதிர்ச்சியூட்டும் செய்தி 96% சதவிகிதம் ஆபாசப் படங்கள் மேலும் அதில் 99% சதவிகிதம் பெண் பிரபலங்கள் முதல் ஆபாச நட்சத்திரங்கள் வரை மேப் செய்யப்பட்ட முகங்கள்.

புதிய நுட்பங்கள், திறமையற்றவர்களை கூட ஒரு சில புகைப்படங்களுடன் டீப்ஃபேக்குகளை உருவாக்க அனுமதிப்பதால், கீழ்த்தரமாக ஏதாவது செய்து பழிவாங்க வேண்டும் என்ற நோக்கத்தோடு இணையத்தில் உலவுபவர்களுக்கு இது ஒரு வரப்பிரசாதமாக அமைந்துள்ளது.

அது போன்ற கேவலமானவர்களின் கைகளில் இவை சிக்கும் போது டீப்ஃபேக் ஆபாசப்படங்கள் மற்றும் வீடியோக்கள் என இன்னும் அதிகமாக பரவ வாய்ப்புள்ளது.

பாஸ்டன் பல்கலைக்கழகத்தின் சட்டப் பேராசிரியரான டேனியல் சிட்ரான் கூறுகின்றார் “பெண்களுக்கு எதிராக, டீப்ஃபேக் தொழில்நுட்பம் ஆயுதமாக்கப்படுகிறது.” ஆபாசத்திற்கு அப்பால் ஏராளமான ஏமாற்று நடவடிக்கை, கிண்டலடிக்கவும் மற்றும் குறும்புத்தனங்களை உறுவாக்கவும் பயன்படுவதாக கூறுகின்றார்.

Deepfake Technology இது வெறும் வீடியோக்களைப் பற்றியதா?

இல்லை. டீப்ஃபேக் தொழில்நுட்பமானது நம்பிக்கைக்குரிய ஆனால் முற்றிலும் கற்பனையான புகைப்படங்களை புதிதாக உருவாக்க முடியும்.

லிங்க்ட்இன் LinkedIn மற்றும் ட்விட்டரில் Twitter சுயவிவரத்தைக் கொண்டிருந்த “மைஸி கின்ஸ்லி” என்ற ப்ளூம்பெர்க் பத்திரிகையாளர் ஒரு போலியான டீப்ஃபேக் தொழில்நுட்பம், மற்றொரு லிங்க்ட்இன் LinkedIn போலியான, “கேட்டி ஜோன்ஸ்”, சர்வதேச ஆய்வுகளுக்கான மையத்தில் பணிபுரிவதாகக் கூறினார், ஆனால் வெளிநாட்டு உளவு நடவடிக்கைக்காக உருவாக்கப்பட்ட டீப்ஃபேக் என்று தெரியவருகின்றது.

பப்ளிக் ஃபிகர்ஸ் என்று சொல்லக்கூடிய பிரபலமான நபர்களின் “குரல்கள்” அல்லது “குரல் குளோன் ஆடியோவையும் டீப்ஃபேக்கில் உருவாக்கலாம்.

கடந்த மார்ச் மாதம், ஃபிராடு ஒருவன் ஜெர்மன் தலைமை நிர்வாக அதிகாரியைப்போல ஜேர்மன் எரிசக்தி நிறுவனத்தின் UK துணை நிறுவனத்தின் தலைவரிடம் பேசி கிட்டத்தட்ட £200,000 ஐ ஹங்கேரிய வங்கிக் கணக்கில் மாற்றப்பட்டதும் இந்த டீப்ஃபேக் தொழில்நுட்பம் தான்.

இன்ஸூரன்ஸ் அதிகாரிகள், பேசியது ஜெர்மன் தலைமை அதிகாரி அல்ல, அவர்போல பேச வாட்ஸ்அப் வாய்ஸ் மெசேஜை பயன்படுத்தி டீப்ஃபேக் தொழில்நுட்பத்தால் (Deepfake Technology) உருவாக்கப்பட்ட குரல் என்று தெரிவிக்கின்றனர்.

அவை எவ்வாறு தயாரிக்கப்படுகின்றன?

பல்கலைக்கழக ஆராய்ச்சியாளர்கள் மற்றும் ஸ்பெஷல் எஃபெக்ட்ஸ் ஸ்டுடியோக்கள் நீண்ட காலமாக வீடியோ மற்றும் புகைப்படங்களை கையாளுதல் மூலம் சாத்தியமான உட்சபட்ச எல்லைவரை சென்றனர்.

அந்த சமயத்தில் 2017 ஆம் ஆண்டில் ஒரு ரெடிட் Reddit பயனர் ஒருவர் ஒரு மருத்துவரின் ஆபாச வீடியோக்களை தனது தளத்தில் வெளியிட்டார். இதுவே முதல் டீப்ஃபேக் ஆகும்.

அந்த வீடியோவில் கேல் கடோட், டெய்லர் ஸ்விஃப்ட், ஸ்கார்லெட் ஜோஹன்சன் மற்றும் பல பிரபலங்களின் முகங்களை ஆபாச கலைஞர்களின் முகங்களில் மாற்றி வெளியிட்டார் என்பது குறிப்பிடத்தக்கது.

ஃபேஸ்-ஸ்வாப்

வீடியோவை உருவாக்க சில படிகள் தேவை. முதலில், Encoder எனப்படும் AI அல்காரிதம் மூலம் இரண்டு நபர்களின் ஆயிரக்கணக்கான ஃபேஸ் ஷாட்களை தயார் செய்கின்றனர்.

பின்னர் அந்த Encoder இரண்டு முகங்களுக்கிடையே உள்ள ஒற்றுமைகளைக் கண்டறிந்து கற்றுக்கொள்கிறது, மேலும் அதன் செயல்பாட்டில் ஆபாசமான அல்லது என்ன தேவையோ அதற்கு தேவைபடும் வீடியோக்களில் உள்ள படங்களை சுருக்கி, அவற்றில் பகிரப்பட்ட பொதுவான அம்சங்களுக்கு அவற்றைக் குறைக்கிறது.

டிகோடர் எனப்படும் இரண்டாவது AI அல்காரிதத்திற்கு சுருக்கப்பட்ட படங்களிலிருந்து முகங்களை மீட்டெடுக்க கற்றுக்கொடுக்கப்படுகிறது.

முகங்கள் வித்தியாசமாக இருப்பதால், முதல் நபரின் முகத்தை மீட்டெடுக்க ஒரு டிகோடரையும், இரண்டாவது நபரின் முகத்தை மீட்டெடுக்க மற்றொரு டிகோடருக்கும் பயிற்சி செய்யப்படுகின்றது.

ஃபேஸ் ஸ்வாப்பைச் செய்ய, குறியிடப்பட்ட படங்களை “தவறான” டிகோடரில் உட்படுத்தும். எடுத்துக்காட்டாக, நபர் A இன் முகத்தின் சுருக்கப்பட்ட படம், நபர் B மீது பயிற்சியளிக்கப்பட்ட குறிவிலக்கியில் (Decoder) இல் செலுத்தப்படுகிறது.

பின்னர் டிகோடர் A இன் வெளிப்பாடுகள் மற்றும் நோக்குநிலையுடன் நபரின் முகத்தை மறுகட்டமைக்கிறது. ஒரு உறுதியான வீடியோவிற்கு, இது போன்ற வீடியோ சட்டகம் செய்யப்பட வேண்டும்.

டீப்ஃபேக்குகளை உருவாக்குவதற்கான மற்றொரு வழி,

ஜெனரேட்டிவ் அட்வர்ஸரியல் நெட்வொர்க் Generative Adversarial Network, or GAN என்று அழைக்கப்படுகிறது.

ஒரு GAN இரண்டு செயற்கை நுண்ணறிவு (Artificial Intelligence) வழிமுறைகளை ஒன்றோடொன்று இணைக்கிறது.

ஜெனரேட்டர் எனப்படும் முதல் அல்காரிதம், சீரற்ற சப்தத்தின் மூலமாக அதை ஒரு படமாக மாற்றுகிறது.

இந்த செயற்கைப் படம் பின்னர் உண்மையான படங்களின் ஸ்ட்ரீமில் சேர்க்கப்படுகிறது.

பின்னர் Discriminator என அறியப்படும் இரண்டாவது வழிமுறையில் கொடுக்கப்படுகிறது.

முதலில், செயற்கைப் படங்கள் முகங்களைப் போல் இருக்காது. ஆனால் செயல்திறனுக்கான பின்னூட்டத்துடன் எண்ணற்ற முறை செயல்முறையை மீண்டும் செயல்படுத்தப்படும், மேலும் Discriminator மற்றும் ஜெனரேட்டர் இரண்டும் மேம்படுத்தும்.

போதுமான சுழற்சிகள் மற்றும் உருவகம் கொடுக்கப்பட்டால், ஜெனரேட்டர் முற்றிலும் உண்மையல்லாத பிரபலங்களின் தோற்றத்தை யதார்த்தமான முகங்களாக உருவாக்கத் தொடங்கும்.

டீப்ஃபேக்குகளை உருவாக்குவது யார்?

கல்வி மற்றும் தொழில்துறை ஆராய்ச்சியாளர்கள் முதல் அமெச்சூர் ஆர்வலர்கள், விஷுவல் எஃபெக்ட்ஸ் ஸ்டுடியோக்கள் மற்றும் ஆபாச தயாரிப்பாளர்கள் வரை அனைவரும் இந்த டீப்ஃபேக் தொழில்நுட்பத்தை (Deepfake Technology) உருவாக்குகின்றனர்.

தீவிரவாத குழுக்களுக்கு எதிராக அவர்களின் இலக்குகளை சீர்குலைப்பதற்கும் அல்லது இலக்கு வைக்கப்பட்ட நபர்களுடன் தொடர்பு கொள்வதற்கும் அவர்களின் ஆன்லைன் உத்திகளின் ஒரு பகுதியாக அரசாங்கங்களும் இந்த டீப்ஃபேக் தொழில்நுட்ப(Deepfake Technology)த்தில் ஈடுபடலாம்.

உங்களுக்கு என்ன தொழில்நுட்பம் தேவை?

ஒரு சாதாரண கணினியில் ஒரு நல்ல டீப்ஃபேக்கை உருவாக்குவது கடினம்.

பெரும்பாலானவை சக்திவாய்ந்த கிராபிக்ஸ் கார்டுகளுடன் கூடிய உயர்நிலை டெஸ்க்டாப்களில் உருவாக்கப்படுகின்றன அல்லது க்ளவுட் கம்ப்யூட்டிங் சக்தியுடன் சிறப்பாக இருக்கும் கணிணிகளில் இவை உருவாக்கப்படுகின்றன.

இது செயலாக்க நேரத்தை, நாட்கள் மற்றும் வாரங்களிலிருந்து சில மணிநேரங்களுக்கு குறைக்கிறது.

ஆனால் மினுமினுப்பு மற்றும் பிற பார்வைக் குறைபாடுகளைக் சரி செய்து முடிக்க அதிக நிபுணத்துவம் தேவைப்படுகிறது.

டீப்ஃபேக்குகளை உருவாக்க மக்களுக்கு உதவ ஏராளமான கருவிகள் இப்போது கிடைக்கின்றன.

பல நிறுவனங்கள் உங்களுக்காக அவற்றை உருவாக்கி, கிளவுட்டில் அனைத்து செயலாக்கங்களையும் சேமிக்கும் வசதிகளும் வந்துவிட்டன.

இதற்காக Zao என்ற மொபைல் ஃபோன் செயலி கூட உள்ளது, இது டிவி மற்றும் திரைப்பட கதாபாத்திரங்களின் பட்டியலில் பயனர்கள் தங்கள் முகங்களைச் சேர்க்க உதவுகிறது.

டீப்ஃபேக்கை எப்படி கண்டறிவது?

தொழில்நுட்பம் மேம்படும் போது டீப்ஃபேக்கை கண்டறிவது கடினமாகிறது.

2018 ஆம் ஆண்டில், அமெரிக்க ஆராய்ச்சியாளர்கள் டீப்ஃபேக் முகங்கள் சாதாரணமாக சிமிட்டுவதில்லை என்பதைக் கண்டுபிடித்தனர்.

அது ஆச்சரியப்படும் விசயமில்லை தான். ஆம் பெரும்பாலான புகைப்படங்களில் மக்கள் தங்கள் கண்களைத் திறந்து தான் வைத்துள்ளனர், எனவே அல்காரிதம்கள் உண்மையில் சிமிட்டுவதைப் பற்றி அறியவே இல்லை.

முதலில், இந்த மாற்றம் டீப்ஃபேக்குகளை கண்டறியும் பிரச்சனைக்கான சில்வர் புல்லட் போல் தோன்றியது.

ஆனால் ஆராய்ச்சி வெளியிடப்பட்ட உடனேயே, டீப்ஃபேக்குகள் கண் சிமிட்டும் வகையில் செயல்படுத்தப்பட துவங்கின. விளையாட்டின் இயல்பு இதுதான்: ஒரு பலவீனம் வெளிப்பட்டவுடன், அது சரி செய்யப்படுகிறது.

மோசமான டீப்ஃபேக்குகளைக் கண்டறிவது எளிது.

உதடு ஒத்திசைவு மோசமாக இருக்கலாம் அல்லது ஸ்கின் டோன் தொனியில் தடுமாறும். இடம்மாற்றப்பட்ட முகங்களின் விளிம்புகளைச் சுற்றி ஒளிரும். மற்றும் முடி போன்ற நுண்ணிய விவரங்கள், குறிப்பாக டீப்ஃபேக்குகள் நன்றாக வழங்குவது கடினம், குறிப்பாக விளிம்புகளில் இழைகள் தெரியும்.

சீரற்ற வெளிச்சம் மற்றும் கருவிழியில் பிரதிபலிப்புகள் போன்ற விசித்திரமான ஒளி விளைவுகள், மோசமாகத் தரப்பட்ட நகைகள் மற்றும் பற்கள் ஆகியவையும் டீப்ஃபேக்குகளை கண்டரிய வாய்ப்பாக இருக்கலாம்.

டீப்ஃபேக்குகளை கண்டரிய நிதி

Deepfake Technologyஅரசாங்கங்கள், பல்கலைக்கழகங்கள் மற்றும் தொழில்நுட்ப நிறுவனங்கள் அனைத்தும் Deepfakeகளை கண்டறிவதற்கான ஆராய்ச்சிக்கு நிதியளிக்கின்றன.

கடந்த மாதம், மைக்ரோசாப்ட், பேஸ்புக் மற்றும் அமேசான் ஆதரவுடன் முதல் டீப்ஃபேக் கண்டறிதல் சவால் தொடங்கியது. டீப்ஃபேக் கண்டறிதல் விளையாட்டில் மேலாதிக்கத்திற்காக போட்டியிடும் உலகெங்கிலும் உள்ள ஆராய்ச்சி குழுக்கள் இதில் பங்கு கொண்டுள்ளன.

2020 அமெரிக்கத் தேர்தலுக்கு முன்னதாக, ஒருவர் “அவர் உண்மையில் சொல்லாத வார்த்தைகளைச் சொன்னார்” என்று பார்வையாளர்களை தவறாக வழிநடத்தும் ஆழமான வீடியோக்களை பேஸ்புக் கடந்த வாரம் தடை செய்தது.

எவ்வாறாயினும், AI ஐப் பயன்படுத்தி உருவாக்கப்பட்ட தவறான தகவல்களை மேலோட்டமாக மட்டுமே கண்டரியப்பட்டு வருகின்றது. இன்னும் பல டீப்ஃபேக்குகள் இயங்குதளத்தில் அனுமதிக்கப்பட்டுதான் வருகின்றது.

டீப்ஃபேக்குகள் அழிவை ஏற்படுத்துமா?

இனிவரும் காலங்களில் துன்புறுத்தும், பயமுறுத்தும், இழிவுபடுத்தும், குறைமதிப்பிற்கு உட்படுத்தும் மற்றும் சீர்குலைக்கும் டீப்ஃபேக்குகளை நாம் எதிர்பார்க்கலாம்.

ஆனால் டீப்ஃபேக்குகள் முக்கிய சர்வதேச சம்பவங்களைத் தூண்டுமா? என்றால் தற்போது இந்த நிலை ஏற்படும் சாதகம் குறைவாகவே உள்ளது.

ஒரு டீப்ஃபேக்கான உலகத் தலைவர் பெரிய சிவப்பு பொத்தானை அழுத்தினால் அது ஆர்மகெடானை (பேரழிவை) ஏற்படுத்தக் கூடாது.

எல்லையில் திரளும் துருப்புக்களின் ஆழமான செயற்கைக்கோள் படங்கள் அதிக சிக்கலை ஏற்படுத்தாது. ஏனென்றால் பெரும்பாலான நாடுகள் தங்களுக்கென நம்பகமான பாதுகாப்பு வலையங்களைக் கொண்டுள்ளன.

இருப்பினும், Fun வீடியோக்களை உருவாக்குவதற்கு இன்னும் போதுமான இடம் உள்ளது. கடந்த ஆண்டு, எலோன் மஸ்க் ஒரு நேரடி இணைய நிகழ்ச்சியில் புகைபிடித்த நிகழ்வு காரணமாக டெஸ்லா பங்கு சரிந்தது.

அதே போல் டிசம்பரில், டொனால்ட் டிரம்ப் நேட்டோ கூட்டத்தில் இருந்து வீட்டிற்கு முன்னதாகவே பறந்து சென்றார், மற்ற உலகத் தலைவர்கள் அவரை கேலி செய்யும் உண்மையான காட்சிகள் வெளிவந்தன.

இது போன்ற நம்பத்தகுந்த டீப்ஃபேக்குகள் பங்கு விலைகளை மாற்றுமா? வாக்காளர்களை பாதிக்குமா? மற்றும் மத பதற்றத்தைத் தூண்டுமா? என்பதெல்லாம் போகப்போகத்தான் தெரியும்.  இது பாதுகாப்பான பந்தயம் போல் தெரியவில்லை.

அவர்கள் நம்பிக்கையை குலைப்பார்களா?

Deepfake Technologyடீப்ஃபேக்கின் நயவஞ்சகமான தாக்கம் ஊடகங்கள் மற்றும் செய்திகளின் மீது நம்பிக்கையற்ற சமூகத்தை உருவாக்கும் என்பதில் சந்தேகமில்லை.

மேலும் மக்கள் உண்மையைப் பொய்யிலிருந்து வேறுபடுத்தி பார்க்க முடியாது அல்லது அதனை பற்றி அவர்கள் கவலை படுவதில்லை எனும் நிலையை தான் ஏற்படுத்தும் என்பதில் ஐயமில்லை.

மேலும் நம்பிக்கை சிதைக்கப்படும்போது, குறிப்பிட்ட நிகழ்வுகளைப் பற்றிய சந்தேகங்களை எழுப்புவது எளிதாகிவிடும்.

கடந்த ஆண்டு, கேமரூனின் தகவல் தொடர்பு அமைச்சர், கேமரூனிய நாட்டின் ராணுவ வீரர்கள் பொதுமக்களை தூக்கிலிடுவதைக் காட்டும் காணொளியை அம்னெஸ்டி இன்டர்நேஷனல் வெளியிட்டதை போலிச் செய்தி என்று அந்த அமைச்சர் நிராகரித்தார்.

பதிவு செய்யப்பட்ட உரையாடலில் பெண்களின் பிறப்புறுப்பைப் பற்றிப் தவறாக பேசியதை ஒப்புக்கொண்ட டொனால்ட் டிரம்ப், பின்னர் டேப் உண்மையானது அல்ல என்று மறுத்துப்பேசினார்.

நியூகேஸ்டில் பல்கலைக்கழகத்தின் (Newcastle University) இணையச் சட்ட (Internet Law)த்தின் முன்னணி நிபுணரான பேராசிரியர் லிலியன் எட்வர்ட்ஸ் (Prof Lilian Edwards) கூறுகையில், “ஒரு போலியான விசயம் யதார்த்தமாக (உண்மை என) பார்க்கப்படும்போது, நம்பத்தகுந்த உண்மையான யதார்த்தம் மறுக்கக்கூடியதாக மாறுகிறது.” என்று சொல்கின்றார்.

நீதிக்கு சவாலாகலாம்

Deepfake Technology
Deepfake Technology

தொழில்நுட்பம் இலகுவாக அணுகக்கூடியதாக மாறும்போது, ​​டீப்ஃபேக்குகள் நீதிமன்றங்களுக்கு சிக்கலைக் அதிகப்படுத்தலாம்,

குறிப்பாக குழந்தைகளின் பாதுகாப்பு மற்றும் வேலைவாய்ப்பு தொடர்பான நீதி விசாரணைகளில் போலி நிகழ்வுகள் ஆதாரமாக காட்டப்படலாம்.

அவை தனிப்பட்ட பாதுகாப்பு அபாயத்தையும் ஏற்படுத்துகின்றன: டீப்ஃபேக்குகள் பயோமெட்ரிக் தரவைப் பிரதிபலிக்கும், மேலும் முகம், குரல், நரம்பு அல்லது நடை அங்கீகாரத்தை நம்பியிருக்கும் அமைப்புகளை ஏமாற்றலாம்.

மோசடிக்கான சாத்தியம் தெளிவாக உள்ளது. தெரியாத ஒருவருக்கு ஃபோன் செய்து, அவர்களுக்கு தெரியாத வங்கிக் கணக்கிற்கு பணத்தை மாற்ற வாய்ப்பில்லை.

ஆனால் உங்கள் “அம்மா” அல்லது “சகோதரி” வாட்ஸ்அப்பில் வீடியோ அழைப்பை அமைத்து அதே கோரிக்கையை செய்தால் என்ன செய்வது?

என்ன தீர்வு?

இது வேடிக்கையான, AI பதிலாக இருக்கலாம். செயற்கை நுண்ணறிவு (AI) ஏற்கனவே போலி வீடியோக்களைக் கண்டறிய உதவுகிறது என்பது உண்மை தான். ஆனால் தற்போதுள்ள பல கண்டறிதல் முறை கடுமையான பலவீனத்தைக் கொண்டுள்ளன.

அவை பிரபலங்களுக்குச் சிறப்பாகச் செயல்படுகின்றன, ஏனெனில் அவர்களின் பல மணிநேர வீடியோ காட்சிகள் இலவசமாகக் கிடைக்கும் அப்படி கிடைக்கும் காட்சிகளை கொண்டு AI க்கு பயிற்றுவிக்க முடியும்.

தொழில்நுட்ப நிறுவனங்கள் டீப்ஃபேக்குகளை கண்டறியும் முறைகளில் நிறைய மாற்றாங்கள் தேவை.

டீப்ஃபேக்குகள் தோன்றும் போதெல்லாம் கோடிட்டு காட்டும் வண்ணம் தற்போது செயல்பட்டாலும் அதில் இன்னும் மெறுகேற்றப்பட வேண்டும். மற்றொரு மூலோபாயம் ஊடகங்கள் தங்கள் ஆதாரத்தில் அதிக கவனம் செலுத்த வேண்டும்.

டிஜிட்டல் வாட்டர்மார்க்குகள் இல்லாமல் எந்த வீடியோவையும் யாரும் பரப்ப முடியாதவாறு செயல்படுத்தப்பட வேண்டும்.

ஆனால் ஒரு பிளாக்செயின் ஆன்லைன் லெட்ஜர் அமைப்பு வீடியோக்கள், படங்கள் மற்றும் ஆடியோவின் டேம்பர்-ப்ரூஃப் பதிவை வைத்திருக்க முடியும், எனவே அவற்றின் தோற்றம் மற்றும் ஏதேனும் கையாளுதல்களை எப்போதும் சரிபார்க்க முடியும்.

டீப்ஃபேக்குகளால் தீங்கு மட்டும் தானா?

இல்லவே இல்லை. பல பொழுதுபோக்கிற்காகவும் மற்றும் சில வேளைகளில் பயனுள்ளதாகவும் இருக்கும்.

குரல்-குளோனிங் டீப்ஃபேக்குகள் நோயால் மக்கள் இழக்கும் அவர்களின் குரல்களை மீட்டெடுக்க முடியும்.

டீப்ஃபேக் வீடியோக்கள் காட்சியகங்கள் மற்றும் அருங்காட்சியகங்களை உயிர்ப்பிக்கும்.

புளோரிடாவில், டாலி அருங்காட்சியகத்தில் சர்ரியலிஸ்ட் ஓவியர் தனது கலையை அறிமுகப்படுத்தி பார்வையாளர்களுடன் செல்ஃபி எடுத்துக்கொண்ட நிகழ்வுகளும் உண்டு.

பொழுதுபோக்குத் துறையைப் பொறுத்தவரை, வெளிநாட்டு மொழிப் படங்களின் டப்பிங்கை மேம்படுத்தவும், மேலும் சர்ச்சைக்குரிய வகையில், இறந்த நடிகர்களை உயிர்ப்பிக்கவும், இந்த தொழில்நுட்பத்தைப் பயன்படுத்தலாம்.

எடுத்துக்காட்டாக, மறைந்த ஜேம்ஸ் டீன், வியட்நாம் போர்த் திரைப்படமான ஃபைண்டிங் ஜாக்கில் நடிக்க உள்ளார்.

அதே போல் நமது தமிழ்நாட்டில் மறைந்த நடிகர் விவேக் மீண்டும் திரைக்கு வருகின்றார் என்பது குறிப்பிடத்தக்கது.

-அன்புடன்
முத்துப்பேட்டை அலீம்

எமது முந்தைய பதிவை படிக்க… Is Uniform Civil Code good for India? பொது சிவில் சட்டம் இந்தியாவிற்கு நல்லதா?

Tags: deepfakedeepfake technology
Share5Tweet3Pin1Send
Previous Post

Is Uniform Civil Code good for India? பொது சிவில் சட்டம் இந்தியாவிற்கு நல்லதா?

Next Post

News18 – நியூஸ்18 சேனல் க(ள்)ள ஆய்வு உண்மை என்ன?

RelatedPosts

Who is John McCarthy
கல்வி

Who is John McCarthy | யார் அந்த ஜான் மெக்கார்த்தி!

AI Technology
டெக்னாலஜி

AI Technology -யை பயன்படுத்தி பொதுமக்கள் எப்படி ஏமாற்றப்படுகிறார்கள்?

Canva
டெக்னாலஜி

Canva ஆன்லைன் கருவி என்றால் என்ன?

Comments 2

  1. Malik says:
    2 years ago

    This article is very interesting…

    Reply
    • வலையுகம் முஹம்மது அலீம் says:
      2 years ago

      நன்றி

      Reply

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

அதிகம் படிக்கப்பட்டவை

  • Trending
  • Comments
  • Latest
முதலீடு இல்லாத

முதலீடு இல்லாத லாபகரமான வணிக யோசனைகள்

Free ai Certificate Course1

Free AI Certificate Course | இலவசமாக AI படிக்க வேண்டுமா?

கைத்தொழில் ஒன்றை கற்றுக்கொள்

கைத்தொழில் ஒன்றை கற்றுக்கொள் கவலை உனக்கில்லை ஒத்துக்கொள்

நபி வழியில் நம் தொழுகை

Prayer | நபி வழியில் நம் தொழுகை

கூட்டு மனசாட்சி

கூட்டு மனசாட்சி பெயரில் கொல்லப்பட்ட அப்சல் குரு

சமுதாயப் பிளவு

சமுதாயப் பிளவு தேவையா?

Deepfake Technology

Deepfake Technology – எதிர்கால சந்ததிகளின் வாழ்வை சீரழிக்குமா?

God's canon

God’s canon – இறைவனின் நியதி..!

Modi Failed

Modi Failed | 9 ஆண்டு மோடி அரசின் மோசடிகள் – பகுதி 1

Dishonest Indian Journalism

Dishonest Indian Journalism | நேர்மையற்ற ஊடகம்

Mental Health Awareness for Child

Mental Health Awareness for Child | குழந்தை மனநல விழிப்புணர்வு

Children Mental Health Questions

Children Mental Health Questions | குழந்தைகள் மனநலம் சார்ந்த கேள்விகள்

எங்களுடன் இணைந்திருங்கள்

  • 99 Subscribers
  • 643 Followers

பிரபலமானவை

  • முதலீடு இல்லாத

    முதலீடு இல்லாத லாபகரமான வணிக யோசனைகள்

    85 shares
    Share 34 Tweet 21
  • Free AI Certificate Course | இலவசமாக AI படிக்க வேண்டுமா?

    73 shares
    Share 29 Tweet 18
  • கைத்தொழில் ஒன்றை கற்றுக்கொள் கவலை உனக்கில்லை ஒத்துக்கொள்

    35 shares
    Share 14 Tweet 9
  • Prayer | நபி வழியில் நம் தொழுகை

    35 shares
    Share 14 Tweet 9
  • Welcome Ramadan – ரமலானை வரவேற்போம்

    34 shares
    Share 14 Tweet 9
Facebook Twitter Instagram Youtube Reddit Tumblr Pinterest Whatsapp

என்னைப்பற்றி

valaiyugam wt

நான் முஹம்மது அலீம், சமூகத்தின் அவலங்களையும், பிரச்சினைகளையும் களையவேண்டுமென்ற நோக்கில் செயலாற்றக்கூடியவன். சமூகத்தின் மத்தியில் விழிப்புணர்வை ஏற்படுத்தி சமூகத்தின் முன்னேற்றத்திற்காகவும், சமூகத்தின் குரலாகவும் ஒலிப்பதே இத்தளத்தின் நோக்கமாக கொண்டு எழுதுகின்றேன். இன்றில்லாவிட்டாலும் என்றாவது ஒருநாள் என் சமூகம் முன்னேறும், வெற்றி பெறும். இன்ஷா அல்லாஹ்...

தலைப்புக்கள்

  • அரசியல் (20)
  • இஸ்லாம் (11)
  • ஊடகம் (3)
  • கல்வி (6)
  • கவிதைகள் (21)
  • டெக்னாலஜி (9)
  • தமுமுக (6)
  • தளங்கள் (6)
  • தொடர்கள் (3)
  • பொருளாதாரம் (5)
  • ரெவின்யூ (4)
  • விழிப்புணர்வு (6)

Translate to Your Language

புதிய செய்திகள்

Modi Failed

Modi Failed | 9 ஆண்டு மோடி அரசின் மோசடிகள் – பகுதி 1

Dishonest Indian Journalism

Dishonest Indian Journalism | நேர்மையற்ற ஊடகம்

Mental Health Awareness for Child

Mental Health Awareness for Child | குழந்தை மனநல விழிப்புணர்வு

Copyrights © 2023-2025 VALAIYUGAM - All Rights Reserved by VALAIYUGAM.COM

No Result
View All Result
  • முகப்பு
  • இஸ்லாம்
  • டெக்னாலஜி
  • கல்வி
  • கவிதைகள்
  • செய்திகள்
  • விழிப்புணர்வு
  • அரசியல்
  • ஊடகம்
  • தளங்கள்
  • பொருளாதாரம்

Copyrights © 2023-2025 VALAIYUGAM - All Rights Reserved by VALAIYUGAM.COM