Tech
|
Updated on 11 Nov 2025, 05:49 pm
Reviewed By
Abhay Singh | Whalesbook News Team
▶
OpenAI-ன் புதிய AI வீடியோ உருவாக்கும் கருவி, சோரா 2, ஆதரவு குழுக்கள், கல்வியாளர்கள் மற்றும் பொழுதுபோக்குத் துறையினரிடமிருந்து குறிப்பிடத்தக்க விமர்சனங்களைப் பெற்றுள்ளது. இந்தத் தளம் பயனர்கள் உரை விளக்கங்களிலிருந்து வீடியோக்களை உருவாக்க அனுமதிக்கிறது, இது யதார்த்தமான டீப்ஃபேக்குகள், அனுமதியற்ற படங்கள் மற்றும் தரமற்ற "AI ஸ்லோப்" ஆகியவற்றின் பரவல் குறித்து கடுமையான கவலைகளை எழுப்புகிறது. பப்ளிக் சிட்டிசன் என்ற இலாப நோக்கற்ற அமைப்பு, சோரா 2-ஐ திரும்பப் பெற OpenAI-க்கு முறையிட்டது, அதன் அவசர வெளியீட்டை "உள்ளார்ந்த பாதுகாப்பற்ற அல்லது தேவையான பாதுகாப்பு வழிமுறைகள் இல்லாத" ஒரு தயாரிப்பை சந்தைக்கு அவசரமாகக் கொண்டுவரும் "நிலையான மற்றும் ஆபத்தான முறை" என்று அழைத்தது. அவர்கள் பொது பாதுகாப்பு, தனிநபர்களின் உருவத்தைப் பயன்படுத்தும் உரிமை மற்றும் ஜனநாயக ஸ்திரத்தன்மை ஆகியவற்றில் "பொறுப்பற்ற அலட்சியம்" காட்டுவதாக வாதிடுகின்றனர்.
J.B. Branch போன்ற ஆதரவாளர்கள், காட்சி ஊடகங்கள் மீதான நம்பிக்கை குறைந்து, ஜனநாயகம் பாதிக்கப்படும் எதிர்காலத்தைப் பற்றி எச்சரிக்கின்றனர். தனியுரிமைக் கவலைகள் முதன்மையானவை, OpenAI ஆபாசத்தைத் தடுத்தாலும், பெண்கள் தீங்கு விளைவிக்கும் உள்ளடக்கத்தில் சித்தரிக்கப்படுவதாக அறிக்கைகள் வந்துள்ளன. OpenAI முந்தைய எதிர்ப்புகளுக்குப் பதிலளிக்கும் விதமாக, கட்டுப்பாடுகளை அமல்படுத்தி, பொது நபர்கள் மற்றும் பதிப்புரிமை பெற்ற கதாபாத்திரங்கள் குறித்து ஒப்பந்தங்களைச் செய்துள்ளது, சமூகம் சரிசெய்யும் வரை அவர்கள் பழமைவாதமாக இருக்க விரும்புவதாகக் கூறியுள்ளது. இருப்பினும், OpenAI பெரும்பாலும் தயாரிப்புகளை முதலில் வெளியிட்டுவிட்டுப் பிறகு பாதுகாப்புச் சிக்கல்களைத் தீர்ப்பதாக விமர்சகர்கள் வாதிடுகின்றனர், இது அதன் ChatGPT தயாரிப்புடனும் காணப்பட்ட ஒரு முறை, இது உளவியல் ரீதியான கையாளுதல் குற்றச்சாட்டுகளுக்காக வழக்குகளை எதிர்கொள்கிறது.
தாக்கம்: இந்த நிலைமை விரைவான AI வளர்ச்சியில் உள்ள முக்கியமான நெறிமுறைச் சவால்களை எடுத்துக்காட்டுகிறது. இது உலகளவில் AI தளங்களுக்கு அதிக ஒழுங்குமுறை அழுத்தத்தை ஏற்படுத்தக்கூடும், இது புதுமை, பயனர் தனியுரிமை மற்றும் டிஜிட்டல் தகவல்களின் ஒருமைப்பாட்டைப் பாதிக்கும். இந்த விவாதம் மேம்பட்ட AI தொழில்நுட்பங்களுக்கான வலுவான பாதுகாப்பு நடவடிக்கைகள் மற்றும் பொறுப்பான வரிசைப்படுத்தலின் அவசியத்தை வலியுறுத்துகிறது. Impact Rating: 8/10
Difficult Terms: * AI Image-Generation Platforms: செயற்கை நுண்ணறிவைப் பயன்படுத்தி உரை விளக்கங்களிலிருந்து படங்கள் அல்லது வீடியோக்களை உருவாக்கும் மென்பொருள். * Deepfakes: AI மூலம் உருவாக்கப்பட்ட யதார்த்தமான ஆனால் போலியான வீடியோக்கள் அல்லது படங்கள், பெரும்பாலும் அவர்கள் செய்யாத செயல்களைச் செய்யும் நபர்களை சித்தரிக்கின்றன. * Nonconsensual Images: சித்தரிக்கப்பட்ட நபரின் அனுமதியின்றி உருவாக்கப்பட்ட அல்லது பகிரப்பட்ட படங்கள் அல்லது வீடியோக்கள். * AI Slop: AI ஆல் உருவாக்கப்பட்ட குறைந்த-தரமான அல்லது அர்த்தமற்ற உள்ளடக்கத்தின் பெரிய அளவைக் குறிக்கப் பயன்படுத்தப்படும் சொல். * Guardrails: ஒரு தொழில்நுட்பத்தின் தவறான பயன்பாடு அல்லது தீங்குகளைத் தடுக்க வைக்கப்பட்ட பாதுகாப்பு நடவடிக்கைகள் அல்லது கட்டுப்பாடுகள். * Proliferation: ஒன்றின் எண்ணிக்கை அல்லது பரவலின் விரைவான அதிகரிப்பு. * Advocacy Groups: ஒரு குறிப்பிட்ட காரணத்தை அல்லது கொள்கையை பகிரங்கமாக ஆதரிக்கும் அல்லது பரிந்துரைக்கும் அமைப்புகள். * SAG-AFTRA: ஸ்கிரீன் ஆக்டர்ஸ் கில்ட்-அமெரிக்கன் ஃபெடரேஷன் ஆஃப் டெலிவிஷன் அண்ட் ரேடியோ ஆர்ட்டிஸ்ட்ஸ், நடிகர்கள் மற்றும் பிற ஊடக நிபுணர்களைப் பிரதிநிதித்துவப்படுத்தும் ஒரு தொழிற்சங்கம். * Copyrights: ஒரு படைப்பாளி அல்லது நியமிக்கப்பட்டவருக்கு இலக்கிய, கலை அல்லது இசைப் பொருளை அச்சிட, வெளியிட, நிகழ்த்த, படம்பிடிக்க அல்லது பதிவு செய்ய மற்றும் மற்றவர்களை அவ்வாறு செய்ய அங்கீகரிக்க வழங்கப்படும் பிரத்தியேக சட்ட உரிமை.