புதிய விதிகள்: கன்டென்ட் சோதனைகளில் AI-க்கு முக்கியத்துவம்!
இந்தியாவில் அமலாகியுள்ள IT Rules 2026, இனி புகார்களுக்குப் பிறகு செயல்படும் முறையிலிருந்து மாறி, சமூக வலைதளங்கள் தானாகவே கன்டென்டை நிர்வகிக்கும் முறையை வலியுறுத்துகிறது. குறிப்பாக, டீப்ஃபேக்ஸ் (deepfakes) அல்லது க்ளோன் செய்யப்பட்ட குரல்கள் போன்ற, நிஜம் போலவே தோற்றமளிக்கும் AI கன்டென்டை (AI-generated content) கவனமாக சோதிக்க வேண்டும். இனிமேல், புகார்கள் வந்தவுடன் கன்டென்டை நீக்கினால் போதாது. பயனர்கள் தங்கள் கன்டென்ட் உண்மையானதா என அறிவிக்க, அதை சரிபார்க்க தொழில்நுட்ப முறைகளைப் பயன்படுத்த, மற்றும் AI-யால் உருவாக்கப்பட்டதை தெளிவாக லேபிள் செய்ய (label) அமைப்புகளை உருவாக்க வேண்டும்.
அதிகரிக்கும் செலவுகள்: லாபத்திற்கு அடி
கன்டென்ட் பதிவேற்றத்திற்குப் பிறகு நடவடிக்கை எடுப்பதற்குப் பதிலாக, முன்பே பொறுப்பேற்கும் இந்த புதிய முறை, நிறுவனங்களின் செயல்பாட்டுச் செலவுகளை (operating costs) கணிசமாக அதிகரிக்கும் என எதிர்பார்க்கப்படுகிறது. ஐரோப்பிய யூனியனின் Digital Services Act போன்ற விதிமுறைகளைப் பார்த்தால், இது போன்ற சட்ட இணக்கங்களுக்காக (compliance) பெரிய தொழில்நுட்ப நிறுவனங்கள் ஆண்டுதோறும் நூற்றுக்கணக்கான மில்லியன் டாலர்கள் செலவிட வேண்டியிருக்கும். இதில் பணியாளர்கள், சட்ட ஆலோசனைகள், மற்றும் தணிக்கை (audits) போன்ற செலவுகள் அடங்கும். இந்த அதிகரிக்கும் செலவுகள் நேரடியாக லாபத்தைப் பாதிக்கும், இது இந்தத் துறையில் உள்ள முதலீட்டாளர்களுக்கு ஒரு முக்கிய கவலையாக உள்ளது.
கன்டென்ட் பரப்பும் கருவிகளுக்கும் சோதனை!
பயனர்கள் பதிவிடும் கன்டென்டைத் தாண்டி, தளங்கள் கன்டென்டைப் பரிந்துரைக்கவும் (recommend) பரப்பவும் (promote) பயன்படுத்தும் கருவிகளையும் (tools) இந்த IT Rules 2026 உன்னிப்பாகக் கவனிக்கிறது. எந்த அளவுக்கு கன்டென்ட் பரவ வேண்டும் என்பதை தளங்கள் கட்டுப்படுத்தும் திறனும் இப்போது சட்ட ஆய்வுக்கு உட்படுத்தப்படுகிறது. இதனால், தங்களுக்கு அதில் பொறுப்பில்லை என்று தளங்கள் இனி எளிதாகக் கூற முடியாது. கன்டென்ட் விளம்பரக் கருவிகளை (content promotion tools) பெரிதும் நம்பியிருக்கும் வணிக மாதிரிகள் (business models) வரம்புகளை எதிர்கொள்ள நேரிடும் அல்லது இணக்கத்திற்காக (comply) அதிக செலவு செய்ய வேண்டியிருக்கும். உதாரணமாக, AI-லேபிளிடப்பட்ட கன்டென்டை பரிந்துரை அமைப்புகள் (recommendation systems) குறைவாகக் காட்டலாம், இது பார்க்கும் நேரம் மற்றும் பிராண்ட் பாதுகாப்பு அளவீடுகளைப் (brand safety metrics) பாதிக்கலாம்.
AI-யால் ஏற்படும் பாதிப்புகளுக்கு யார் பொறுப்பு?
IT Rules 2026-ல் உள்ள ஒரு முக்கிய குறைபாடு, AI மாடல்களுக்கென (AI models) ஒரு தெளிவான ஒழுங்குமுறை வகையை (regulatory category) குறிப்பிடாததுதான். பொதுவான தளத்தை இயக்காமல், AI தொழில்நுட்பத்தை உரிமம் (license) பெறும் நிறுவனங்கள் இந்த விதிகளுக்கு உட்படாமல் போகலாம். இதனால், AI-யால் உருவாக்கப்பட்ட கன்டென்ட்டால் ஏற்படும் பாதிப்புகளுக்கு யார் பொறுப்பு - தளம், AI மாடல் டெவலப்பர், அல்லது AI-ஐ பயன்படுத்தியவர்? இது ஒரு முக்கியமான சட்டக் கேள்வியாகவே உள்ளது. விதிகள் மெட்டாடேட்டா (metadata) மற்றும் தனிப்பட்ட அடையாளங்காட்டிகளை (unique identifiers) கட்டாயமாக்கினாலும், AI கன்டென்ட்டின் மூலத்தைக் கண்டறிவது தெளிவாக இல்லை. இந்த தெளிவின்மை, தளங்களுக்கு கணிசமான சட்ட அபாயங்களை (legal risk) உருவாக்குகிறது. ஐரோப்பாவில் AI விதிமீறல்களுக்கு விதிக்கப்படும் பெரிய அபராதங்களைக் கருத்தில் கொண்டால், இது போன்ற தெளிவற்ற பொறுப்புகள் பெரும் நிதிச் சிக்கல்களுக்கு வழிவகுக்கும்.
உலகளாவிய போக்குகள் மற்றும் முதலீட்டாளர்களின் அச்சங்கள்
உலக அளவில் ஒப்பிடும்போது, இந்தியாவின் IT Rules 2026 மிகவும் கடுமையானதாகத் தோன்றுகிறது. ஐரோப்பிய யூனியனின் Digital Services Act மற்றும் ஆஸ்திரேலியாவில் உள்ள சட்டங்கள் போன்றவை, சமூக வலைதளங்களுக்கான கட்டுப்பாடுகளை உலகளவில் அதிகரிக்கின்றன. Meta மற்றும் Alphabet (Google) போன்ற பெரிய நிறுவனங்கள் ஏற்கனவே AI பாதுகாப்பு மற்றும் கன்டென்ட் மதிப்பாய்வில் (content moderation) கோடிக்கணக்கில் முதலீடு செய்து வருகின்றன. இருப்பினும், இந்தியாவின் குறிப்பிட்ட கவனம் மற்றும் தீர்க்கப்படாத AI மாடல் பொறுப்பு ஆகியவை தனித்துவமான சவால்களை முன்வைக்கின்றன. இந்த ஒழுங்குமுறை சவால்கள் டிஜிட்டல் வளர்ச்சிப் பங்குகளில் (digital growth stocks) ஒரு முக்கிய ஆபத்தாகப் பார்க்கப்படுகிறது, இது செயல்பாட்டுச் செலவுகள் அதிகரிப்பு மற்றும் முதலீட்டாளர்களின் எச்சரிக்கையான அணுகுமுறையால் பங்கு மதிப்புகள் குறையக்கூடும்.
லாபத்தில் மேலும் அழுத்தம்
IT Rules 2026 கோரும் இந்த முன்முயற்சி அணுகுமுறை, சமூக வலைதள நிறுவனங்களுக்குப் பல பெரிய ஆபத்துக்களைக் கொண்டுள்ளது. முதலாவதாக, மேம்பட்ட சோதனைகள், AI கண்டறிதல் கருவிகள், மற்றும் கட்டாய லேபிளிங் உள்ளிட்ட அதிக இணக்கச் செலவுகள் (compliance costs) லாப வரம்புகளைக் (profit margins) குறைக்கலாம். இரண்டாவதாக, கன்டென்ட் விளம்பரத்தில் (content promotion) வெளிப்படைத்தன்மை மற்றும் AI-லேபிளிடப்பட்ட கன்டென்டை பின்னுக்குத் தள்ளுவது, தனிப்பயனாக்கப்பட்ட கன்டென்ட் டெலிவரி மற்றும் பரவலை நம்பியிருக்கும் பயனர் ஈடுபாடு (user engagement) மற்றும் விளம்பர வருவாயைப் (advertising income) பாதிக்கலாம். வேகமாக மாறிவரும் டிஜிட்டல் துறையில், இத்தகைய கடுமையான புதிய விதிகளுக்கு ஏற்ப விரைவாக மாற்றியமைப்பது ஒரு பெரிய சவாலாகும். மேலும், AI மாடல் டெவலப்பர்களுக்கான தெளிவற்ற பொறுப்பு ஒரு பெரிய குறைபாடாகும். உரிமம் பெற்ற AI மாடலால் உருவாக்கப்பட்ட கன்டென்ட்டிற்கு ஒரு தளம் அபராதம் விதிக்கப்பட்டால், மாடலின் உருவாக்குநருக்கு எதிராக தெளிவான சட்டபூர்வமான வழிமுறைகள் இல்லாதது ஒரு பெரிய ஆபத்து. இந்த தெளிவின்மை, டிஜிட்டல் தளங்கள் மீதான உலகளாவிய மேற்பார்வை அதிகரிப்புடன் சேர்ந்து, பயனர் உருவாக்கிய கன்டென்ட் மற்றும் AI-ஆல் இயக்கப்படும் பரவலை நம்பியிருக்கும் நிறுவனங்களுக்கு ஒரு கடினமான பாதையைக் காட்டுகிறது.
