இந்தியாவில் AI மூலம் உருவாக்கப்படும் தகவல்களை (Synthetically Generated Information - SGI) ஒழுங்குபடுத்த, IT Rules 2021-ஐ திருத்தி அமைக்கும் பணிகளை அரசு மேற்கொண்டுள்ளது. இதன் முக்கிய நோக்கம், பயனர்களின் பாதுகாப்பையும், பொறுப்புக்கூறலையும் அதிகரிப்பதாகும்.
ஆனால், இந்த புதிய விதிமுறைகள், குறிப்பாக 'இடைநிலை பொறுப்பு' (Intermediary Liability) என்ற அம்சத்தில் அதிக கவனம் செலுத்துவதால், சிக்கல்கள் எழலாம் எனப் பார்க்கப்படுகிறது. AI-ஆல் உருவாக்கப்படும் ஒரு விஷயம், அதன் அடிப்படை மாடல் உருவாக்குநர், அதை பயன்படுத்தும் டெவலப்பர், பல தளங்களில் பரவும் விதம் என இதன் தொழில்நுட்ப சங்கிலி (Value Chain) மிகவும் சிக்கலானது. இப்படிப்பட்ட சூழலில், ஒரு குறிப்பிட்ட இடத்தில் பொறுப்பை நிலைநாட்டுவது கடினம். ஐரோப்பிய யூனியனின் (EU) AI சட்டம் போல, இது ஒரு விரிவான, ஆபத்து அடிப்படையிலான அணுகுமுறையைக் கொண்டிருக்கவில்லை. அமெரிக்காவைப் போல, தனித்தனி துறைகளுக்கான விதிமுறைகளையும் கொண்டிருக்கவில்லை.
இந்தியாவின் கிரியேட்டர் எக்கனமி (Creator Economy) இன்று தோராயமாக $3.9 பில்லியன் மதிப்பீட்டில் உள்ளது. இது லட்சக்கணக்கான படைப்பாளிகளுக்கு வேலைவாய்ப்பையும், வருமானத்தையும் தருகிறது. இவர்களில் பலர், உள்ளடக்கத்தின் தரத்தை மேம்படுத்தவும், செலவைக் குறைக்கவும் AI கருவிகளைப் பயன்படுத்துகின்றனர். அதேபோல, சிறு, குறு, நடுத்தர நிறுவனங்களும் (MSMEs) AI-யின் வளர்ச்சியைப் பயன்படுத்திக் கொள்ள ஆர்வமாக உள்ளன. 91% நிறுவனங்கள் AI-யை எளிதாக அணுக வேண்டும் என விரும்புகின்றன. ஆனால், செலவு மற்றும் திறமை குறைபாடு ஒரு தடையாக உள்ளது.
புதிய SGI விதிகளின்படி, பயனர்கள் தாங்கள் உருவாக்கும் AI உள்ளடக்கத்தை அறிவிக்க வேண்டும், சரிபார்க்க வேண்டும், தெளிவாகக் குறியிட வேண்டும் (Labelling). இதோடு, விதிமீறல்களுக்கு 'safe harbour' பாதுகாப்பு இல்லாவிட்டால், பெரும் சிக்கல்கள் வரலாம். இது, குறிப்பாக குறைந்த பட்ஜெட்டில் செயல்படும் சிறிய படைப்பாளர்கள் மற்றும் வணிகங்களுக்கு பெரும் சுமையாக மாறும். இதனால், சட்டவிரோத உள்ளடக்கங்களைத் தடுப்பதை விட, முறையான படைப்புச் சுதந்திரத்தையும், பொருளாதார நடவடிக்கைகளையும் இது தடுத்துவிடக்கூடும் என்ற அச்சம் நிலவுகிறது.
உலகளவில், AI நிர்வாகம் வேகமாக வளர்ந்து வருகிறது. EU-வின் AI சட்டம், AI அமைப்புகளை ஆபத்தின் அடிப்படையில் வகைப்படுத்தி, கண்டிப்பாக வெளிப்படைத்தன்மை மற்றும் குறியிடுதலை (labelling) கட்டாயமாக்குகிறது. அமெரிக்கா, அதற்கு மாறாக, ஏற்கனவே உள்ள நுகர்வோர் பாதுகாப்பு, சிவில் உரிமைகள் சட்டங்கள் மற்றும் தன்னார்வ உறுதிமொழிகளை நம்பியுள்ளது. இந்தியாவின் IT Rules 2021, 'Startup India' போன்ற முயற்சிகளால் தொழில்நுட்ப வளர்ச்சியை ஊக்குவிக்க முயன்றாலும், இந்த புதிய SGI விதிகள், டைனமிக் டிஜிட்டல் பொருளாதாரத்தை பாதிக்குமா என்ற கேள்வியை எழுப்புகிறது.
SGI-யின் வரையறை, 'உண்மையாகத் தோன்றும் ஆடியோ, வீடியோ, அல்லது ஆடியோ-விஷுவல் உள்ளடக்கம்' என்று கூறப்பட்டாலும், உரை அடிப்படையிலான AI வெளியீடுகள் (text-based AI outputs) ஒரு தெளிவற்ற பகுதியாகவே உள்ளது. இடைநிலைகள் (Intermediaries) தாங்களாகவே (suo motu) சட்டவிரோத SGI-யைக் கண்டறிந்து நடவடிக்கை எடுக்க வேண்டும், மேலும் குறிப்பிட்ட காலக்கெடுவிற்குள் அதை நீக்க வேண்டும் என்ற கட்டாயம், தளங்களுக்கு பெரும் சுமையை ஏற்படுத்துகிறது. குறிப்பாக, பெரிய சமூக ஊடக இடைநிலைகள் (SSMIs) பயனர்களின் அறிவிப்புகள், சரிபார்ப்பு போன்ற கூடுதல் கடமைகளை எதிர்கொள்கின்றன. விதிமீறல்களுக்கு 'safe harbour' பாதுகாப்பு இழக்க நேரிடும் என்பது, இணங்காததற்கு ஒரு சக்திவாய்ந்த தடையாக அமைகிறது. இந்த உயர்ந்த பொறுப்புச்சூழல், அதிகப்படியான இணக்கத்தை (over-compliance) ஊக்குவிக்கலாம். இதன் மூலம், தீங்கு விளைவிக்கும் உள்ளடக்கத்தைத் தாண்டி, சட்டப்பூர்வமான உள்ளடக்கங்களும் பரவலாகக் கட்டுப்படுத்தப்படலாம்.
இந்தியாவில் AI-யின் நிர்வாகம், பாதுகாப்பை உறுதி செய்வதோடு, புத்தாக்கம் மற்றும் பொருளாதார வளர்ச்சியையும் ஊக்குவிப்பதாக இருக்க வேண்டும். உலகளாவிய விதிமுறைகள் முதிர்ச்சியடையும் போது, இந்தியாவும் அதன் அணுகுமுறையைச் செம்மைப்படுத்த வாய்ப்புள்ளது. ஆபத்து அடிப்படையிலான பரிசீலனைகள் மற்றும் தொழில்நுட்ப மாற்றங்களுக்கு ஏற்ப மாற்றியமைக்கக்கூடிய கொள்கைகள் இதில் அடங்கும். இந்த SGI விதிமுறைகளின் வெற்றி, சரியான அமலாக்கம், தொழில்நுட்பச் செயலாக்கத்திற்கான தெளிவான வழிகாட்டுதல்கள் மற்றும் டிஜிட்டல் பொருளாதார பங்குதாரர்களுடன் தொடர்ச்சியான உரையாடலைப் பொறுத்தது.