அதிகரிக்கும் பொறுப்புக்கூறல் பற்றாக்குறை
கடன் ஒப்புதல்கள் முதல் ஒப்பந்த மதிப்பாய்வுகள் வரை, நிறுவனங்களின் முக்கியப் பணிகளில் செயற்கை நுண்ணறிவு (AI) வேகமாகப் பயன்படுத்தப்பட்டாலும், அதற்கான பொறுப்புக்கூறல் மற்றும் நிர்வாகக் கட்டமைப்புகள் போதுமான அளவு உருவாகவில்லை. இது உலகளாவிய நிறுவனங்களுக்குப் பெரும் சவாலாக மாறியுள்ளது. AI-யின் செயல்திறனை விட, அதன் முடிவுகள் ஏன் எடுக்கப்பட்டன என்பதை விளக்கக்கூடிய தன்மை, சான்றுகள் மற்றும் சட்டரீதியான கேள்விகளுக்குப் பதிலளிக்கும் திறன் ஆகியவற்றில் கவனம் திரும்பியுள்ளது. நிறுவனங்கள் ஒரு பெரிய "பொறுப்புக்கூறல் இடைவெளியை" எதிர்கொள்கின்றன. இந்த இடைவெளியைக் குறிக்கும் விதமாக, AI நிர்வாகச் சந்தை (AI Governance Market) 2026-ல் 0.44 பில்லியன் டாலராக இருந்து, 2031-க்குள் 1.51 பில்லியன் டாலராக உயரும் என எதிர்பார்க்கப்படுகிறது. இதன் ஆண்டு வளர்ச்சி விகிதம் (CAGR) 28.15% ஆகும்.
உலகளாவிய சட்டச் சிக்கல்களைச் சமாளித்தல்
சர்வதேச அளவில் செயல்படும் நிறுவனங்கள், பலவிதமான சட்ட விதிகளை எதிர்கொள்கின்றன. இந்தியாவின் டிஜிட்டல் தனிநபர் தரவுப் பாதுகாப்புச் சட்டம் (DPDP Act), தரவுப் பயன்பாட்டிற்குச் சட்டப்பூர்வ அனுமதியைக் கட்டாயமாக்குகிறது. ஐரோப்பாவின் AI சட்டம், ஆபத்துகளின் அடிப்படையில் AI அமைப்புகளை வகைப்படுத்தி, ஆகஸ்ட் 2026 முதல் உயர்-ஆபத்து பயன்பாடுகளுக்கு மனித மேற்பார்வையையும், வெளிப்படைத்தன்மையையும் கட்டாயமாக்குகிறது. அமெரிக்காவும் வெளிப்படைத்தன்மைக்கு முக்கியத்துவம் அளிக்கிறது. இந்த வேறுபாடுகள் காரணமாக, நிறுவனங்கள் தாங்கள் செயல்படும் அனைத்துப் பகுதிகளிலும் உள்ள கடுமையான சட்டங்களுக்கு இணங்க வேண்டிய கட்டாயத்தில் உள்ளன.
'ஆட்டோமேஷன் பையாஸ்' எனும் ஆபத்து
பொதுவாகப் பயன்படுத்தப்படும் மனிதர்களின் தலையீடு (Human-in-the-Loop - HITL) என்ற பாதுகாப்பு அம்சம் கூட, "ஆட்டோமேஷன் பையாஸ்" (Automation Bias) எனப்படும் மனோபாவம் காரணமாகப் போதுமானதாக இல்லை. இதனால், மனிதர்கள் AI வழங்கும் முடிவுகளை அதிகமாக நம்பி, அவற்றை அப்படியே அங்கீகரிக்கும் நிலைக்குத் தள்ளப்படுகிறார்கள். AI-யின் முடிவுகளுக்குக் காரணத்தைக் கூறவோ, அதை மாற்றியமைக்கவோ மனிதர்களுக்கு அதிகாரம் உள்ளதா என்பதை வழக்கறிஞர்கள் இப்போது கேள்வி எழுப்புகின்றனர். இதனால், மனிதர்கள் ஒரு உதவியாளராக மாறிவிடுகிறார்கள்.
AI-யின் பங்கு மாற்றம்: தயாரிப்பாளரிடமிருந்து ஆலோசகருக்கு
முன்னணி நிறுவனங்கள் இப்போது AI-யை ஒரு முக்கிய முடிவெடுக்கும் கருவியாகப் பயன்படுத்துவதற்குப் பதிலாக, ஒரு வலுவான முடிவெடுக்கும் ஆதரவுக் கருவியாக (Decision-Support Tool) மாற்றியமைக்கின்றன. இந்த முறையில், AI ஆபத்துகளைச் சுட்டிக்காட்டலாம் அல்லது நுண்ணறிவுகளை வழங்கலாம். ஆனால், இறுதி முடிவெடுக்கும் அதிகாரம் ஒரு பயிற்சி பெற்ற மனிதரிடமே இருக்கும். இதனால், தரவுகளுடன் மனிதர்களின் மன ஈடுபாடு அதிகரிக்கிறது.
ஆபத்து மேலாண்மைக்கான நிர்வாகக் கட்டமைப்பு
இந்த மாற்றம், சட்டத்துறைத் தலைவர்கள் (General Counsels), இணக்க அதிகாரிகள் (Compliance Officers) மற்றும் ஆபத்து மேலாளர்கள் (Risk Officers) ஆகியோரின் பங்கை அதிகரிக்கிறது. அவர்கள், AI-யின் செயல்திறனை விட மனிதர்களின் முடிவெடுக்கும் செயல்முறைக்கு முக்கியத்துவம் கொடுக்கும் "ஆபத்துக் குறைப்பு எல்லைகளை" (Risk Thresholds) வரையறுக்க வேண்டும். தரவுப் பரிணாமம், மாதிரிப் பதிவுகள் (Model Provenance), முடிவெடுக்கும் தடமறிதல் (Decision Traceability), மாற்ற முடியாத பதிவுகள் (Immutable Logging) மற்றும் மாடல் கார்டுகள் (Model Cards) போன்ற ஆவணங்கள் அவசியம். ISO/IEC 42001 போன்ற தரநிலைகளுடன் கூடிய AI நிர்வாக அமைப்புகளும் முக்கியத்துவம் பெறுகின்றன.
போர்டு அறைகளின் முக்கியத்துவம்
AI நிர்வாகம் என்பது தொழில்நுட்பப் பிரச்சனை மட்டுமல்ல. இது சட்டரீதியான பொறுப்புகள், நிறுவன ஆபத்துகள் மற்றும் பொறுப்புமிக்க கடமைகளுடன் (Fiduciary Duties) தொடர்புடையது. எனவே, இது போர்டு அளவில் கவனத்தைப் பெற வேண்டும். சட்ட வல்லுநர்கள் தொழில்நுட்பத்தில் தேர்ச்சி பெற்றிருக்க வேண்டும் என்ற புதிய தரநிலைகள் (ABA Model Rule 1.1) வந்துள்ளன. சைபர் பாதுகாப்பு போலவே, AI ஆபத்துகளையும், அதன் விளைவுகளையும் புரிந்துகொண்டு, அதைக் கண்காணிக்கும் பொறுப்பு இப்போது போர்டுகளுக்கு உள்ளது. இதைக் கவனிக்கத் தவறினால், நிறுவனங்களும் அதன் இயக்குநர்களும் சட்டரீதியான சிக்கல்களையும், நற்பெயருக்குக் களங்கத்தையும் சந்திக்க நேரிடும்.
இடைவெளியைக் குறைத்தல்: தலைமைத்துவம் மற்றும் பொறுப்பு
நிறுவனத் தலைவர்கள் AI-யை ஒரு தகவல் தொழில்நுட்ப முயற்சியாகப் பார்க்கிறார்கள், அதே சமயம் தகவல் தொழில்நுட்பத் துறை அதை ஒரு வணிக மேம்பாட்டுக் கருவியாகப் பார்க்கிறது. இதனால், ஆபத்துகள் கவனிக்கப்படாமல் போகின்றன. சட்ட மற்றும் ஆபத்து மேலாண்மைக் குழுக்கள் இப்போது "கேட் கீப்பர்களாக" (Gatekeepers) செயல்பட்டு, AI அமைப்புகள் பாதுகாப்பு மற்றும் இணக்கத் தரங்களைப் பூர்த்தி செய்கின்றனவா என்பதை உறுதிப்படுத்த வேண்டும். வணிகப் பிரிவுத் தலைவர்கள், மனித ஊழியர்களைப் போலவே AI முடிவுகளுக்கும் பொறுப்பேற்க வேண்டும். இந்த மாற்றங்கள், AI தொழில்நுட்ப வெற்றியானது, தெளிவான உரிமையை நிறுவுவதிலும், நிர்வாகத்தை அதன் வளர்ச்சிச் சுழற்சியில் ஒருங்கிணைப்பதிலும்தான் உள்ளது என்பதை வலியுறுத்துகின்றன.
