AI-ன் பொறுப்புக்கூறல் இடைவெளி அதிகரிப்பு: நிறுவனங்களின் போர்டுகளுக்கு நேரடி மேற்பார்வை கட்டாயம்!

TECH
Whalesbook Logo
AuthorDevika Pillai|Published at:
AI-ன் பொறுப்புக்கூறல் இடைவெளி அதிகரிப்பு: நிறுவனங்களின் போர்டுகளுக்கு நேரடி மேற்பார்வை கட்டாயம்!
Overview

AI தொழில்நுட்பம் நிறுவனங்களில் அதிவேகமாகப் பரவி வருகிறது. ஆனால், அதன் பொறுப்புக்கூறல் (Accountability) மற்றும் நிர்வாகக் கட்டமைப்புகள் (Governance) போதுமான அளவு வளராததால், பல சிக்கல்கள் உருவாகியுள்ளன. இதனால், நிறுவனங்கள் இனி AI-யை வெறும் முடிவெடுக்கும் கருவியாகப் பார்க்காமல், மனிதர்களின் முடிவுகளுக்கு ஆதரவாகப் பயன்படுத்தும் முறையை நோக்கி நகர்கின்றன.

அதிகரிக்கும் பொறுப்புக்கூறல் பற்றாக்குறை

கடன் ஒப்புதல்கள் முதல் ஒப்பந்த மதிப்பாய்வுகள் வரை, நிறுவனங்களின் முக்கியப் பணிகளில் செயற்கை நுண்ணறிவு (AI) வேகமாகப் பயன்படுத்தப்பட்டாலும், அதற்கான பொறுப்புக்கூறல் மற்றும் நிர்வாகக் கட்டமைப்புகள் போதுமான அளவு உருவாகவில்லை. இது உலகளாவிய நிறுவனங்களுக்குப் பெரும் சவாலாக மாறியுள்ளது. AI-யின் செயல்திறனை விட, அதன் முடிவுகள் ஏன் எடுக்கப்பட்டன என்பதை விளக்கக்கூடிய தன்மை, சான்றுகள் மற்றும் சட்டரீதியான கேள்விகளுக்குப் பதிலளிக்கும் திறன் ஆகியவற்றில் கவனம் திரும்பியுள்ளது. நிறுவனங்கள் ஒரு பெரிய "பொறுப்புக்கூறல் இடைவெளியை" எதிர்கொள்கின்றன. இந்த இடைவெளியைக் குறிக்கும் விதமாக, AI நிர்வாகச் சந்தை (AI Governance Market) 2026-ல் 0.44 பில்லியன் டாலராக இருந்து, 2031-க்குள் 1.51 பில்லியன் டாலராக உயரும் என எதிர்பார்க்கப்படுகிறது. இதன் ஆண்டு வளர்ச்சி விகிதம் (CAGR) 28.15% ஆகும்.

உலகளாவிய சட்டச் சிக்கல்களைச் சமாளித்தல்

சர்வதேச அளவில் செயல்படும் நிறுவனங்கள், பலவிதமான சட்ட விதிகளை எதிர்கொள்கின்றன. இந்தியாவின் டிஜிட்டல் தனிநபர் தரவுப் பாதுகாப்புச் சட்டம் (DPDP Act), தரவுப் பயன்பாட்டிற்குச் சட்டப்பூர்வ அனுமதியைக் கட்டாயமாக்குகிறது. ஐரோப்பாவின் AI சட்டம், ஆபத்துகளின் அடிப்படையில் AI அமைப்புகளை வகைப்படுத்தி, ஆகஸ்ட் 2026 முதல் உயர்-ஆபத்து பயன்பாடுகளுக்கு மனித மேற்பார்வையையும், வெளிப்படைத்தன்மையையும் கட்டாயமாக்குகிறது. அமெரிக்காவும் வெளிப்படைத்தன்மைக்கு முக்கியத்துவம் அளிக்கிறது. இந்த வேறுபாடுகள் காரணமாக, நிறுவனங்கள் தாங்கள் செயல்படும் அனைத்துப் பகுதிகளிலும் உள்ள கடுமையான சட்டங்களுக்கு இணங்க வேண்டிய கட்டாயத்தில் உள்ளன.

'ஆட்டோமேஷன் பையாஸ்' எனும் ஆபத்து

பொதுவாகப் பயன்படுத்தப்படும் மனிதர்களின் தலையீடு (Human-in-the-Loop - HITL) என்ற பாதுகாப்பு அம்சம் கூட, "ஆட்டோமேஷன் பையாஸ்" (Automation Bias) எனப்படும் மனோபாவம் காரணமாகப் போதுமானதாக இல்லை. இதனால், மனிதர்கள் AI வழங்கும் முடிவுகளை அதிகமாக நம்பி, அவற்றை அப்படியே அங்கீகரிக்கும் நிலைக்குத் தள்ளப்படுகிறார்கள். AI-யின் முடிவுகளுக்குக் காரணத்தைக் கூறவோ, அதை மாற்றியமைக்கவோ மனிதர்களுக்கு அதிகாரம் உள்ளதா என்பதை வழக்கறிஞர்கள் இப்போது கேள்வி எழுப்புகின்றனர். இதனால், மனிதர்கள் ஒரு உதவியாளராக மாறிவிடுகிறார்கள்.

AI-யின் பங்கு மாற்றம்: தயாரிப்பாளரிடமிருந்து ஆலோசகருக்கு

முன்னணி நிறுவனங்கள் இப்போது AI-யை ஒரு முக்கிய முடிவெடுக்கும் கருவியாகப் பயன்படுத்துவதற்குப் பதிலாக, ஒரு வலுவான முடிவெடுக்கும் ஆதரவுக் கருவியாக (Decision-Support Tool) மாற்றியமைக்கின்றன. இந்த முறையில், AI ஆபத்துகளைச் சுட்டிக்காட்டலாம் அல்லது நுண்ணறிவுகளை வழங்கலாம். ஆனால், இறுதி முடிவெடுக்கும் அதிகாரம் ஒரு பயிற்சி பெற்ற மனிதரிடமே இருக்கும். இதனால், தரவுகளுடன் மனிதர்களின் மன ஈடுபாடு அதிகரிக்கிறது.

ஆபத்து மேலாண்மைக்கான நிர்வாகக் கட்டமைப்பு

இந்த மாற்றம், சட்டத்துறைத் தலைவர்கள் (General Counsels), இணக்க அதிகாரிகள் (Compliance Officers) மற்றும் ஆபத்து மேலாளர்கள் (Risk Officers) ஆகியோரின் பங்கை அதிகரிக்கிறது. அவர்கள், AI-யின் செயல்திறனை விட மனிதர்களின் முடிவெடுக்கும் செயல்முறைக்கு முக்கியத்துவம் கொடுக்கும் "ஆபத்துக் குறைப்பு எல்லைகளை" (Risk Thresholds) வரையறுக்க வேண்டும். தரவுப் பரிணாமம், மாதிரிப் பதிவுகள் (Model Provenance), முடிவெடுக்கும் தடமறிதல் (Decision Traceability), மாற்ற முடியாத பதிவுகள் (Immutable Logging) மற்றும் மாடல் கார்டுகள் (Model Cards) போன்ற ஆவணங்கள் அவசியம். ISO/IEC 42001 போன்ற தரநிலைகளுடன் கூடிய AI நிர்வாக அமைப்புகளும் முக்கியத்துவம் பெறுகின்றன.

போர்டு அறைகளின் முக்கியத்துவம்

AI நிர்வாகம் என்பது தொழில்நுட்பப் பிரச்சனை மட்டுமல்ல. இது சட்டரீதியான பொறுப்புகள், நிறுவன ஆபத்துகள் மற்றும் பொறுப்புமிக்க கடமைகளுடன் (Fiduciary Duties) தொடர்புடையது. எனவே, இது போர்டு அளவில் கவனத்தைப் பெற வேண்டும். சட்ட வல்லுநர்கள் தொழில்நுட்பத்தில் தேர்ச்சி பெற்றிருக்க வேண்டும் என்ற புதிய தரநிலைகள் (ABA Model Rule 1.1) வந்துள்ளன. சைபர் பாதுகாப்பு போலவே, AI ஆபத்துகளையும், அதன் விளைவுகளையும் புரிந்துகொண்டு, அதைக் கண்காணிக்கும் பொறுப்பு இப்போது போர்டுகளுக்கு உள்ளது. இதைக் கவனிக்கத் தவறினால், நிறுவனங்களும் அதன் இயக்குநர்களும் சட்டரீதியான சிக்கல்களையும், நற்பெயருக்குக் களங்கத்தையும் சந்திக்க நேரிடும்.

இடைவெளியைக் குறைத்தல்: தலைமைத்துவம் மற்றும் பொறுப்பு

நிறுவனத் தலைவர்கள் AI-யை ஒரு தகவல் தொழில்நுட்ப முயற்சியாகப் பார்க்கிறார்கள், அதே சமயம் தகவல் தொழில்நுட்பத் துறை அதை ஒரு வணிக மேம்பாட்டுக் கருவியாகப் பார்க்கிறது. இதனால், ஆபத்துகள் கவனிக்கப்படாமல் போகின்றன. சட்ட மற்றும் ஆபத்து மேலாண்மைக் குழுக்கள் இப்போது "கேட் கீப்பர்களாக" (Gatekeepers) செயல்பட்டு, AI அமைப்புகள் பாதுகாப்பு மற்றும் இணக்கத் தரங்களைப் பூர்த்தி செய்கின்றனவா என்பதை உறுதிப்படுத்த வேண்டும். வணிகப் பிரிவுத் தலைவர்கள், மனித ஊழியர்களைப் போலவே AI முடிவுகளுக்கும் பொறுப்பேற்க வேண்டும். இந்த மாற்றங்கள், AI தொழில்நுட்ப வெற்றியானது, தெளிவான உரிமையை நிறுவுவதிலும், நிர்வாகத்தை அதன் வளர்ச்சிச் சுழற்சியில் ஒருங்கிணைப்பதிலும்தான் உள்ளது என்பதை வலியுறுத்துகின்றன.

Disclaimer:This content is for educational and informational purposes only and does not constitute investment, financial, or trading advice, nor a recommendation to buy or sell any securities. Readers should consult a SEBI-registered advisor before making investment decisions, as markets involve risk and past performance does not guarantee future results. The publisher and authors accept no liability for any losses. Some content may be AI-generated and may contain errors; accuracy and completeness are not guaranteed. Views expressed do not reflect the publication’s editorial stance.