Tech
|
Updated on 07 Nov 2025, 02:01 pm
Reviewed By
Aditi Singh | Whalesbook News Team
▶
लॉजिटेक की सीईओ हैनेके फेबर ने हाल ही में कॉर्पोरेट बोर्डरूम में AI एजेंट्स को निर्णय-निर्माता के रूप में शामिल करने का प्रस्ताव दिया, जिसने तीखी बहस के बजाय शांत चिंतन पैदा किया। यह मुख्य रूप से जवाबदेही के आसपास महत्वपूर्ण शासन संबंधी चिंताएँ पैदा करता है। मानव निदेशकों के विपरीत, जो विश्वासपात्र कर्तव्यों और कानूनी दंडों के अधीन होते हैं, किसी AI एल्गोरिथम पर गलत निर्णयों के लिए मुकदमा नहीं चलाया जा सकता है या उसे जिम्मेदार नहीं ठहराया जा सकता है। देनदारी का सवाल जटिल है: यदि AI-संचालित निर्णय भेदभाव की ओर ले जाता है, उदाहरण के लिए कुछ कर्मचारी समूहों को असमान रूप से प्रभावित करके, तो जिम्मेदारी कौन लेगा? भारतीय नियामक AI शासन को संबोधित करना शुरू कर रहे हैं, सेबी के AI गवर्नेंस फ्रेमवर्क जैसे ढांचे एक प्रारंभिक बिंदु प्रदान करने का लक्ष्य रखते हैं, हालांकि बोर्ड-स्तरीय निर्णय लेने में AI के लिए विशिष्ट दिशानिर्देश अभी भी नवजात हैं।
एक और बड़ी समस्या अपारदर्शिता है; जटिल एल्गोरिदम अपनी सिफारिशों तक कैसे पहुंचते हैं, यह समझना मानव तर्क की तुलना में चुनौतीपूर्ण है, जो सूचित निर्णय लेने में बाधा डालता है। इसके अलावा, AI पूर्वाग्रह को बढ़ा सकता है यदि इसे ऐतिहासिक डेटा पर प्रशिक्षित किया जाए जिसमें भेदभावपूर्ण पैटर्न हों, जिससे स्पष्ट रूप से वस्तुनिष्ठ फिर भी हानिकारक परिणाम हो सकते हैं। इन जटिलताओं को नेविगेट करने के लिए, कुछ बोर्ड AI नैतिकता सलाहकारों को नियुक्त कर रहे हैं।
मुख्य बहस AI को सूचना प्रसंस्करण के लिए एक उपकरण मानने या निर्णय लेने के अधिकार वाले भागीदार के रूप में मानने के बीच है। शासन में मानव जवाबदेही की आवश्यकता को देखते हुए, समर्थक तर्क देते हैं कि AI को मानव निदेशकों की सहायता करने वाले एक उपकरण के रूप में ही रहना चाहिए, न कि मतदान सदस्य बनना चाहिए। शासन के लिए विफलताओं का जवाब किसी को देना होता है, एक क्षमता जो AI में नहीं है। अच्छे शासन का वास्तविक माप गति या दक्षता नहीं है, बल्कि विचार-विमर्श, असहमति और हितधारक प्रभावों का सावधानीपूर्वक विचार है, ऐसे तत्व जिन्हें AI दोहरा नहीं सकता है।
प्रभाव: कॉर्पोरेट निर्णय लेने की प्रक्रियाओं में AI का एकीकरण दुनिया भर में, भारत में भी, जोखिम मूल्यांकन, रणनीतिक योजना और नियामक अनुपालन को नया आकार दे सकता है। इससे बढ़ी हुई जांच, नए शासन ढांचे और रणनीतिक भूमिकाओं में AI को आक्रामक रूप से अपनाने वाली कंपनियों के प्रति संभावित निवेशक भावना में बदलाव आ सकता है। रेटिंग: 7/10।
कठिन शब्द: फिड्यूशियरी ड्यूटी (Fiduciary Duty): दो या दो से अधिक पक्षों के बीच विश्वास का एक कानूनी या नैतिक संबंध, जहां एक पक्ष का कर्तव्य दूसरे पक्ष के सर्वोत्तम हित में कार्य करना है। अपारदर्शिता (Opacity): वह गुण जिसे देखना या समझना असंभव हो; पारदर्शिता की कमी। पूर्वाग्रह (Bias): किसी एक चीज़, व्यक्ति या समूह के पक्ष या विपक्ष में पक्षपात, जो आमतौर पर अनुचित माना जाता है। AI में, इसका मतलब है कि एल्गोरिदम प्रशिक्षण डेटा में मौजूद सामाजिक पूर्वाग्रहों को प्रतिबिंबित और बढ़ा सकते हैं। एल्गोरिथम (Algorithm): किसी समस्या को हल करने या कार्य करने के लिए कंप्यूटर द्वारा अनुसरण किए जाने वाले नियमों या निर्देशों का एक सेट। गवर्नेंस फ्रेमवर्क (Governance Framework): नियमों, प्रथाओं और प्रक्रियाओं का एक सेट जिसके द्वारा एक कंपनी का निर्देशन और नियंत्रण किया जाता है। हितधारक (Stakeholder): कोई भी व्यक्ति, समूह या संगठन जो किसी संगठन के कार्यों, उद्देश्यों और नीतियों को प्रभावित कर सकता है या उससे प्रभावित हो सकता है।