Tech
|
Updated on 08 Nov 2025, 02:26 am
Reviewed By
Aditi Singh | Whalesbook News Team
▶
भारताच्या इलेक्ट्रॉनिक्स आणि माहिती तंत्रज्ञान मंत्रालयाने आर्टिफिशियल इंटेलिजन्स गव्हर्नन्ससाठी मार्गदर्शक तत्त्वे जारी केली आहेत, ज्यात नवीन AI-विशिष्ट कायदे तयार करण्याऐवजी 'लाइट-टच' नियामक मॉडेल निवडले आहे. माहिती तंत्रज्ञान कायदा, डिजिटल वैयक्तिक डेटा संरक्षण कायदा आणि ग्राहक संरक्षण कायदे यांसारखे विद्यमान कायदे AI-संबंधित धोके हाताळण्यासाठी पुरेसे आहेत, असे या फ्रेमवर्कमध्ये म्हटले आहे. हा दृष्टिकोन स्वैच्छिक उद्योग वचनबद्धता आणि AI प्रणालींमधील अंतर्भूत उत्तरदायित्वाला प्राधान्य देतो, ज्याचा उद्देश जलद नवकल्पनांना प्रोत्साहन देणे आहे. मार्गदर्शक तत्त्वांचा एक महत्त्वाचा पैलू म्हणजे मानवी पर्यवेक्षणावर जोर देणे, ज्यामुळे भारत AI साठी जागतिक नैतिक विचारांशी संरेखित होतो. पारदर्शकता देखील एक प्रमुख मागणी आहे, जी AI प्रणाली कशा कार्य करतात, डेटाचे व्यवस्थापन कसे करतात आणि संगणकीय संसाधनांचा वापर कसा करतात याबद्दल स्पष्टता मागते, जेणेकरून 'ब्लॅक बॉक्स समस्येशी' लढा दिला जाऊ शकेल. हे स्वैच्छिक अनुपालन मॉडेल युरोपियन युनियनच्या कठोर, जोखीम-आधारित आर्टिफिशियल इंटेलिजेंस कायद्यापेक्षा पूर्णपणे वेगळे आहे, जे बंधनकारक कायदेशीर दायित्वे लागू करते. समीक्षकांचा युक्तिवाद आहे की स्वैच्छिक उपायांवर जास्त अवलंबून राहिल्याने नागरिक असुरक्षित होऊ शकतात आणि फ्रेमवर्क संरक्षणात्मक असण्याऐवजी अधिक महत्वाकांक्षी ठरू शकते, ज्यामुळे डीपफेक आणि अल्गोरिथम भेदभाव यांसारख्या सामाजिक-राजकीय परिणामांकडे दुर्लक्ष केले जाऊ शकते. प्रस्तावित संस्थात्मक रचनेत AI गव्हर्नन्स ग्रुप (AIGG), एक टेक्नॉलॉजी आणि पॉलिसी एक्सपर्ट कमिटी आणि AI सेफ्टी इन्स्टिट्यूट यांचा समावेश आहे. AIGG मध्ये पाच केंद्रीय मंत्रालयांचे प्रतिनिधी आणि दूरसंचार नियामक प्राधिकरण, भारतीय स्पर्धा आयोग, भारतीय रिझर्व्ह बँक आणि भारतीय प्रतिभूति आणि विनिमय मंडळ यांसारखे प्रमुख नियामक समाविष्ट असतील. हे कार्यक्षमतेसाठी अधिकार केंद्रीकृत करते, परंतु हे केंद्रित शक्ती आणि तांत्रिक किंवा नैतिक निर्णयांमध्ये संभाव्य राजकीय हस्तक्षेपाबद्दल चिंता देखील निर्माण करते. **Impact**: या मार्गदर्शक तत्त्वांचा उद्देश एक स्पष्ट, जरी स्वैच्छिक, नियामक दिशा देऊन भारताच्या AI क्षेत्राला चालना देणे हा आहे. हे AI तंत्रज्ञानामध्ये गुंतवणूक आणि विकासाला प्रोत्साहन देऊ शकते, परंतु अनिवार्य अंमलबजावणीच्या अभावामुळे कठोर नियमावली असलेल्या देशांच्या तुलनेत मजबूत सुरक्षा आणि नैतिक मानके स्वीकारण्यास विलंब होऊ शकतो. फ्रेमवर्कचे यश उद्योगाच्या स्वीकृतीवर आणि AI च्या हानींना संबोधित करण्याच्या विद्यमान कायद्यांच्या प्रभावीतेवर मोठ्या प्रमाणावर अवलंबून असेल. Impact Rating: 6/10. **Terms and Meanings**: * **Light-touch approach**: एक नियामक धोरण ज्यामध्ये किमान सरकारी हस्तक्षेप असतो, कठोर नियमांऐवजी स्व-नियमन आणि उद्योग-नेतृत्वाखालील उपक्रमांना प्राधान्य दिले जाते. * **Voluntary industry commitments**: कोणत्याही कायदेशीर बंधनाशिवाय, काही मानके किंवा पद्धतींचे पालन करण्याचे विशिष्ट क्षेत्रातील कंपन्यांनी दिलेले वचन किंवा प्रतिज्ञा. * **Embedded accountability**: केवळ बाह्य पर्यवेक्षण किंवा शिक्षेवर अवलंबून न राहता, परिणामांसाठी जबाबदारी थेट सिस्टम आणि प्रक्रियांमध्ये अंगभूत (built-in) केली जाईल अशा प्रकारे डिझाइन करणे. * **Human oversight**: स्वयंचलित प्रणालींवर, विशेषतः महत्त्वपूर्ण निर्णयांसाठी, मानवी निर्णय आणि नियंत्रण राखले जावे हे तत्व. * **Black box problem**: AI प्रणालींच्या अंतर्गत कामकाजाला संदर्भित करते जे अपारदर्शक किंवा समजण्यास कठीण असतात, ज्यामुळे त्यांचे निर्णय स्पष्ट करणे किंवा त्रुटी ओळखणे आव्हानात्मक होते. * **Algorithmic discrimination**: अल्गोरिदमच्या परिणामांमुळे व्यक्ती किंवा गटांशी होणारी अनुचित किंवा पक्षपाती वागणूक, जी अनेकदा पक्षपाती डेटा किंवा सदोष डिझाइनमुळे होते. * **Deepfakes**: कृत्रिमरित्या तयार केलेले मीडिया (प्रतिमा, व्हिडिओ, ऑडिओ) जे प्रत्यक्षात घडल्या नसलेल्या घटना दर्शवतात, अनेकदा AI वापरून तयार केले जातात आणि दुर्भावनापूर्ण हेतूंसाठी वापरले जाऊ शकतात.