Tech
|
Updated on 08 Nov 2025, 02:26 am
Reviewed By
Aditi Singh | Whalesbook News Team
▶
भारत के इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय ने आर्टिफिशियल इंटेलिजेंस गवर्नेंस के लिए दिशानिर्देश जारी किए हैं, जिसमें नए AI-विशिष्ट कानून बनाने के बजाय 'लाइट-टच' नियामक मॉडल चुना गया है। यह ढांचा मानता है कि सूचना प्रौद्योगिकी अधिनियम, डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम और उपभोक्ता संरक्षण कानूनों जैसे मौजूदा कानून AI-संबंधित जोखिमों को संबोधित करने के लिए पर्याप्त हैं। यह दृष्टिकोण स्वैच्छिक उद्योग प्रतिबद्धताओं और AI सिस्टम में अंतर्निहित जवाबदेही को प्राथमिकता देता है, जिसका लक्ष्य तीव्र नवाचार को प्रोत्साहित करना है। दिशानिर्देशों का एक महत्वपूर्ण पहलू मानव निरीक्षण पर जोर देना है, जो भारत को AI के लिए वैश्विक नैतिक विचारों के अनुरूप लाता है। पारदर्शिता भी एक प्रमुख मांग है, जो AI सिस्टम कैसे काम करते हैं, डेटा का प्रबंधन करते हैं, और कंप्यूटिंग संसाधनों का उपयोग करते हैं, इस पर स्पष्टता की मांग करता है ताकि 'ब्लैक बॉक्स समस्या' का मुकाबला किया जा सके। यह स्वैच्छिक अनुपालन मॉडल यूरोपीय संघ के सख्त, जोखिम-आधारित आर्टिफिशियल इंटेलिजेंस अधिनियम के विपरीत है, जो बाध्यकारी कानूनी दायित्वों को लागू करता है। आलोचकों का तर्क है कि स्वैच्छिक उपायों पर अत्यधिक निर्भरता नागरिकों को कमजोर छोड़ सकती है और ढांचे को सुरक्षात्मक होने के बजाय अधिक महत्वाकांक्षी बना सकती है, जिससे डीपफेक और एल्गोरिथम भेदभाव जैसे सामाजिक-राजनीतिक प्रभावों को नजरअंदाज किया जा सकता है। प्रस्तावित संस्थागत संरचना में AI गवर्नेंस ग्रुप (AIGG), एक टेक्नोलॉजी और पॉलिसी एक्सपर्ट कमेटी, और एक AI सेफ्टी इंस्टीट्यूट शामिल हैं। AIGG में पांच केंद्रीय मंत्रालयों के प्रतिनिधि और दूरसंचार विनियामक प्राधिकरण, भारतीय प्रतिस्पर्धा आयोग, भारतीय रिजर्व बैंक और भारतीय प्रतिभूति और विनिमय बोर्ड जैसे प्रमुख नियामक शामिल होंगे। जबकि यह दक्षता के लिए अधिकार को केंद्रीकृत करता है, यह केंद्रित शक्ति और तकनीकी या नैतिक निर्णयों में संभावित राजनीतिक हस्तक्षेप के बारे में चिंताएं भी पैदा करता है। **Impact**: दिशानिर्देश स्पष्ट, यद्यपि स्वैच्छिक, नियामक दिशा प्रदान करके भारत के AI क्षेत्र को बढ़ावा देने का लक्ष्य रखते हैं। यह AI प्रौद्योगिकियों में निवेश और विकास को प्रोत्साहित कर सकता है, लेकिन अनिवार्य प्रवर्तन की कमी के कारण सख्त नियमों वाले देशों की तुलना में मजबूत सुरक्षा और नैतिक मानकों को अपनाने में देरी हो सकती है। ढांचे की सफलता उद्योग की भागीदारी और AI को होने वाले नुकसान को संबोधित करने में मौजूदा कानूनों की प्रभावशीलता पर बहुत अधिक निर्भर करेगी। Impact Rating: 6/10। **Terms and Meanings**: * **Light-touch approach**: एक नियामक रणनीति जिसमें न्यूनतम सरकारी हस्तक्षेप शामिल होता है, जो सख्त नियमों के बजाय स्व-नियमन और उद्योग-नेतृत्व वाली पहलों को प्राथमिकता देती है। * **Voluntary industry commitments**: किसी विशेष क्षेत्र की कंपनियों द्वारा कुछ मानकों या प्रथाओं का पालन करने के लिए की गई प्रतिज्ञाएं, बिना कानूनी रूप से बाध्य हुए। * **Embedded accountability**: सिस्टम और प्रक्रियाओं को इस तरह से डिज़ाइन करना कि परिणामों के लिए जिम्मेदारी सीधे उनमें निर्मित हो, न कि केवल बाहरी निरीक्षण या सजा पर निर्भर करे। * **Human oversight**: यह सिद्धांत कि स्वचालित प्रणालियों पर मानव निर्णय और नियंत्रण बनाए रखा जाना चाहिए, खासकर महत्वपूर्ण निर्णयों के लिए। * **Black box problem**: AI सिस्टम के आंतरिक कामकाज को संदर्भित करता है जो अपारदर्शी या समझने में मुश्किल होते हैं, जिससे उनके निर्णयों को समझाना या त्रुटियों की पहचान करना चुनौतीपूर्ण हो जाता है। * **Algorithmic discrimination**: एल्गोरिदम के परिणामों के कारण व्यक्तियों या समूहों के साथ अनुचित या पक्षपाती व्यवहार, जो अक्सर पक्षपाती डेटा या दोषपूर्ण डिजाइन के कारण होता है। * **Deepfakes**: कृत्रिम रूप से उत्पन्न मीडिया (छवियां, वीडियो, ऑडियो) जो ऐसी घटनाओं को दर्शाते हैं जो वास्तव में नहीं हुईं, अक्सर AI का उपयोग करके बनाई जाती हैं, और दुर्भावनापूर्ण उद्देश्यों के लिए उपयोग की जा सकती हैं।