Whalesbook Logo

Whalesbook

  • Home
  • About Us
  • Contact Us
  • News

भारत ने AI गवर्नेंस गाइडलाइंस जारी कीं, मौजूदा कानूनों और स्वैच्छिक अनुपालन पर जोर

Tech

|

Updated on 08 Nov 2025, 02:26 am

Whalesbook Logo

Reviewed By

Aditi Singh | Whalesbook News Team

Short Description:

भारत ने आर्टिफिशियल इंटेलिजेंस गवर्नेंस गाइडलाइंस जारी की हैं, जिसमें 'लाइट-टच' अप्रोच अपनाया गया है। नए कानून बनाने के बजाय, यह AI जोखिमों को प्रबंधित करने के लिए आईटी एक्ट और डीपीएडीपी एक्ट जैसे मौजूदा कानूनों पर निर्भर करती है। यह ढांचा स्वैच्छिक उद्योग प्रतिबद्धताओं को बढ़ावा देता है और मानव निरीक्षण व पारदर्शिता पर जोर देता है। नवाचार को बढ़ावा देने का लक्ष्य है, लेकिन स्वैच्छिक अनुपालन की प्रभावशीलता पर चिंताएं बनी हुई हैं, खासकर संभावित सामाजिक प्रभावों के संबंध में। दिशानिर्देशों में AI विकास और सुरक्षा की निगरानी के लिए AI गवर्नेंस ग्रुप जैसी संस्थागत संरचना का भी प्रस्ताव है।
भारत ने AI गवर्नेंस गाइडलाइंस जारी कीं, मौजूदा कानूनों और स्वैच्छिक अनुपालन पर जोर

▶

Detailed Coverage:

भारत के इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय ने आर्टिफिशियल इंटेलिजेंस गवर्नेंस के लिए दिशानिर्देश जारी किए हैं, जिसमें नए AI-विशिष्ट कानून बनाने के बजाय 'लाइट-टच' नियामक मॉडल चुना गया है। यह ढांचा मानता है कि सूचना प्रौद्योगिकी अधिनियम, डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम और उपभोक्ता संरक्षण कानूनों जैसे मौजूदा कानून AI-संबंधित जोखिमों को संबोधित करने के लिए पर्याप्त हैं। यह दृष्टिकोण स्वैच्छिक उद्योग प्रतिबद्धताओं और AI सिस्टम में अंतर्निहित जवाबदेही को प्राथमिकता देता है, जिसका लक्ष्य तीव्र नवाचार को प्रोत्साहित करना है। दिशानिर्देशों का एक महत्वपूर्ण पहलू मानव निरीक्षण पर जोर देना है, जो भारत को AI के लिए वैश्विक नैतिक विचारों के अनुरूप लाता है। पारदर्शिता भी एक प्रमुख मांग है, जो AI सिस्टम कैसे काम करते हैं, डेटा का प्रबंधन करते हैं, और कंप्यूटिंग संसाधनों का उपयोग करते हैं, इस पर स्पष्टता की मांग करता है ताकि 'ब्लैक बॉक्स समस्या' का मुकाबला किया जा सके। यह स्वैच्छिक अनुपालन मॉडल यूरोपीय संघ के सख्त, जोखिम-आधारित आर्टिफिशियल इंटेलिजेंस अधिनियम के विपरीत है, जो बाध्यकारी कानूनी दायित्वों को लागू करता है। आलोचकों का तर्क है कि स्वैच्छिक उपायों पर अत्यधिक निर्भरता नागरिकों को कमजोर छोड़ सकती है और ढांचे को सुरक्षात्मक होने के बजाय अधिक महत्वाकांक्षी बना सकती है, जिससे डीपफेक और एल्गोरिथम भेदभाव जैसे सामाजिक-राजनीतिक प्रभावों को नजरअंदाज किया जा सकता है। प्रस्तावित संस्थागत संरचना में AI गवर्नेंस ग्रुप (AIGG), एक टेक्नोलॉजी और पॉलिसी एक्सपर्ट कमेटी, और एक AI सेफ्टी इंस्टीट्यूट शामिल हैं। AIGG में पांच केंद्रीय मंत्रालयों के प्रतिनिधि और दूरसंचार विनियामक प्राधिकरण, भारतीय प्रतिस्पर्धा आयोग, भारतीय रिजर्व बैंक और भारतीय प्रतिभूति और विनिमय बोर्ड जैसे प्रमुख नियामक शामिल होंगे। जबकि यह दक्षता के लिए अधिकार को केंद्रीकृत करता है, यह केंद्रित शक्ति और तकनीकी या नैतिक निर्णयों में संभावित राजनीतिक हस्तक्षेप के बारे में चिंताएं भी पैदा करता है। **Impact**: दिशानिर्देश स्पष्ट, यद्यपि स्वैच्छिक, नियामक दिशा प्रदान करके भारत के AI क्षेत्र को बढ़ावा देने का लक्ष्य रखते हैं। यह AI प्रौद्योगिकियों में निवेश और विकास को प्रोत्साहित कर सकता है, लेकिन अनिवार्य प्रवर्तन की कमी के कारण सख्त नियमों वाले देशों की तुलना में मजबूत सुरक्षा और नैतिक मानकों को अपनाने में देरी हो सकती है। ढांचे की सफलता उद्योग की भागीदारी और AI को होने वाले नुकसान को संबोधित करने में मौजूदा कानूनों की प्रभावशीलता पर बहुत अधिक निर्भर करेगी। Impact Rating: 6/10। **Terms and Meanings**: * **Light-touch approach**: एक नियामक रणनीति जिसमें न्यूनतम सरकारी हस्तक्षेप शामिल होता है, जो सख्त नियमों के बजाय स्व-नियमन और उद्योग-नेतृत्व वाली पहलों को प्राथमिकता देती है। * **Voluntary industry commitments**: किसी विशेष क्षेत्र की कंपनियों द्वारा कुछ मानकों या प्रथाओं का पालन करने के लिए की गई प्रतिज्ञाएं, बिना कानूनी रूप से बाध्य हुए। * **Embedded accountability**: सिस्टम और प्रक्रियाओं को इस तरह से डिज़ाइन करना कि परिणामों के लिए जिम्मेदारी सीधे उनमें निर्मित हो, न कि केवल बाहरी निरीक्षण या सजा पर निर्भर करे। * **Human oversight**: यह सिद्धांत कि स्वचालित प्रणालियों पर मानव निर्णय और नियंत्रण बनाए रखा जाना चाहिए, खासकर महत्वपूर्ण निर्णयों के लिए। * **Black box problem**: AI सिस्टम के आंतरिक कामकाज को संदर्भित करता है जो अपारदर्शी या समझने में मुश्किल होते हैं, जिससे उनके निर्णयों को समझाना या त्रुटियों की पहचान करना चुनौतीपूर्ण हो जाता है। * **Algorithmic discrimination**: एल्गोरिदम के परिणामों के कारण व्यक्तियों या समूहों के साथ अनुचित या पक्षपाती व्यवहार, जो अक्सर पक्षपाती डेटा या दोषपूर्ण डिजाइन के कारण होता है। * **Deepfakes**: कृत्रिम रूप से उत्पन्न मीडिया (छवियां, वीडियो, ऑडियो) जो ऐसी घटनाओं को दर्शाते हैं जो वास्तव में नहीं हुईं, अक्सर AI का उपयोग करके बनाई जाती हैं, और दुर्भावनापूर्ण उद्देश्यों के लिए उपयोग की जा सकती हैं।


Mutual Funds Sector

दस साल में निफ्टी 50 से बेहतर प्रदर्शन करने वाले पांच म्यूचुअल फंड, निवेशकों के लिए उच्च धन सृजन की पेशकश

दस साल में निफ्टी 50 से बेहतर प्रदर्शन करने वाले पांच म्यूचुअल फंड, निवेशकों के लिए उच्च धन सृजन की पेशकश

दस साल में निफ्टी 50 से बेहतर प्रदर्शन करने वाले पांच म्यूचुअल फंड, निवेशकों के लिए उच्च धन सृजन की पेशकश

दस साल में निफ्टी 50 से बेहतर प्रदर्शन करने वाले पांच म्यूचुअल फंड, निवेशकों के लिए उच्च धन सृजन की पेशकश


Economy Sector

Lenskart IPO मूल्यांकन पर बहस: निवेशक संरक्षण और SEBI की भूमिका

Lenskart IPO मूल्यांकन पर बहस: निवेशक संरक्षण और SEBI की भूमिका

Lenskart IPO मूल्यांकन पर बहस: निवेशक संरक्षण और SEBI की भूमिका

Lenskart IPO मूल्यांकन पर बहस: निवेशक संरक्षण और SEBI की भूमिका