AI के नए नियम: सरकारी मंशा और चिंताएं
भारत सरकार IT Rules 2021 के तहत AI-जनरेटेड कंटेंट (SGI) के लिए नया रेगुलेटरी फ्रेमवर्क ला रही है। इसका मकसद डीपफेक और AI-जनरेटेड कंटेंट से जुड़ी समस्याओं से निपटना है। सरकार यूजर सेफ्टी, ट्रेसिबिलिटी और जवाबदेही को मजबूत करना चाहती है। लेकिन, नए नियमों में इंटरमीडियरी लायबिलिटी (Intermediary Liability) पर ज्यादा जोर दिया जा रहा है। इस वजह से चिंताएं बढ़ रही हैं कि इन नियमों का प्रैक्टिकल इम्प्लीमेंटेशन भारत की दमदार क्रिएटर इकोनॉमी और AI टूल्स पर निर्भर अनगिनत माइक्रो, स्मॉल और मीडियम एंटरप्राइजेज (MSMEs) पर भारी पड़ सकता है।
AI इकोसिस्टम vs. इंटरमीडियरी लायबिलिटी
जेनरेटिव AI के आने से इंटरनेट रेगुलेशन का पुराना मॉडल, जिसमें कंटेंट बनाने वाले और प्लेटफॉर्म होस्ट करने वालों की भूमिका अलग-अलग थी, अब अपर्याप्त साबित हो रहा है। AI-जनरेटेड कंटेंट के बनने से लेकर उसके फैलने तक की प्रक्रिया में फाउंडेशन मॉडल डेवलपर्स, डिप्लॉयमेंट स्पेशलिस्ट, AI टूल्स का इस्तेमाल करने वाले क्रिएटर्स और कई प्लेटफॉर्म शामिल होते हैं। इस जटिल इकोसिस्टम में किसी एक इकाई के पास कंटेंट के पूरे लाइफसाइकल का कंट्रोल नहीं होता। SGI को रेगुलेट करने वाले ड्राफ्ट में इंटरमीडियरीज पर ही मुख्य रूप से जिम्मेदारी डालने की कोशिश की गई है। यह तरीका, भले ही लेबलिंग और जवाबदेही के लिए एक कानूनी आधार देता हो, लेकिन यह एक मल्टी-फेसटेड समस्या को बहुत सरल बनाने का जोखिम उठाता है। यूरोपियन यूनियन (EU) के रिस्क-बेस्ड AI एक्ट की तरह, जो जेनरेटिव AI आउटपुट के लिए ट्रांसपेरेंसी और लेबलिंग अनिवार्य करता है, या अमेरिका के डिसेंट्रलाइज्ड, सेक्टर-स्पेसिफिक अप्रोच की तुलना में, भारत का इंटरमीडियरी लायबिलिटी पर फोकस AI डेवलपमेंट और डिप्लॉयमेंट की डिस्ट्रिब्यूटेड प्रकृति के साथ तालमेल बिठाने में संघर्ष कर सकता है।
क्रिएटर इकोनॉमी और MSMEs पर असर
भारत की क्रिएटर इकोनॉमी डिजिटल समावेशन, रोजगार और सांस्कृतिक अभिव्यक्ति का एक बड़ा जरिया है। 2030 तक इसका मूल्य लगभग $3.9 अरब होने का अनुमान है। यह लाखों क्रिएटर्स का समर्थन करती है जो कंटेंट की क्वालिटी बढ़ाने और प्रोडक्शन कॉस्ट कम करने के लिए AI-इनेबल्ड टूल्स पर तेजी से निर्भर हो रहे हैं। इसी तरह, MSMEs भी ग्रोथ और प्रोडक्टिविटी के लिए AI की क्षमता को पहचानते हैं। 91% MSMEs मानते हैं कि AI को डेमोक्रेटिकली एक्सेसिबल होना चाहिए, लेकिन लागत और स्किल गैप अभी भी बड़ी बाधाएं हैं। प्रस्तावित SGI रूल्स, जिनमें यूजर डिक्लेरेशन, वेरिफिकेशन और स्पष्ट लेबलिंग की अनिवार्यता शामिल है, और गैर-अनुपालन (non-compliance) पर सेफ हार्बर (safe harbour) का नुकसान होने की संभावना है, ये छोटे क्रिएटर्स और कम मार्जिन पर काम करने वाले व्यवसायों के लिए महत्वपूर्ण ऑपरेशनल बोझ डाल सकते हैं। इससे अत्यधिक कंटेंट हटाना या सेल्फ-सेंसरशिप (self-censorship) हो सकती है। जोखिम यह है कि लायबिलिटी के डर से सरकारी सावधानी, वैध रचनात्मक अभिव्यक्ति और आर्थिक गतिविधि को दबा सकती है, बजाय इसके कि वह वास्तव में हानिकारक डीपफेक और भ्रामक कंटेंट को टारगेट करे।
वैश्विक रेगुलेशन से तुलना
दुनिया भर में AI गवर्नेंस तेजी से विकसित हो रही है। EU AI Act, जो चरणों में प्रभावी होगा, AI सिस्टम को जोखिम के आधार पर कैटेगराइज करता है और AI-जनरेटेड कंटेंट के लिए मशीन-रीडेबल लेबलिंग सहित सख्त ट्रांसपेरेंसी आवश्यकताएं लागू करता है। इसके विपरीत, अमेरिका अधिक खंडित रणनीति अपनाता है, मौजूदा उपभोक्ता संरक्षण, नागरिक अधिकारों और सेक्टर-विशिष्ट नियमों का लाभ उठाता है, और स्वैच्छिक जोखिम प्रबंधन पर जोर देता है। भारत की अपनी डिजिटल रेगुलेशन की यात्रा, जिसमें IT Rules 2021 और 'Startup India' पहल शामिल है, अब जेनरेटिव AI की अनूठी विशेषताओं के अनुकूल होने की चुनौती का सामना कर रही है। हालांकि पिछली नियामक ओवरहॉल का उद्देश्य ग्रोथ को बढ़ावा देना रहा है, प्रस्तावित SGI रूल्स की व्यापकता के कारण यह सवाल उठता है कि क्या वे एक डायनामिक डिजिटल इकोनॉमी के लिए अनपेक्षित परिणामों से बचने के लिए पर्याप्त रूप से सूक्ष्म (nuanced) हैं। डीप टेक स्टार्टअप्स को क्लासिफिकेशन पीरियड बढ़ाकर और प्रोत्साहन के लिए रेवेन्यू कैप बढ़ाकर समर्थन देने के सरकारी हालिया प्रयास, टेलर्ड पॉलिसी की आवश्यकता के प्रति जागरूकता दर्शाते हैं, लेकिन SGI रूल्स एक अधिक यूनिफॉर्म, लायबिलिटी-ड्रिवन अप्रोच की ओर झुके हुए लगते हैं।
संभावित जोखिम और भविष्य
हालांकि संशोधनों का उद्देश्य दायित्वों (obligations) को स्पष्ट करना है, SGI की परिभाषा, जिसमें ऑडियो, विजुअल या ऑडियो-विजुअल कंटेंट शामिल है जो वास्तविक लगता है, अभी भी टेक्स्ट-आधारित AI आउटपुट को एक ग्रे एरिया में छोड़ सकती है। इंटरमीडियरीज के लिए 'suo motu' (स्वयं संज्ञान लेकर) अवैध SGI को सक्रिय रूप से ढूंढने और उस पर कार्रवाई करने का अनिवार्य कर्तव्य, साथ ही सख्त टेकडाउन टाइमलाइन, प्लेटफॉर्म पर भारी दबाव डालता है। महत्वपूर्ण सोशल मीडिया इंटरमीडियरीज (SSMIs) के लिए बढ़ी हुई जिम्मेदारियां हैं, जिनमें यूजर डिक्लेरेशन और वेरिफिकेशन शामिल हैं, और गैर-अनुपालन के लिए सेफ हार्बर सुरक्षा के नुकसान की संभावना एक शक्तिशाली निवारक के रूप में काम करती है। यह बढ़ी हुई लायबिलिटी का माहौल ओवर-कंप्लायंस (over-compliance) को प्रोत्साहित कर सकता है, जिससे व्यापक कंटेंट मॉडरेशन हो सकता है जो वास्तव में हानिकारक सामग्री से परे चला जाता है। विशेषज्ञ विश्लेषण बताते हैं कि खराब कैलिब्रेटेड एनफोर्समेंट (enforcement) से असमान एप्लिकेशन, वैध कंटेंट का अत्यधिक प्रतिबंध और नवाचार पर चिलिंग इफेक्ट (chilling effect) हो सकता है।
भारत में जेनरेटिव AI का प्रभावी शासन (governance) नवाचार और आर्थिक विकास की अनिवार्यता के साथ मजबूत सुरक्षा उपायों को संतुलित करने की उसकी क्षमता पर निर्भर करता है। जैसे-जैसे वैश्विक रेगुलेटरी फ्रेमवर्क परिपक्व हो रहे हैं, भारत के पास अपने दृष्टिकोण को परिष्कृत करने का अवसर है, जिसमें अधिक रिस्क-बेस्ड विचारों को एकीकृत किया जा सकता है और यह सुनिश्चित किया जा सकता है कि नीतियां तकनीकी परिवर्तन की तेज गति के अनुकूल हों। प्रस्तावित SGI नियमों की सफलता, कैलिब्रेटेड एनफोर्समेंट, तकनीकी कार्यान्वयन के लिए स्पष्ट दिशानिर्देशों और डिजिटल इकोनॉमी के हितधारकों के साथ निरंतर संवाद पर निर्भर करेगी, ताकि अनजाने में उस इकोसिस्टम को नुकसान न पहुंचे जिसे वे सुरक्षित करना चाहते हैं।