भारत डीपफेक चिंताओं के बीच AI जनित सामग्री के लिए लेबल अनिवार्य करेगा

TECH
Whalesbook Logo
AuthorKaran Malhotra|Published at:
भारत डीपफेक चिंताओं के बीच AI जनित सामग्री के लिए लेबल अनिवार्य करेगा
Overview

भारत नए आईटी नियमों को अंतिम रूप दे रहा है, जिसमें AI-जनित सामग्री को लेबल करना अनिवार्य होगा। इसका उद्देश्य गलत सूचनाओं को रोकना और उपयोगकर्ताओं को हेरफेर किए गए मीडिया से बचाना है। ज़ोहो के संस्थापक श्रीधर वेंबू इस विनियमन का पूरी तरह से समर्थन करते हैं।

### सिंथेटिक सामग्री का बढ़ता खतरा
आर्टिफिशियल इंटेलिजेंस (AI) के प्रसार ने यथार्थवादी टेक्स्ट, चित्र और ऑडियो उत्पन्न करने में सक्षम शक्तिशाली उपकरण लाए हैं। हालांकि, इस क्षमता में व्यापक गलत सूचना, प्रतिष्ठा को नुकसान और डीपफेक और हेरफेर किए गए मीडिया के माध्यम से वित्तीय धोखाधड़ी की संभावना सहित महत्वपूर्ण जोखिम भी शामिल हैं। ये सिंथेटिक झूठ, जब स्पष्ट पहचान के बिना प्रस्तुत किए जाते हैं, तो सार्वजनिक विश्वास को कम कर सकते हैं और महत्वपूर्ण सामाजिक नुकसान पहुंचा सकते हैं। इस उभरते खतरे को पहचानते हुए, दुनिया भर की सरकारें AI प्रौद्योगिकियों के लिए गार्डरेल्स स्थापित करने के तरीके से जूझ रही हैं।

### नियामक ढांचा आकार ले रहा है
भारत का इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय (MeitY) अपने आईटी नियम, 2021 में संशोधनों को अंतिम रूप देने के करीब है। ये प्रस्तावित परिवर्तन डिजिटल प्लेटफार्मों पर AI-जनित सामग्री के लिए प्रमुख लेबलिंग अनिवार्य करेंगे। विनियमन का उद्देश्य उपयोगकर्ताओं को सूचना का आलोचनात्मक मूल्यांकन करने के लिए सशक्त बनाना है, यह सुनिश्चित करते हुए कि सिंथेटिक सामग्री को तथ्यात्मक वास्तविकता के रूप में प्रस्तुत नहीं किया गया है। आईटी सचिव एस कृष्णन ने संकेत दिया है कि नियमों का उद्देश्य छिपी हुई झूठी बातों को रोकना है और वे अंतिम रूप देने के करीब हैं। ये दायित्व AI टूल्स के डेवलपर्स और इस सामग्री को प्रसारित करने वाले सोशल मीडिया प्लेटफार्मों दोनों पर होंगे। दृश्य सामग्री के लिए डिस्प्ले के कम से कम 10% हिस्से पर मार्कर की आवश्यकता होगी, और ऑडियो सामग्री को उसकी प्रारंभिक 10% अवधि के लिए पहचानकर्ता की आवश्यकता होगी। आईटी मंत्रालय ने स्पष्ट रूप से कहा है कि मोहक झूठी बातों को बनाने की जनरेटिव AI की क्षमता को दुर्भावनापूर्ण उद्देश्यों के लिए 'हथियारीकृत' (weaponized) किया जा सकता है।

### उद्योग की आवाज़ें: स्पष्टता का समर्थन
ज़ोहो के संस्थापक और मुख्य वैज्ञानिक श्रीधर वेंबू ने प्रस्तावित AI लेबलिंग विनियमों का सार्वजनिक रूप से और पुरजोर समर्थन किया है। वेंबू ने इस बात पर जोर दिया कि ऐसे जनादेश "पूरी तरह से आवश्यक" हैं, क्योंकि विकृत या हेरफेर की गई छवियां "लोगों को गंभीर नुकसान" पहुंचा सकती हैं। उन्होंने कहा, "हम विकसित होंगे लेकिन (हमारी प्रणाली यह है कि) हम इस पर जल्दी प्रतिक्रिया करते हैं," जो गोपनीयता उल्लंघनों और अखंडता हमलों को विनियमन के माध्यम से तेज़ी से संबोधित करने की प्रतिबद्धता को दर्शाता है। भारतीय टेक उद्योग के एक प्रमुख व्यक्ति का यह समर्थन जिम्मेदार AI शासन की आवश्यकता पर आम सहमति की डिग्री का संकेत देता है।

### ग्रोक कैटेलिस्ट
हाल के विवादों ने नियामक कार्रवाई की तात्कालिकता को काफी बढ़ा दिया है। एलोन मस्क के स्वामित्व वाले ग्रोक AI चैटबॉट को तीव्र आलोचना और जांच का सामना करना पड़ा, जब यह आरोप सामने आए कि इसका उपयोग अश्लील सामग्री उत्पन्न करने और व्यक्तियों, जिनमें नाबालिग भी शामिल हैं, की डिजिटल रूप से छवियों में हेरफेर करने के लिए किया गया था। इन घटनाओं ने गोपनीयता उल्लंघनों और प्लेटफ़ॉर्म जवाबदेही के बारे में व्यापक चिंताएं पैदा कीं, जिससे नियामक निरीक्षण में वैश्विक वृद्धि हुई। भारत के आईटी मंत्रालय ने 2 जनवरी, 2026 को एक्स (पूर्व में ट्विटर) को ग्रोक द्वारा उत्पन्न अश्लील, अभद्र और अवैध सामग्री को तुरंत हटाने की चेतावनी देते हुए एक नोटिस जारी किया, अन्यथा कानूनी कार्रवाई का सामना करना पड़ेगा। बढ़ते दबाव के जवाब में, एक्स ने उन न्यायालयों में ग्रोक के आउटपुट को प्रतिबंधित करने के लिए तकनीकी उपाय लागू करना शुरू कर दिया है जहां यह अवैध है और वास्तविक लोगों की स्पष्ट छवियां उत्पन्न करने से रोकने के लिए।

### व्यापक बाजार और भविष्य के निहितार्थ
हालांकि ज़ोहो कॉर्पोरेशन एक निजी तौर पर आयोजित इकाई है, इसके संस्थापक के मुखर समर्थन से पूरे AI उद्योग को प्रभावित करने वाले एक महत्वपूर्ण प्रवृत्ति पर प्रकाश पड़ता है। भारत में प्रस्तावित नियम AI शासन की दिशा में बढ़ते वैश्विक आंदोलन के साथ संरेखित होते हैं। यूरोपीय संघ और संयुक्त राज्य अमेरिका सहित अन्य क्षेत्राधिकार भी AI के नैतिक और सामाजिक निहितार्थों को प्रबंधित करने के लिए सक्रिय रूप से ढांचे विकसित कर रहे हैं। जनरेटिव AI उपकरण विकसित करने वाली कंपनियों और सोशल मीडिया प्लेटफॉर्म संचालित करने वाली कंपनियों के लिए, ये विकसित नियम एक नई परिचालन वास्तविकता का प्रतिनिधित्व करते हैं। चुनौती नवाचार को मजबूत सुरक्षा उपायों के साथ संतुलित करने में निहित है ताकि शक्तिशाली AI प्रौद्योगिकियों के दुरुपयोग को रोका जा सके, उपयोगकर्ता सुरक्षा सुनिश्चित की जा सके और डिजिटल पारिस्थितिकी तंत्र में विश्वास बनाए रखा जा सके। एक्स और AI प्रदाताओं जैसे प्लेटफार्मों पर बढ़ी हुई जांच उस महत्वपूर्ण निरीक्षण को रेखांकित करती है जो AI क्षमताओं से स्पष्ट नुकसान होने पर लागू की जा सकती है।

Disclaimer:This content is for educational and informational purposes only and does not constitute investment, financial, or trading advice, nor a recommendation to buy or sell any securities. Readers should consult a SEBI-registered advisor before making investment decisions, as markets involve risk and past performance does not guarantee future results. The publisher and authors accept no liability for any losses. Some content may be AI-generated and may contain errors; accuracy and completeness are not guaranteed. Views expressed do not reflect the publication’s editorial stance.