### सिंथेटिक सामग्री का बढ़ता खतरा
आर्टिफिशियल इंटेलिजेंस (AI) के प्रसार ने यथार्थवादी टेक्स्ट, चित्र और ऑडियो उत्पन्न करने में सक्षम शक्तिशाली उपकरण लाए हैं। हालांकि, इस क्षमता में व्यापक गलत सूचना, प्रतिष्ठा को नुकसान और डीपफेक और हेरफेर किए गए मीडिया के माध्यम से वित्तीय धोखाधड़ी की संभावना सहित महत्वपूर्ण जोखिम भी शामिल हैं। ये सिंथेटिक झूठ, जब स्पष्ट पहचान के बिना प्रस्तुत किए जाते हैं, तो सार्वजनिक विश्वास को कम कर सकते हैं और महत्वपूर्ण सामाजिक नुकसान पहुंचा सकते हैं। इस उभरते खतरे को पहचानते हुए, दुनिया भर की सरकारें AI प्रौद्योगिकियों के लिए गार्डरेल्स स्थापित करने के तरीके से जूझ रही हैं।
### नियामक ढांचा आकार ले रहा है
भारत का इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय (MeitY) अपने आईटी नियम, 2021 में संशोधनों को अंतिम रूप देने के करीब है। ये प्रस्तावित परिवर्तन डिजिटल प्लेटफार्मों पर AI-जनित सामग्री के लिए प्रमुख लेबलिंग अनिवार्य करेंगे। विनियमन का उद्देश्य उपयोगकर्ताओं को सूचना का आलोचनात्मक मूल्यांकन करने के लिए सशक्त बनाना है, यह सुनिश्चित करते हुए कि सिंथेटिक सामग्री को तथ्यात्मक वास्तविकता के रूप में प्रस्तुत नहीं किया गया है। आईटी सचिव एस कृष्णन ने संकेत दिया है कि नियमों का उद्देश्य छिपी हुई झूठी बातों को रोकना है और वे अंतिम रूप देने के करीब हैं। ये दायित्व AI टूल्स के डेवलपर्स और इस सामग्री को प्रसारित करने वाले सोशल मीडिया प्लेटफार्मों दोनों पर होंगे। दृश्य सामग्री के लिए डिस्प्ले के कम से कम 10% हिस्से पर मार्कर की आवश्यकता होगी, और ऑडियो सामग्री को उसकी प्रारंभिक 10% अवधि के लिए पहचानकर्ता की आवश्यकता होगी। आईटी मंत्रालय ने स्पष्ट रूप से कहा है कि मोहक झूठी बातों को बनाने की जनरेटिव AI की क्षमता को दुर्भावनापूर्ण उद्देश्यों के लिए 'हथियारीकृत' (weaponized) किया जा सकता है।
### उद्योग की आवाज़ें: स्पष्टता का समर्थन
ज़ोहो के संस्थापक और मुख्य वैज्ञानिक श्रीधर वेंबू ने प्रस्तावित AI लेबलिंग विनियमों का सार्वजनिक रूप से और पुरजोर समर्थन किया है। वेंबू ने इस बात पर जोर दिया कि ऐसे जनादेश "पूरी तरह से आवश्यक" हैं, क्योंकि विकृत या हेरफेर की गई छवियां "लोगों को गंभीर नुकसान" पहुंचा सकती हैं। उन्होंने कहा, "हम विकसित होंगे लेकिन (हमारी प्रणाली यह है कि) हम इस पर जल्दी प्रतिक्रिया करते हैं," जो गोपनीयता उल्लंघनों और अखंडता हमलों को विनियमन के माध्यम से तेज़ी से संबोधित करने की प्रतिबद्धता को दर्शाता है। भारतीय टेक उद्योग के एक प्रमुख व्यक्ति का यह समर्थन जिम्मेदार AI शासन की आवश्यकता पर आम सहमति की डिग्री का संकेत देता है।
### ग्रोक कैटेलिस्ट
हाल के विवादों ने नियामक कार्रवाई की तात्कालिकता को काफी बढ़ा दिया है। एलोन मस्क के स्वामित्व वाले ग्रोक AI चैटबॉट को तीव्र आलोचना और जांच का सामना करना पड़ा, जब यह आरोप सामने आए कि इसका उपयोग अश्लील सामग्री उत्पन्न करने और व्यक्तियों, जिनमें नाबालिग भी शामिल हैं, की डिजिटल रूप से छवियों में हेरफेर करने के लिए किया गया था। इन घटनाओं ने गोपनीयता उल्लंघनों और प्लेटफ़ॉर्म जवाबदेही के बारे में व्यापक चिंताएं पैदा कीं, जिससे नियामक निरीक्षण में वैश्विक वृद्धि हुई। भारत के आईटी मंत्रालय ने 2 जनवरी, 2026 को एक्स (पूर्व में ट्विटर) को ग्रोक द्वारा उत्पन्न अश्लील, अभद्र और अवैध सामग्री को तुरंत हटाने की चेतावनी देते हुए एक नोटिस जारी किया, अन्यथा कानूनी कार्रवाई का सामना करना पड़ेगा। बढ़ते दबाव के जवाब में, एक्स ने उन न्यायालयों में ग्रोक के आउटपुट को प्रतिबंधित करने के लिए तकनीकी उपाय लागू करना शुरू कर दिया है जहां यह अवैध है और वास्तविक लोगों की स्पष्ट छवियां उत्पन्न करने से रोकने के लिए।
### व्यापक बाजार और भविष्य के निहितार्थ
हालांकि ज़ोहो कॉर्पोरेशन एक निजी तौर पर आयोजित इकाई है, इसके संस्थापक के मुखर समर्थन से पूरे AI उद्योग को प्रभावित करने वाले एक महत्वपूर्ण प्रवृत्ति पर प्रकाश पड़ता है। भारत में प्रस्तावित नियम AI शासन की दिशा में बढ़ते वैश्विक आंदोलन के साथ संरेखित होते हैं। यूरोपीय संघ और संयुक्त राज्य अमेरिका सहित अन्य क्षेत्राधिकार भी AI के नैतिक और सामाजिक निहितार्थों को प्रबंधित करने के लिए सक्रिय रूप से ढांचे विकसित कर रहे हैं। जनरेटिव AI उपकरण विकसित करने वाली कंपनियों और सोशल मीडिया प्लेटफॉर्म संचालित करने वाली कंपनियों के लिए, ये विकसित नियम एक नई परिचालन वास्तविकता का प्रतिनिधित्व करते हैं। चुनौती नवाचार को मजबूत सुरक्षा उपायों के साथ संतुलित करने में निहित है ताकि शक्तिशाली AI प्रौद्योगिकियों के दुरुपयोग को रोका जा सके, उपयोगकर्ता सुरक्षा सुनिश्चित की जा सके और डिजिटल पारिस्थितिकी तंत्र में विश्वास बनाए रखा जा सके। एक्स और AI प्रदाताओं जैसे प्लेटफार्मों पर बढ़ी हुई जांच उस महत्वपूर्ण निरीक्षण को रेखांकित करती है जो AI क्षमताओं से स्पष्ट नुकसान होने पर लागू की जा सकती है।