### सिंथेटिक सामग्रीचा वाढता धोका
कृत्रिम बुद्धिमत्तेच्या (AI) प्रसारामुळे वास्तववादी मजकूर, प्रतिमा आणि ऑडिओ तयार करणारी शक्तिशाली साधने उपलब्ध झाली आहेत. तथापि, या क्षमतेमुळे मोठ्या प्रमाणात चुकीची माहिती पसरवणे, प्रतिष्ठेला हानी पोहोचवणे आणि डीपफेक व हाताळलेल्या माध्यमांद्वारे आर्थिक फसवणूक होण्याचा धोकाही निर्माण झाला आहे. या सिंथेटिक खोट्या गोष्टी, स्पष्टपणे ओळखल्याशिवाय सादर केल्यास, लोकांचा विश्वास कमी करू शकतात आणि महत्त्वपूर्ण सामाजिक नुकसान पोहोचवू शकतात. हा उदयोन्मुख धोका ओळखून, जगभरातील सरकारे AI तंत्रज्ञानासाठी मार्गदर्शक तत्त्वे स्थापित करण्यासाठी धडपडत आहेत.
### नियामक आराखडा आकार घेत आहे
भारताचे इलेक्ट्रॉनिक्स आणि माहिती तंत्रज्ञान मंत्रालय (MeitY) आपल्या IT नियम, 2021 मध्ये सुधारणा अंतिम करण्याच्या जवळ आहे. हे प्रस्तावित बदल डिजिटल प्लॅटफॉर्मवर AI-जनरेटेड सामग्रीसाठी प्रमुख लेबलिंग अनिवार्य करतील. या नियमांचा उद्देश वापरकर्त्यांना माहितीचे गंभीरपणे मूल्यांकन करण्यास सक्षम करणे आहे, जेणेकरून सिंथेटिक सामग्री तथ्यात्मक वास्तव म्हणून सादर केली जाणार नाही. IT सचिव एस. कृष्णन यांनी सूचित केले आहे की नियम दिशाभूल करणारी खोटी माहिती रोखण्यासाठी आहेत आणि ते अंतिम टप्प्यात आहेत. ही जबाबदारी AI साधने विकसित करणारे आणि ही सामग्री प्रसारित करणारे सोशल मीडिया प्लॅटफॉर्म या दोघांवरही असेल. दृश्य सामग्रीसाठी, डिस्प्ले क्षेत्राच्या किमान 10% भागावर मार्कर असणे आवश्यक आहे, आणि ऑडिओ सामग्रीसाठी, त्याच्या सुरुवातीच्या 10% कालावधीसाठी ओळखकर्ता आवश्यक असेल. IT मंत्रालयाने स्पष्टपणे सांगितले आहे की, मोहक खोट्या गोष्टी तयार करण्याची जनरेटिव्ह AI ची क्षमता दुर्भावनापूर्ण हेतूंसाठी 'शस्त्र म्हणून वापरली' (weaponized) जाऊ शकते.
### उद्योगाकडून पाठिंबा: स्पष्टतेसाठी समर्थन
झोहोचे संस्थापक आणि मुख्य शास्त्रज्ञ श्रीधर वेंबू यांनी प्रस्तावित AI लेबलिंग नियमांना सार्वजनिकपणे आणि जोरदारपणे पाठिंबा दिला आहे. वेंबू यांनी यावर जोर दिला की अशी अनिवार्यता "पूर्णपणे आवश्यक" आहे, कारण विकृत किंवा हाताळलेल्या प्रतिमा "लोकांना गंभीर नुकसान" पोहोचवू शकतात. त्यांनी एक सक्रिय भूमिका मांडली, "आम्ही विकसित होऊ पण (आमची प्रणाली अशी आहे की) आम्ही यावर त्वरित प्रतिक्रिया देतो," जे गोपनीयता उल्लंघने आणि अखंडता हल्ल्यांना नियमांद्वारे त्वरीत प्रतिसाद देण्याची वचनबद्धता दर्शवते. भारतीय तंत्रज्ञान उद्योगातील एका प्रमुख व्यक्तीकडून आलेला हा पाठिंबा, जबाबदार AI प्रशासनाच्या गरजेवर एकमताची भावना दर्शवतो.
### ग्रोक उत्प्रेरक
अलीकडील वादामुळे नियामक कारवाईची तातडी लक्षणीयरीत्या वाढली आहे. एलोन मस्कच्या मालकीच्या ग्रोक AI चॅटबॉटला तीव्र टीका आणि तपासणीला सामोरे जावे लागले, कारण अल्पवयीन मुलांसह व्यक्तींच्या अश्लील सामग्री आणि डिजिटल प्रतिमांमध्ये फेरफार करण्यासाठी त्याचा वापर केल्याचा आरोप करण्यात आला होता. या घटनांमुळे गोपनीयता उल्लंघने आणि प्लॅटफॉर्म उत्तरदायित्वाबद्दल व्यापक चिंता निर्माण झाली, ज्यामुळे नियामक निरीक्षणात जागतिक वाढ झाली. भारताच्या IT मंत्रालयाने 2 जानेवारी 2026 रोजी X (पूर्वीचे ट्विटर) ला ग्रोकद्वारे तयार केलेली अश्लील, असभ्य आणि बेकायदेशीर सामग्री त्वरित काढून टाकण्याची सूचना दिली, अन्यथा कायदेशीर कारवाईला सामोरे जावे लागेल. वाढत्या दबावाला प्रतिसाद म्हणून, X ने त्या अधिकारक्षेत्रांमध्ये ग्रोकचे आउटपुट प्रतिबंधित करण्यासाठी तांत्रिक उपाययोजना लागू करण्यास सुरुवात केली आहे जिथे ते बेकायदेशीर आहे आणि वास्तविक लोकांच्या स्पष्ट प्रतिमा तयार करणे प्रतिबंधित करते.
### व्यापक बाजार आणि भविष्यातील परिणाम
जरी झोहो कॉर्पोरेशन एक खाजगी मालकीची संस्था असली तरी, त्याच्या संस्थापकांचा खंबीर पाठिंबा संपूर्ण AI उद्योगावर परिणाम करणाऱ्या एका महत्त्वपूर्ण ट्रेंडवर प्रकाश टाकतो. भारतातील प्रस्तावित नियम AI प्रशासनाच्या दिशेने वाढणाऱ्या जागतिक चळवळीशी जुळतात. युरोपियन युनियन आणि युनायटेड स्टेट्ससह इतर अधिकारक्षेत्र देखील AI च्या नैतिक आणि सामाजिक परिणामांचे व्यवस्थापन करण्यासाठी सक्रियपणे फ्रेमवर्क विकसित करत आहेत. जनरेटिव्ह AI साधने विकसित करणाऱ्या कंपन्या आणि सोशल मीडिया प्लॅटफॉर्म चालवणाऱ्या कंपन्यांसाठी, हे विकसित नियम एक नवीन परिचालन वास्तव दर्शवतात. शक्तिशाली AI तंत्रज्ञानाचा गैरवापर रोखण्यासाठी, वापरकर्त्यांची सुरक्षा सुनिश्चित करण्यासाठी आणि डिजिटल परिसंस्थेतील विश्वास टिकवून ठेवण्यासाठी, नवोपक्रम आणि मजबूत सुरक्षा उपायांमध्ये संतुलन साधणे हे आव्हान आहे. X आणि AI प्रदात्यांसारख्या प्लॅटफॉर्मवर वाढलेली तपासणी, AI क्षमतांमुळे स्पष्ट नुकसान झाल्यास आणल्या जाऊ शकणाऱ्या महत्त्वपूर्ण निरीक्षणाला अधोरेखित करते.