डीपफेक चिंतेच्या पार्श्वभूमीवर, भारत AI-निर्मित सामग्रीसाठी लेबल अनिवार्य करत आहे

TECH
Whalesbook Logo
AuthorRohan Khanna|Published at:
डीपफेक चिंतेच्या पार्श्वभूमीवर, भारत AI-निर्मित सामग्रीसाठी लेबल अनिवार्य करत आहे
Overview

भारत नवीन IT नियमांना अंतिम स्वरूप देत आहे, ज्यामध्ये AI-निर्मित सामग्रीला लेबल करणे अनिवार्य असेल. याचा उद्देश चुकीच्या माहितीला आळा घालणे आणि वापरकर्त्यांना हाताळलेल्या मीडियापासून वाचवणे आहे. झोहोचे संस्थापक श्रीधर वेंबू या नियमांना पूर्ण पाठिंबा देत आहेत.

### सिंथेटिक सामग्रीचा वाढता धोका
कृत्रिम बुद्धिमत्तेच्या (AI) प्रसारामुळे वास्तववादी मजकूर, प्रतिमा आणि ऑडिओ तयार करणारी शक्तिशाली साधने उपलब्ध झाली आहेत. तथापि, या क्षमतेमुळे मोठ्या प्रमाणात चुकीची माहिती पसरवणे, प्रतिष्ठेला हानी पोहोचवणे आणि डीपफेक व हाताळलेल्या माध्यमांद्वारे आर्थिक फसवणूक होण्याचा धोकाही निर्माण झाला आहे. या सिंथेटिक खोट्या गोष्टी, स्पष्टपणे ओळखल्याशिवाय सादर केल्यास, लोकांचा विश्वास कमी करू शकतात आणि महत्त्वपूर्ण सामाजिक नुकसान पोहोचवू शकतात. हा उदयोन्मुख धोका ओळखून, जगभरातील सरकारे AI तंत्रज्ञानासाठी मार्गदर्शक तत्त्वे स्थापित करण्यासाठी धडपडत आहेत.

### नियामक आराखडा आकार घेत आहे
भारताचे इलेक्ट्रॉनिक्स आणि माहिती तंत्रज्ञान मंत्रालय (MeitY) आपल्या IT नियम, 2021 मध्ये सुधारणा अंतिम करण्याच्या जवळ आहे. हे प्रस्तावित बदल डिजिटल प्लॅटफॉर्मवर AI-जनरेटेड सामग्रीसाठी प्रमुख लेबलिंग अनिवार्य करतील. या नियमांचा उद्देश वापरकर्त्यांना माहितीचे गंभीरपणे मूल्यांकन करण्यास सक्षम करणे आहे, जेणेकरून सिंथेटिक सामग्री तथ्यात्मक वास्तव म्हणून सादर केली जाणार नाही. IT सचिव एस. कृष्णन यांनी सूचित केले आहे की नियम दिशाभूल करणारी खोटी माहिती रोखण्यासाठी आहेत आणि ते अंतिम टप्प्यात आहेत. ही जबाबदारी AI साधने विकसित करणारे आणि ही सामग्री प्रसारित करणारे सोशल मीडिया प्लॅटफॉर्म या दोघांवरही असेल. दृश्य सामग्रीसाठी, डिस्प्ले क्षेत्राच्या किमान 10% भागावर मार्कर असणे आवश्यक आहे, आणि ऑडिओ सामग्रीसाठी, त्याच्या सुरुवातीच्या 10% कालावधीसाठी ओळखकर्ता आवश्यक असेल. IT मंत्रालयाने स्पष्टपणे सांगितले आहे की, मोहक खोट्या गोष्टी तयार करण्याची जनरेटिव्ह AI ची क्षमता दुर्भावनापूर्ण हेतूंसाठी 'शस्त्र म्हणून वापरली' (weaponized) जाऊ शकते.

### उद्योगाकडून पाठिंबा: स्पष्टतेसाठी समर्थन
झोहोचे संस्थापक आणि मुख्य शास्त्रज्ञ श्रीधर वेंबू यांनी प्रस्तावित AI लेबलिंग नियमांना सार्वजनिकपणे आणि जोरदारपणे पाठिंबा दिला आहे. वेंबू यांनी यावर जोर दिला की अशी अनिवार्यता "पूर्णपणे आवश्यक" आहे, कारण विकृत किंवा हाताळलेल्या प्रतिमा "लोकांना गंभीर नुकसान" पोहोचवू शकतात. त्यांनी एक सक्रिय भूमिका मांडली, "आम्ही विकसित होऊ पण (आमची प्रणाली अशी आहे की) आम्ही यावर त्वरित प्रतिक्रिया देतो," जे गोपनीयता उल्लंघने आणि अखंडता हल्ल्यांना नियमांद्वारे त्वरीत प्रतिसाद देण्याची वचनबद्धता दर्शवते. भारतीय तंत्रज्ञान उद्योगातील एका प्रमुख व्यक्तीकडून आलेला हा पाठिंबा, जबाबदार AI प्रशासनाच्या गरजेवर एकमताची भावना दर्शवतो.

### ग्रोक उत्प्रेरक
अलीकडील वादामुळे नियामक कारवाईची तातडी लक्षणीयरीत्या वाढली आहे. एलोन मस्कच्या मालकीच्या ग्रोक AI चॅटबॉटला तीव्र टीका आणि तपासणीला सामोरे जावे लागले, कारण अल्पवयीन मुलांसह व्यक्तींच्या अश्लील सामग्री आणि डिजिटल प्रतिमांमध्ये फेरफार करण्यासाठी त्याचा वापर केल्याचा आरोप करण्यात आला होता. या घटनांमुळे गोपनीयता उल्लंघने आणि प्लॅटफॉर्म उत्तरदायित्वाबद्दल व्यापक चिंता निर्माण झाली, ज्यामुळे नियामक निरीक्षणात जागतिक वाढ झाली. भारताच्या IT मंत्रालयाने 2 जानेवारी 2026 रोजी X (पूर्वीचे ट्विटर) ला ग्रोकद्वारे तयार केलेली अश्लील, असभ्य आणि बेकायदेशीर सामग्री त्वरित काढून टाकण्याची सूचना दिली, अन्यथा कायदेशीर कारवाईला सामोरे जावे लागेल. वाढत्या दबावाला प्रतिसाद म्हणून, X ने त्या अधिकारक्षेत्रांमध्ये ग्रोकचे आउटपुट प्रतिबंधित करण्यासाठी तांत्रिक उपाययोजना लागू करण्यास सुरुवात केली आहे जिथे ते बेकायदेशीर आहे आणि वास्तविक लोकांच्या स्पष्ट प्रतिमा तयार करणे प्रतिबंधित करते.

### व्यापक बाजार आणि भविष्यातील परिणाम
जरी झोहो कॉर्पोरेशन एक खाजगी मालकीची संस्था असली तरी, त्याच्या संस्थापकांचा खंबीर पाठिंबा संपूर्ण AI उद्योगावर परिणाम करणाऱ्या एका महत्त्वपूर्ण ट्रेंडवर प्रकाश टाकतो. भारतातील प्रस्तावित नियम AI प्रशासनाच्या दिशेने वाढणाऱ्या जागतिक चळवळीशी जुळतात. युरोपियन युनियन आणि युनायटेड स्टेट्ससह इतर अधिकारक्षेत्र देखील AI च्या नैतिक आणि सामाजिक परिणामांचे व्यवस्थापन करण्यासाठी सक्रियपणे फ्रेमवर्क विकसित करत आहेत. जनरेटिव्ह AI साधने विकसित करणाऱ्या कंपन्या आणि सोशल मीडिया प्लॅटफॉर्म चालवणाऱ्या कंपन्यांसाठी, हे विकसित नियम एक नवीन परिचालन वास्तव दर्शवतात. शक्तिशाली AI तंत्रज्ञानाचा गैरवापर रोखण्यासाठी, वापरकर्त्यांची सुरक्षा सुनिश्चित करण्यासाठी आणि डिजिटल परिसंस्थेतील विश्वास टिकवून ठेवण्यासाठी, नवोपक्रम आणि मजबूत सुरक्षा उपायांमध्ये संतुलन साधणे हे आव्हान आहे. X आणि AI प्रदात्यांसारख्या प्लॅटफॉर्मवर वाढलेली तपासणी, AI क्षमतांमुळे स्पष्ट नुकसान झाल्यास आणल्या जाऊ शकणाऱ्या महत्त्वपूर्ण निरीक्षणाला अधोरेखित करते.

Disclaimer:This content is for educational and informational purposes only and does not constitute investment, financial, or trading advice, nor a recommendation to buy or sell any securities. Readers should consult a SEBI-registered advisor before making investment decisions, as markets involve risk and past performance does not guarantee future results. The publisher and authors accept no liability for any losses. Some content may be AI-generated and may contain errors; accuracy and completeness are not guaranteed. Views expressed do not reflect the publication’s editorial stance.