वेगवान अंमलबजावणीचा नवा अध्याय
भारत सरकारने सोशल मीडिया इंटरमीडियरीजसाठी (social media intermediaries) AI निर्मित कंटेंट संदर्भात मोठे बदल केले आहेत. यातील सर्वात महत्त्वाचा बदल म्हणजे कंटेंट हटवण्याच्या वेळेत केलेली कपात. आता सरकारी आदेशांनंतर प्लॅटफॉर्म्सना केवळ 3 तासांच्या आत कंटेंट काढावा लागेल. विशेषतः, गैर-संमतीने तयार केलेल्या नग्न प्रतिमा किंवा डीपफेक्स (deepfakes) सारख्या कंटेंटसाठी ही मुदत आणखी कमी करून 2 तास करण्यात आली आहे, जी पूर्वी 24 तास होती. सरकारचा दावा आहे की, व्हायरल होणाऱ्या डीपफेक्स आणि चुकीच्या माहितीमुळे होणारे नुकसान टाळण्यासाठी हे आवश्यक आहे. मात्र, डिजिटल धोरण विश्लेषकांचे म्हणणे आहे की, या अति-वेगवान प्रक्रियेमुळे प्लॅटफॉर्म्सना योग्य कायदेशीर तपासणीसाठी पुरेसा वेळ मिळणार नाही, ज्यामुळे अनावश्यकपणे कंटेंट हटवला जाण्याची (over-compliance) शक्यता वाढेल आणि अभिव्यक्ती स्वातंत्र्यावर गदा येऊ शकते.
ऑपरेशनल ताण आणि 'काळजीचा अतिरेक'
इतक्या कमी वेळेत कायदेशीर तपासणी करणे व्यवहार्य आहे का, असा प्रश्न उद्योग क्षेत्रातील जाणकार विचारत आहेत. अनेक जागतिक प्लॅटफॉर्म्सचे मॉडोरेशन सेंटर्स (moderation centers) भारताबाहेर आहेत. त्यामुळे, त्यांना आता देशांतर्गत 24 तास कार्यरत राहणारी एक मजबूत कंप्लायन्स इन्फ्रास्ट्रक्चर (compliance infrastructure) उभी करावी लागेल. यामुळे प्लॅटफॉर्म्सचा खर्च वाढेल आणि विशेषतः लहान प्लॅटफॉर्म्ससाठी किंवा नवीन स्टार्टअप्ससाठी अडचणी निर्माण होतील. नियामक कारवाई टाळण्यासाठी कंपन्यांना 'लवकर कारवाई' करण्याच्या दबावामुळे, त्या चुकीचा निर्णय घेण्याच्या भीतीपेक्षा 'सुरक्षित राहणे' पसंत करतील, म्हणजेच आवश्यक कायदेशीर पडताळणी न करताच कंटेंट हटवण्याकडे त्यांचा कल वाढेल. याला 'ओव्हर-कम्प्लायन्स' (over-compliance) म्हणतात, ज्यामुळे कायदेशीर आणि वैध अभिव्यक्ती दाबल्या जाण्याचा धोका आहे.
'सेफ हार्बर' धोक्यात
कमी केलेल्या टाइमलाइनचा थेट परिणाम 'सेफ हार्बर' (Safe Harbour) तरतुदींवर होत आहे. या तरतुदींनुसार, इंटरमीडियरीजना योग्य ती खबरदारी घेतल्यास तिसऱ्या पक्षाच्या कंटेंटसाठी कायदेशीर संरक्षण मिळते. मात्र, या नवीन, वेगवान टाइमलाइन पूर्ण करण्यात अपयशी ठरल्यास हे महत्त्वाचे संरक्षण धोक्यात येईल. तज्ञांच्या मते, 'सेफ हार्बर' गमावण्याचा धोका कंटेंट हटवण्याच्या खर्चापेक्षा जास्त वाटेल, ज्यामुळे प्लॅटफॉर्म्सना अधिक स्वयंचलित आणि जलद कारवाई करावी लागेल, तीही नोटीसची कायदेशीरता किंवा प्रमाणबद्धता तपासण्याऐवजी. शिवाय, 'सहयोग' (Sahyog) पोर्टलचा विस्तार, ज्यामुळे राज्यस्तरीय अनेक अधिकारी कंटेंट हटवण्याच्या नोटीस पाठवू शकतील, यामुळे प्लॅटफॉर्म्सवर एकाच वेळी अनेक विनंत्यांचा भडिमार होईल. यामुळे डीपफेक्ससारख्या समस्यांव्यतिरिक्त इतर कायदेशीर कंटेंटवरही अवाजवी सेन्सॉरशिप लागू होऊ शकते.
जागतिक नियम आणि अनपेक्षित परिणाम
जगभरातील अनेक देश AI कंटेंटच्या नियमावलीवर काम करत असताना, भारताची 3 तासांची कंटेंट हटवण्याची मुदत अत्यंत वेगवान मानली जात आहे. युरोपियन युनियनच्या डिजिटल सर्व्हिसेस ॲक्ट (Digital Services Act) सारख्या कायद्यांमध्ये प्लॅटफॉर्म्सना कंटेंट तपासण्यासाठी आणि प्रतिसाद देण्यासाठी अधिक विस्तारित मुदत दिली जाते, ज्यात अपील प्रक्रिया आणि न्यायालयीन देखरेखेचा समावेश असतो. अनेक टीकाकारांचे म्हणणे आहे की, भारताने हा निर्णय संसदीय चर्चेऐवजी कार्यकारी सूचनेद्वारे (executive notification) घेतला आहे, ज्यामुळे आवश्यक चर्चा आणि पारदर्शकता टाळली गेली आहे. यापूर्वीही भारताच्या इंटरमीडियरी नियमांना आव्हाने मिळाली आहेत, ज्यात ऑनलाइन कंटेंटवर सरकारच्या व्यापक नियंत्रणाबद्दल चिंता व्यक्त केली जात आहे. सरकारचा उद्देश बनावट सरकारी दस्तऐवज आणि डीपफेक्ससारख्या फसवे सिंथेटिक मीडियाला लक्ष्य करणे आहे, परंतु या वेगवान अंमलबजावणीमुळे सामान्य AI ॲप्लिकेशन्स आणि वापरकर्त्यांनी तयार केलेल्या वैध कंटेंटलाही फटका बसण्याचा धोका आहे. इमेज एन्हांसमेंट किंवा भाषांतर यासारखी सामान्य AI फंक्शन्स वगळली आहेत, परंतु जलद अंमलबजावणी मॉडेल अनपेक्षितपणे अधिक व्यापक असू शकते, ज्यामुळे नियमनविषयक अनिश्चितता आणि व्यवसायांवरील अनुपालन बोजामुळे भारत एक जागतिक डिजिटल इनोव्हेशन हब बनण्याच्या महत्त्वाकांक्षेला बाधा येऊ शकते.
