AI पर चीन की कड़ी पकड़: नवाचार और पार्टी शासन के डर को संतुलित करना
चीन आर्टिफिशियल इंटेलिजेंस (AI) को नियंत्रित करने के लिए अभूतपूर्व कदम उठा रहा है, इस गहरी चिंता से प्रेरित होकर कि AI कम्युनिस्ट पार्टी के शासन को कमजोर कर सकता है। हालाँकि बीजिंग AI को अपनी भविष्य की आर्थिक और सैन्य ताकत के लिए महत्वपूर्ण मानता है, हाल के नियम और ऑनलाइन सामग्री पर प्रतिबंध समाज को अस्थिर करने की इसकी क्षमता के प्रबंधन में संघर्ष को उजागर करते हैं।
मुख्य मुद्दा: AI का पार्टी शासन को खतरा
प्राथमिक चिंता AI चैटबॉट्स के इर्द-गिर्द घूमती है। स्वतंत्र रूप से सोचने की उनकी क्षमता उन्हें ऐसे जवाब उत्पन्न करने के लिए प्रेरित कर सकती है जो नागरिकों को पार्टी शासन की वैधता पर सवाल उठाने के लिए प्रोत्साहित करें। बीजिंग ने AI कंपनियों के साथ मिलकर औपचारिक नियम विकसित किए हैं, ताकि यह सुनिश्चित किया जा सके कि चैटबॉट्स राजनीतिक रूप से फ़िल्टर किए गए डेटा पर प्रशिक्षित हों और सार्वजनिक रिलीज़ से पहले वैचारिक परीक्षण पास करें।
नवाचार और नियंत्रण को संतुलित करना
अधिकारी नवाचार को बाधित किए बिना AI को विनियमित करना चाहते हैं, जो चीन को वैश्विक AI दौड़ में संयुक्त राज्य अमेरिका से पीछे दूसरे दर्जे की स्थिति में पहुंचा सकता है। चीनी नेता शी जिनपिंग ने AI के "अभूतपूर्व जोखिमों" पर जोर दिया है, इसके अनियंत्रित विकास की तुलना "बिना ब्रेक के राजमार्ग पर गाड़ी चलाने" से की है। चीन इस नाजुक संतुलन को साधता हुआ प्रतीत हो रहा है, इसके AI मॉडल अंतरराष्ट्रीय स्तर पर अच्छा प्रदर्शन कर रहे हैं, यहां तक कि तियानमेन स्क्वायर नरसंहार जैसे संवेदनशील विषयों को भी सेंसर करते हुए।
नियामक तंत्र का विवरण
नए नियमों के अनुसार AI-जनित सामग्री, जिसमें टेक्स्ट, वीडियो और चित्र शामिल हैं, को स्पष्ट रूप से लेबल और पता लगाने योग्य होना चाहिए। यह अधिकारियों को अवांछित जानकारी फैलाने वालों की आसानी से पहचान करने और दंडित करने की अनुमति देता है। हाल ही में एक प्रवर्तन अभियान ने 960,000 ऐसी सामग्री को हटा दिया, जिन्हें अवैध या हानिकारक माना गया था। AI को आधिकारिक तौर पर प्राकृतिक आपदाओं के साथ-साथ एक प्रमुख संभावित खतरे के रूप में वर्गीकृत किया गया है।
AI मॉडल के लिए उपयोग किए जाने वाले प्रशिक्षण डेटा को कठोर जांच से गुजरना पड़ता है। एक महत्वपूर्ण दस्तावेज, जो प्रभावी रूप से नियमों का एक सेट है, मानव परीक्षकों से कम से कम 96% प्रशिक्षण सामग्री को "सुरक्षित" मानने की आवश्यकता है। असुरक्षित सामग्री में राज्य सत्ता को उखाड़ फेंकने, हिंसा को बढ़ावा देने, झूठी जानकारी फैलाने, या बिना अनुमति के किसी की छवि का उपयोग करने का उकसावा शामिल है। चीनी इंटरनेट स्रोतों से सामग्री, जो पहले से ही ग्रेट फ़ायरवॉल द्वारा फ़िल्टर की जाती है, को विदेशी सामग्री से और पूरक किया जाता है, जिसे डेवलपर फिर सावधानीपूर्वक संवेदनशील कीवर्ड और विषयों के लिए साफ़ करते हैं।
सार्वजनिक लॉन्च से पहले, AI चैटबॉट्स को कड़े राजनीतिक परीक्षण पास करने होंगे, जो विद्रोही प्रतिक्रियाओं को ट्रिगर करने के लिए डिज़ाइन किए गए प्रॉम्प्ट का कम से कम 95% अस्वीकार करते हों। इस परीक्षण प्रक्रिया ने AI कंपनियों को ये "परीक्षाएं" पास करने में मदद करने के लिए एक विशेष उद्योग भी खड़ा किया है। लॉन्च के बाद, स्थानीय नियामक पॉकेट क्विज़ आयोजित करते हैं, और AI कंपनियों को उपयोगकर्ता की बातचीत को लॉग करना, सेवाएं निलंबित करना और अवैध सामग्री उत्पन्न होने पर अधिकारियों को सचेत करना आवश्यक है। उपयोगकर्ता की गुमनामी समाप्त हो जाती है क्योंकि फोन नंबर या राष्ट्रीय आईडी के साथ पंजीकरण अनिवार्य है।
वैश्विक AI दौड़ के निहितार्थ
प्रमुख अमेरिकी AI मॉडल चीन में बड़े पैमाने पर अनुपलब्ध हैं, और AI सिस्टम के अधिक परिष्कृत होने के साथ चीनी मॉडल अमेरिकी प्रगति के साथ तालमेल बिठाने में चुनौतियों का सामना कर सकते हैं। हालांकि, शोधकर्ताओं का कहना है कि चीन के विनियमित मॉडल सुरक्षित हो सकते हैं, जिनमें हिंसा और अश्लीलता कम होती है। फिर भी, वे अमेरिकी समकक्षों की तुलना में "जेलब्रेक" करना भी आसान हो सकते हैं, जिससे प्रेरित उपयोगकर्ता खतरनाक जानकारी के लिए फ़िल्टर को बायपास कर सकें।
चीन के AI दृष्टिकोण पर विशेषज्ञों की राय
कार्नेगी एंडोमेंट फॉर इंटरनेशनल पीस के मैट शीहान का कहना है कि हालांकि कम्युनिस्ट पार्टी की सर्वोच्च प्राथमिकता राजनीतिक सामग्री है, लेकिन व्यापक सामाजिक प्रभावों, विशेष रूप से बच्चों पर, की चिंताएं मॉडलों को कुछ आयामों में कम खतरनाक सामग्री उत्पन्न करने के लिए प्रेरित कर सकती हैं। हालांकि, वह चेतावनी देते हैं कि परिष्कृत उपयोगकर्ता अभी भी संवेदनशील जानकारी निकालने के तरीके ढूंढ सकते हैं।
प्रभाव
चीन के इस कड़े नियामक वातावरण से AI विकास की भविष्य की दिशा विश्व स्तर पर आकार ले सकती है। यह एक विभाजित AI पारिस्थितिकी तंत्र की ओर ले जा सकता है, जिसमें अलग-अलग नियामक परिदृश्यों के लिए अनुरूप मॉडल होंगे। चीन में या उसके साथ काम करने वाली अंतरराष्ट्रीय कंपनियों के लिए, इन नियमों का अनुपालन सर्वोपरि होगा। यह दृष्टिकोण उन अन्य देशों को भी प्रभावित कर सकता है जो AI शासन पर विचार कर रहे हैं।
Impact Rating: 7/10
Difficult Terms Explained
- Subvert state power: सरकार के अधिकार और राजनीतिक व्यवस्था को कमजोर या उखाड़ फेंकना।
- Jailbreak: AI के संदर्भ में, इसका मतलब है AI के सुरक्षा फिल्टर को बायपास करने के लिए चतुर प्रॉम्प्ट या ट्रिक्स का उपयोग करना और उसे ऐसी सामग्री उत्पन्न करवाना जिससे वह बचने के लिए प्रोग्राम किया गया हो।
- Great Firewall: चीन की इंटरनेट सेंसरशिप और निगरानी की व्यापक प्रणाली जो विदेशी वेबसाइटों तक पहुंच को अवरुद्ध करती है और घरेलू इंटरनेट यातायात को फ़िल्टर करती है।
- AI Plus initiative: एक चीनी सरकारी कार्यक्रम जिसका लक्ष्य 2027 तक 70% प्रमुख क्षेत्रों में AI तकनीक को एकीकृत करना है।