चीन का AI दुविधा: कम्युनिस्ट शासन बचाने के लिए टेक दिग्गजों पर नकेल!

WORLD-AFFAIRS
Whalesbook Logo
AuthorAditi Chauhan|Published at:
चीन का AI दुविधा: कम्युनिस्ट शासन बचाने के लिए टेक दिग्गजों पर नकेल!
Overview

चीन आर्टिफिशियल इंटेलिजेंस (AI) पर सख्त नियम लागू कर रहा है, क्योंकि उसे डर है कि यह कम्युनिस्ट पार्टी के शासन को खतरे में डाल सकता है। आर्थिक और सैन्य विकास के लिए AI के महत्व को पहचानते हुए, सरकार प्रशिक्षण डेटा को फ़िल्टर कर रही है, चैटबॉट्स के लिए वैचारिक परीक्षण लागू कर रही है, और संभावित अस्थिर प्रतिक्रियाओं को नियंत्रित करने और दुरुपयोग के लिए दंडित करने हेतु सामग्री लेबलिंग अनिवार्य कर रही है। इस दृष्टिकोण का उद्देश्य नवाचार को कड़े राजनीतिक नियंत्रण के साथ संतुलित करना है, जो चीन की वैश्विक AI प्रतिस्पर्धात्मकता को प्रभावित कर सकता है।

AI पर चीन की कड़ी पकड़: नवाचार और पार्टी शासन के डर को संतुलित करना

चीन आर्टिफिशियल इंटेलिजेंस (AI) को नियंत्रित करने के लिए अभूतपूर्व कदम उठा रहा है, इस गहरी चिंता से प्रेरित होकर कि AI कम्युनिस्ट पार्टी के शासन को कमजोर कर सकता है। हालाँकि बीजिंग AI को अपनी भविष्य की आर्थिक और सैन्य ताकत के लिए महत्वपूर्ण मानता है, हाल के नियम और ऑनलाइन सामग्री पर प्रतिबंध समाज को अस्थिर करने की इसकी क्षमता के प्रबंधन में संघर्ष को उजागर करते हैं।

मुख्य मुद्दा: AI का पार्टी शासन को खतरा

प्राथमिक चिंता AI चैटबॉट्स के इर्द-गिर्द घूमती है। स्वतंत्र रूप से सोचने की उनकी क्षमता उन्हें ऐसे जवाब उत्पन्न करने के लिए प्रेरित कर सकती है जो नागरिकों को पार्टी शासन की वैधता पर सवाल उठाने के लिए प्रोत्साहित करें। बीजिंग ने AI कंपनियों के साथ मिलकर औपचारिक नियम विकसित किए हैं, ताकि यह सुनिश्चित किया जा सके कि चैटबॉट्स राजनीतिक रूप से फ़िल्टर किए गए डेटा पर प्रशिक्षित हों और सार्वजनिक रिलीज़ से पहले वैचारिक परीक्षण पास करें।

नवाचार और नियंत्रण को संतुलित करना

अधिकारी नवाचार को बाधित किए बिना AI को विनियमित करना चाहते हैं, जो चीन को वैश्विक AI दौड़ में संयुक्त राज्य अमेरिका से पीछे दूसरे दर्जे की स्थिति में पहुंचा सकता है। चीनी नेता शी जिनपिंग ने AI के "अभूतपूर्व जोखिमों" पर जोर दिया है, इसके अनियंत्रित विकास की तुलना "बिना ब्रेक के राजमार्ग पर गाड़ी चलाने" से की है। चीन इस नाजुक संतुलन को साधता हुआ प्रतीत हो रहा है, इसके AI मॉडल अंतरराष्ट्रीय स्तर पर अच्छा प्रदर्शन कर रहे हैं, यहां तक कि तियानमेन स्क्वायर नरसंहार जैसे संवेदनशील विषयों को भी सेंसर करते हुए।

नियामक तंत्र का विवरण

नए नियमों के अनुसार AI-जनित सामग्री, जिसमें टेक्स्ट, वीडियो और चित्र शामिल हैं, को स्पष्ट रूप से लेबल और पता लगाने योग्य होना चाहिए। यह अधिकारियों को अवांछित जानकारी फैलाने वालों की आसानी से पहचान करने और दंडित करने की अनुमति देता है। हाल ही में एक प्रवर्तन अभियान ने 960,000 ऐसी सामग्री को हटा दिया, जिन्हें अवैध या हानिकारक माना गया था। AI को आधिकारिक तौर पर प्राकृतिक आपदाओं के साथ-साथ एक प्रमुख संभावित खतरे के रूप में वर्गीकृत किया गया है।

AI मॉडल के लिए उपयोग किए जाने वाले प्रशिक्षण डेटा को कठोर जांच से गुजरना पड़ता है। एक महत्वपूर्ण दस्तावेज, जो प्रभावी रूप से नियमों का एक सेट है, मानव परीक्षकों से कम से कम 96% प्रशिक्षण सामग्री को "सुरक्षित" मानने की आवश्यकता है। असुरक्षित सामग्री में राज्य सत्ता को उखाड़ फेंकने, हिंसा को बढ़ावा देने, झूठी जानकारी फैलाने, या बिना अनुमति के किसी की छवि का उपयोग करने का उकसावा शामिल है। चीनी इंटरनेट स्रोतों से सामग्री, जो पहले से ही ग्रेट फ़ायरवॉल द्वारा फ़िल्टर की जाती है, को विदेशी सामग्री से और पूरक किया जाता है, जिसे डेवलपर फिर सावधानीपूर्वक संवेदनशील कीवर्ड और विषयों के लिए साफ़ करते हैं।

सार्वजनिक लॉन्च से पहले, AI चैटबॉट्स को कड़े राजनीतिक परीक्षण पास करने होंगे, जो विद्रोही प्रतिक्रियाओं को ट्रिगर करने के लिए डिज़ाइन किए गए प्रॉम्प्ट का कम से कम 95% अस्वीकार करते हों। इस परीक्षण प्रक्रिया ने AI कंपनियों को ये "परीक्षाएं" पास करने में मदद करने के लिए एक विशेष उद्योग भी खड़ा किया है। लॉन्च के बाद, स्थानीय नियामक पॉकेट क्विज़ आयोजित करते हैं, और AI कंपनियों को उपयोगकर्ता की बातचीत को लॉग करना, सेवाएं निलंबित करना और अवैध सामग्री उत्पन्न होने पर अधिकारियों को सचेत करना आवश्यक है। उपयोगकर्ता की गुमनामी समाप्त हो जाती है क्योंकि फोन नंबर या राष्ट्रीय आईडी के साथ पंजीकरण अनिवार्य है।

वैश्विक AI दौड़ के निहितार्थ

प्रमुख अमेरिकी AI मॉडल चीन में बड़े पैमाने पर अनुपलब्ध हैं, और AI सिस्टम के अधिक परिष्कृत होने के साथ चीनी मॉडल अमेरिकी प्रगति के साथ तालमेल बिठाने में चुनौतियों का सामना कर सकते हैं। हालांकि, शोधकर्ताओं का कहना है कि चीन के विनियमित मॉडल सुरक्षित हो सकते हैं, जिनमें हिंसा और अश्लीलता कम होती है। फिर भी, वे अमेरिकी समकक्षों की तुलना में "जेलब्रेक" करना भी आसान हो सकते हैं, जिससे प्रेरित उपयोगकर्ता खतरनाक जानकारी के लिए फ़िल्टर को बायपास कर सकें।

चीन के AI दृष्टिकोण पर विशेषज्ञों की राय

कार्नेगी एंडोमेंट फॉर इंटरनेशनल पीस के मैट शीहान का कहना है कि हालांकि कम्युनिस्ट पार्टी की सर्वोच्च प्राथमिकता राजनीतिक सामग्री है, लेकिन व्यापक सामाजिक प्रभावों, विशेष रूप से बच्चों पर, की चिंताएं मॉडलों को कुछ आयामों में कम खतरनाक सामग्री उत्पन्न करने के लिए प्रेरित कर सकती हैं। हालांकि, वह चेतावनी देते हैं कि परिष्कृत उपयोगकर्ता अभी भी संवेदनशील जानकारी निकालने के तरीके ढूंढ सकते हैं।

प्रभाव

चीन के इस कड़े नियामक वातावरण से AI विकास की भविष्य की दिशा विश्व स्तर पर आकार ले सकती है। यह एक विभाजित AI पारिस्थितिकी तंत्र की ओर ले जा सकता है, जिसमें अलग-अलग नियामक परिदृश्यों के लिए अनुरूप मॉडल होंगे। चीन में या उसके साथ काम करने वाली अंतरराष्ट्रीय कंपनियों के लिए, इन नियमों का अनुपालन सर्वोपरि होगा। यह दृष्टिकोण उन अन्य देशों को भी प्रभावित कर सकता है जो AI शासन पर विचार कर रहे हैं।

Impact Rating: 7/10

Difficult Terms Explained

  • Subvert state power: सरकार के अधिकार और राजनीतिक व्यवस्था को कमजोर या उखाड़ फेंकना।
  • Jailbreak: AI के संदर्भ में, इसका मतलब है AI के सुरक्षा फिल्टर को बायपास करने के लिए चतुर प्रॉम्प्ट या ट्रिक्स का उपयोग करना और उसे ऐसी सामग्री उत्पन्न करवाना जिससे वह बचने के लिए प्रोग्राम किया गया हो।
  • Great Firewall: चीन की इंटरनेट सेंसरशिप और निगरानी की व्यापक प्रणाली जो विदेशी वेबसाइटों तक पहुंच को अवरुद्ध करती है और घरेलू इंटरनेट यातायात को फ़िल्टर करती है।
  • AI Plus initiative: एक चीनी सरकारी कार्यक्रम जिसका लक्ष्य 2027 तक 70% प्रमुख क्षेत्रों में AI तकनीक को एकीकृत करना है।
Disclaimer:This content is for educational and informational purposes only and does not constitute investment, financial, or trading advice, nor a recommendation to buy or sell any securities. Readers should consult a SEBI-registered advisor before making investment decisions, as markets involve risk and past performance does not guarantee future results. The publisher and authors accept no liability for any losses. Some content may be AI-generated and may contain errors; accuracy and completeness are not guaranteed. Views expressed do not reflect the publication’s editorial stance.