AI सुरक्षा में सेंध: क्यों छिड़ी नई जंग?
Anthropic के Claude AI मॉडल में हुई सेंध की घटना ने भारत के शीर्ष वित्तीय नेताओं के बीच AI सुरक्षा को लेकर ज़रूरी चर्चाओं को और तेज़ कर दिया है। यह घटना दर्शाती है कि आर्टिफिशियल इंटेलिजेंस (AI) नवाचार (Innovation) के लिए एक शक्तिशाली उपकरण होने के साथ-साथ एक बड़ा Cybersecurity खतरा भी बन सकता है। इसी को देखते हुए Regulators और बैंक अपनी सुरक्षा व्यवस्था का फिर से मूल्यांकन कर रहे हैं।
Claude Breach ने खोली AI सुरक्षा की पोल
Anthropic के Claude Mythos AI, जो सॉफ्टवेयर की कमजोरियों का पता लगाने के लिए बनाया गया था, में हुई सेंध की खबर ने वैश्विक टेक और फाइनेंस जगत में चिंता बढ़ा दी है। शुरुआती रिपोर्टों के अनुसार, यह अनधिकृत एक्सेस (Unauthorized Access) एक थर्ड-पार्टी वेंडर (Third-party vendor) के जरिए हुआ, जिससे एडवांस्ड AI सिस्टम की सुरक्षा पर सवाल खड़े हो गए हैं। Anthropic इस कथित घटना की जांच कर रहा है। इसी को देखते हुए वित्त मंत्री Nirmala Sitharaman की अध्यक्षता में एक तत्काल बैठक बुलाई गई, जिसमें भारतीय रिजर्व बैंक (RBI), इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय के अधिकारी और प्रमुख बैंक अधिकारी शामिल हुए। बैठक का मुख्य एजेंडा यह चर्चा करना था कि AI मॉडलों का इस्तेमाल भारत के वित्तीय बुनियादी ढांचे (Financial infrastructure) पर हमला करने के लिए कैसे किया जा सकता है। Microsoft और Google जैसी बड़ी टेक कंपनियों ने भी इसी तरह की AI सुरक्षा चिंताओं को स्वीकार किया है।
भारत की AI सुरक्षा को मज़बूत बनाने की तैयारी
भारत के वित्तीय क्षेत्र में पहले से ही मजबूत Cybersecurity नियम मौजूद हैं, जिनमें RBI 2011 से कड़े दिशा-निर्देश लागू कर रहा है। RBI के नए 'फ्रेमवर्क फॉर रिस्पॉन्सिबल एंड एथिकल इनेबलमेंट ऑफ आर्टिफिशियल इंटेलिजेंस (FREE-AI)' ने, जो अगस्त 2025 में पेश किया गया था, विशेष रूप से AI से जुड़े जोखिमों जैसे बायस (bias) और सुरक्षा कमजोरियों (security vulnerabilities) को संबोधित किया है। Claude Mythos की घटना से इन AI प्रोटोकॉल को तेज़ी से अपनाने और उनमें सुधार की उम्मीद है। बैंकों को अपनी सुरक्षा बढ़ाने, Cybersecurity विशेषज्ञों के साथ काम करने और CERT-In जैसी सरकारी एजेंसियों के साथ रियल-टाइम (real-time) में खतरे की जानकारी साझा करने की सलाह दी जा रही है। सरकार भारत की वित्तीय प्रणाली के लिए AI उल्लंघनों (AI breaches) से उत्पन्न विशिष्ट जोखिमों का आकलन कर रही है।
AI से बढ़ते हमलों का खतरा
AI विकास की तीव्र गति और इसके दुरुपयोग की क्षमता वित्तीय प्रणालियों के लिए बड़े जोखिम पेश करती है। Claude Mythos इंसानों की तुलना में कहीं तेज़ी से कमजोरियों का पता लगा सकता है, जिसका मतलब है कि यदि यह गलत हाथों में चला जाए तो यह साइबर हमलों को स्वचालित (automate) और बढ़ा सकता है, जिससे बैंकिंग सिस्टम और ग्राहक डेटा को निशाना बनाया जा सकता है। Anthropic की घटना थर्ड-पार्टी AI विक्रेताओं (vendors) से सुरक्षा जोखिमों के प्रबंधन की चुनौती को उजागर करती है। मजबूत AI सुरक्षा विकसित करना महंगा है। AI का उपयोग बाजारों में हेरफेर (manipulate) करने या अस्थिरता (volatility) बढ़ाने के लिए भी किया जा सकता है। डिजिटल लेनदेन में वृद्धि, जिसे UPI धोखाधड़ी (UPI fraud) में हुए बड़े नुकसान से भी देखा जा सकता है, मौजूदा कमजोरियों का फायदा एडवांस्ड AI हमलों द्वारा आसानी से उठाया जा सकता है। जबकि नए नियमों की आवश्यकता है, वे बैंकों पर अनुपालन बोझ (compliance burden) और परिचालन लागत (operational costs) भी बढ़ा सकते हैं।
AI विकास और सुरक्षा के बीच संतुलन
जैसे-जैसे AI को अपनाया जा रहा है, भारत के IT क्षेत्र में वृद्धि की उम्मीद है; 92% नॉलेज वर्कर्स (knowledge workers) साप्ताहिक रूप से AI टूल का उपयोग करते हैं। भारतीय बैंकिंग में AI पहले से ही धोखाधड़ी का पता लगाने (fraud detection), ग्राहक सेवा (customer service) और जोखिम प्रबंधन (risk management) के लिए महत्वपूर्ण है। HDFC Bank (P/E ~15.5-16.2), SBI (~12.3-12.6), और ICICI Bank (~16.9 ) जैसे प्रमुख बैंकों के मूल्यांकन (valuations) मजबूत हैं, जबकि उद्योग का औसत P/E लगभग 12.6 है। इन ठोस फंडामेंटल्स और 11-13% क्रेडिट विस्तार (credit expansion) के अनुमानों के बावजूद, AI-संचालित साइबर सुरक्षा खतरों में वृद्धि एक बड़ी चिंता का विषय है। सरकार का लक्ष्य यह सुनिश्चित करना है कि AI के लाभों का जिम्मेदारी से उपयोग हो, नवाचार को स्थिरता (stability) और उपभोक्ता संरक्षण (consumer protection) के साथ संतुलित किया जाए, जैसा कि FREE-AI जैसे फ्रेमवर्क में निर्देशित है। सुरक्षित AI एकीकरण (integration) इस क्षेत्र के निरंतर विकास और लचीलेपन (resilience) के लिए महत्वपूर्ण है।
