Anthropic ने अपनी एडवांस्ड Mythos AI को लॉन्च किया है, जो साइबर सुरक्षा (cybersecurity) के क्षेत्र में एक बड़ी छलांग है। हालांकि, इसके साथ ही बड़े खतरे भी सामने आ गए हैं। 'प्रोजेक्ट ग्लास विंग' (Project Glasswing) प्रोग्राम के तहत, इस AI ने कथित तौर पर सभी प्रमुख ऑपरेटिंग सिस्टम (OS) और वेब ब्राउज़र में हज़ारों गंभीर खामियां (flaws) ढूंढ निकाली हैं। Amazon, Microsoft, Nvidia, और Apple जैसे टेक दिग्गजों के साथ-साथ 40 से अधिक प्रमुख इंफ्रास्ट्रक्चर ऑर्गनाइजेशन के साथ यह जानकारी साझा की गई है।
चिंता इस बात की है कि Mythos AI, ऑर्गनाइजेशन द्वारा पैच (patch) किए जाने से पहले ही अनजान सॉफ्टवेयर कमजोरियों का पता लगा सकता है और उनका फायदा उठा सकता है। एक्सपर्ट्स का मानना है कि इसकी एडवांस्ड कोडिंग और इंडिपेंडेंट फंक्शन (independent functions) साइबर हमलों को कहीं ज़्यादा Sophisticated और तेज़ बना सकते हैं, जो खासकर बैंकिंग जैसे जटिल और पुराने टेक्नोलॉजी पर निर्भर सेक्टरों के लिए बड़ा खतरा है। यह AI एक पावरफुल डिफेंस टूल होने के साथ-साथ ऑफेंसिव (offensive) तरीके से भी इस्तेमाल हो सकता है।
AI की इन क्षमताओं के चलते अंतरराष्ट्रीय रेगुलेटर्स (regulators) और वित्तीय समूहों के बीच तत्काल बातचीत शुरू हो गई है। व्हाइट हाउस (White House) ने Anthropic के CEO Dario Amodei से AI सुरक्षा पर चर्चा की है। पेंटागन (Pentagon) ने भी Anthropic को सप्लाई-चेन रिस्क (supply-chain risk) करार दिया है। रिपोर्ट्स के मुताबिक, Mythos का एक वर्जन प्रमुख अमेरिकी फेडरल एजेंसियों में इंटीग्रेट (integrate) हो सकता है। वहीं, अमेरिकी ट्रेजरी सेक्रेटरी Scott Bessent और फेडरल रिजर्व चेयर Jerome Powell ने शीर्ष अमेरिकी बैंक CEOs के साथ AI के संभावित जोखिमों की समीक्षा के लिए मुलाकात की। ब्रिटिश अधिकारी भी वित्तीय और साइबर सुरक्षा फर्मों से बात कर रहे हैं। जर्मन बैंकिंग एसोसिएशन के प्रमुख Christian Sewing ने पुष्टि की है कि यूरोपीय बैंक अपने रेगुलेटर्स के साथ इस मामले पर चर्चा कर रहे हैं। इस बढ़ती निगरानी और AI के जोखिमों के कारण पहले भी बाज़ार में उतार-चढ़ाव देखा गया है, जिसमें Mythos की घोषणा के बाद अमेरिकी सॉफ्टवेयर स्टॉक्स में गिरावट आई थी।
Mythos जैसे पावरफुल AI, साइबर सुरक्षा और AI डेवलपमेंट में कॉम्पिटिशन को बढ़ा रहे हैं। हालांकि Anthropic प्राइवेट कंपनी है, Microsoft और Google जैसी पब्लिक टेक कंपनियां समान एडवांस्ड AI में भारी निवेश कर रही हैं। ये कंपनियां पहले से ही AI एथिक्स (ethics) और नियमों के बीच तालमेल बिठाने की कोशिश कर रही हैं। सॉफ्टवेयर इंडस्ट्री को 2026 की शुरुआत में AI इनोवेशन को सुरक्षा और एथिकल मुद्दों के साथ संतुलित करने की चुनौती का सामना करना पड़ेगा। पिछले कुछ समय में, बड़े AI एडवांसेस ने निवेशकों का उत्साह बढ़ाया है, लेकिन बाज़ार में अस्थिरता भी लाई है। एनालिस्ट्स का मानना है कि AI एक अहम साइबर सुरक्षा टूल है, लेकिन इसके तेज़ विकास के लिए दुरुपयोग को रोकने और बाज़ार को स्थिर रखने के लिए मजबूत कंट्रोल (controls) की ज़रूरत है।
भले ही Mythos को डिफेंस के लिए डिज़ाइन किया गया है, इसके बड़े जोखिम बने हुए हैं। सबसे बड़ी चिंता कमजोरियों को खोजने की इसकी अत्यधिक स्पीड है, जो सबसे अच्छी तरह से फंडेड ऑर्गनाइजेशन की फिक्सिंग (fixing) की क्षमता को भी पीछे छोड़ सकती है। इससे एक लगातार कॉम्पिटिशन का माहौल बन जाता है, जहाँ हमलावर AI का उपयोग करके, शायद Mythos के ही बदले हुए वर्जन से, डिफेंडर्स के प्रतिक्रिया करने से पहले ही खामियों का फायदा उठा सकते हैं। 'प्रोजेक्ट ग्लास विंग' के तहत नियंत्रित रिलीज़ जोखिमों को सीमित करती है, लेकिन यह शक्तिशाली AI टूल्स को कुछ प्रमुख टेक फर्मों के हाथों में रखती है, जिससे एक्सेस और संभावित कंट्रोल पर सवाल उठते हैं। रेगुलेटर्स कार्रवाई कर रहे हैं, लेकिन वे अक्सर टेक्नोलॉजी से पीछे रह जाते हैं, जिससे दुरुपयोग की गुंजाइश बनी रहती है। पिछले AI प्रोजेक्ट्स को डेटा प्राइवेसी और बायस (bias) के लिए जांच का सामना करना पड़ा है।
Mythos जैसे एडवांस्ड AI के व्यापक उपयोग से साइबर सुरक्षा का परिदृश्य बदलने की संभावना है। Anthropic ने यह नहीं बताया है कि Mythos कब व्यापक रूप से उपलब्ध होगा या एक्सेस का विस्तार कैसे होगा, लेकिन वर्तमान सीमित रिलीज़ एक क्रमिक प्रक्रिया का संकेत देती है। एनालिस्ट्स को और अधिक AI साइबर सुरक्षा टूल्स और AI जोखिमों और ओवरसाइट (oversight) के प्रबंधन के तरीकों की बढ़ती आवश्यकता की उम्मीद है। इंडस्ट्री का भविष्य AI को ज़िम्मेदारी से विकसित करने पर निर्भर करेगा, यह सुनिश्चित करते हुए कि डिफेंस संभावित हमलों की गति के साथ तालमेल बिठाए या उससे आगे रहे, ताकि Mythos के शक्तिशाली लॉन्च से दिखाए गए जोखिमों को कम किया जा सके।
