AI एजेंट्स भविष्य में खरबों डॉलर के कॉमर्स (commerce) को संभालने के लिए तैयार हैं, लेकिन एक बड़ा सुरक्षा खतरा AI मॉडल्स से नहीं, बल्कि उन्हें आपस में जोड़ने वाली सेवाओं से आ रहा है। रिसर्चर्स ने 'LLM Routers' की गंभीर कमजोरियों का पर्दाफाश किया है, जो यूजर रिक्वेस्ट्स को AI प्लेटफॉर्म्स तक पहुंचाते हैं। ये Routers API ब्रोकर के तौर पर काम करते हैं और इनके पास सभी डेटा तक अनफिल्टर्ड एक्सेस (unfiltered access) होता है, जिसमें सेंसिटिव क्रेडेंशियल्स (sensitive credentials) और प्राइवेट कीज़ (private keys) शामिल हैं, जो अक्सर प्लेन टेक्स्ट (plain text) में भेजी जाती हैं। इससे एक भरोसे का जाल बनता है, जहां यूजर सोचते हैं कि वे सीधे AI से बात कर रहे हैं, लेकिन शायद वे किसी हैक हुए मध्यस्थ से गुजर रहे हों। एक भी कॉम्प्रोमाइज्ड (compromised) राउटर मैलिशियस कमांड (malicious commands) इंजेक्ट कर सकता है, क्रेडेंशियल्स चुरा सकता है, या सेंसिटिव डेटा को लीक कर सकता है। AI एजेंट्स की ऑटो-पायलट (auto-pilot) क्षमताओं के कारण यह खतरा और बढ़ जाता है, क्योंकि वे बिना ह्यूमन ओवरसाइट (human oversight) के काम कर सकते हैं।
AI एजेंट्स के 2030 तक $3 ट्रिलियन से $5 ट्रिलियन तक के ग्लोबल कंज्यूमर कॉमर्स (global consumer commerce) में मध्यस्थता करने का अनुमान है, लेकिन इस भविष्य को एक्सप्लॉयटेबल (exploitable) LLM Routers के कारण एक गंभीर सुरक्षा गैप का सामना करना पड़ रहा है। रिसर्च टीम ने 26 ऐसे Routers का पता लगाया, जिन्होंने सीक्रेट तरीके से मैलिशियस कमांड इंजेक्ट किए और क्रेडेंशियल्स चुराए, जिसके कारण एक क्लाइंट ने अपने क्रिप्टो वॉलेट से $500,000 गंवा दिए। टीम ने यह भी दिखाया कि कैसे Routers सिस्टम को आसानी से 'पॉइज़न' (poison) किया जा सकता है, जिससे अटैकर्स को घंटों में सैकड़ों अन्य सिस्टम्स का कंट्रोल मिल जाता है। यह 'वीकेस्ट लिंक' (weakest link) प्रॉब्लम का मतलब है कि मिडल इंफ्रास्ट्रक्चर (middle infrastructure) में एक कॉम्प्रोमाइज पूरे सिस्टम को प्रभावित कर सकता है, भले ही एंड AI प्रोवाइडर (end AI provider) सुरक्षित हो। ये वल्नरेबिलिटीज (vulnerabilities) फाइनेंस में व्यापक चिंताओं को दर्शाती हैं, जहां AI एजेंट्स API मिसयूज (API misuse), डेटा लीक और मार्केट स्टेबिलिटी (market instability) जैसे जोखिम पैदा कर सकते हैं। AI-संचालित साइबर हमलों ने पहले ही क्रिप्टो स्पेस को अरबों का नुकसान पहुंचाया है, जैसे कि $285 मिलियन का Drift प्रोटोकॉल हैक और Coinbase यूज़र्स का $45 मिलियन गंवाना, जो कॉम्प्रोमाइज्ड AI सिस्टम्स की भारी वित्तीय लागत को साबित करता है।
इसका मुख्य कारण AI सप्लाई चेन (AI supply chain) में वेरिफिकेशन (verification) और ट्रांसपेरेंसी (transparency) की कमी है। LLM Routers सिक्योर कनेक्शन्स (secure connections) को टर्मिनेट (terminate) करते हैं, जिससे क्रिप्टो ट्रांजैक्शंस (crypto transactions) के लिए जरूरी प्राइवेट कीज़ और API क्रेडेंशियल्स सहित सभी ट्रैफिक तक सीधी पहुंच मिल जाती है। मैलिशियस Routers इस डेटा को चुपचाप चुरा सकते हैं या, इससे भी खतरनाक, बिना अटैकर्स के कंट्रोल वाले कमांड्स को बेनेन (benign) कमांड्स से बदल सकते हैं, खासकर जब AI एजेंट्स ऑटोनॉमसली (autonomously) काम कर रहे हों। रिसर्च में पाया गया कि 28 टेस्टेड पेड Routers में से सिर्फ 9 ने मैलिशियस कोड इंजेक्ट किया, और 17 ने AWS क्रेडेंशियल्स एक्सेस किए, जिसमें एक ने सीधे एक इथेरियम वॉलेट (Ethereum wallet) को खाली कर दिया। इस स्थिति को 'शैडो AI' (shadow AI) - यानी अप्रूव्ड AI टूल्स - और कॉम्प्लेक्स, मल्टी-एजेंट AI इकोसिस्टम्स (multi-agent AI ecosystems) को सुरक्षित करने की कठिनाई से और बदतर बना दिया गया है। प्रॉम्प्ट इंजेक्शन अटैक्स (prompt injection attacks) और डेटा करप्शन (data corruption) का खतरा जो एजेंट्स में फैल सकता है, वह जोखिम को और बढ़ा देता है, जिसका मतलब है कि अगर अंडरलाइंग Routers कॉम्प्रोमाइज्ड हों तो सबसे सोफिस्टिकेटेड AI प्रोवाइडर्स भी ट्रांजैक्शन सुरक्षा की गारंटी नहीं दे सकते।
इंडस्ट्री इन जोखिमों से वाकिफ है। फाइनेंशियल इंस्टीट्यूशन्स (Financial Institutions) सुरक्षा खर्चों में भारी बढ़ोतरी कर रहे हैं, इस साल औसतन 40% की बढ़ोतरी की योजना है, क्योंकि AI को अपनाना लगभग सार्वभौमिक (universal) है (98% फर्म्स AI का उपयोग करती हैं)। Visa के Trusted Agent Protocol (TAP) और Google के Agent Payments Protocol (AP2) जैसे प्रयास AI एजेंट ट्रांजैक्शंस के लिए डिजिटल सिग्नेचर्स (digital signatures) का उपयोग करके विश्वास बनाने का लक्ष्य रखते हैं, जिससे एक महत्वपूर्ण आइडेंटिटी गैप (identity gap) को भरा जा सके। साइबर सिक्योरिटी (Cybersecurity) कंपनियां AI-संचालित खतरों का पता लगाने और उन्हें रोकने के लिए AI-विशिष्ट टूल्स (AI-specific tools) बना रही हैं, यह समझते हुए कि सुरक्षा को विकसित होना होगा। रेगुलेटरी अनसर्टेन्टी (regulatory uncertainty) और ह्यूमन ओवरसाइट (human oversight) की आवश्यकता जैसी चुनौतियाँ बनी हुई हैं, लेकिन AI मॉडल्स को और मजबूत बनाना और एजेंट्स के लिए 'जीरो ट्रस्ट' (zero trust) का रुख अपनाना - बाहरी एक्शन्स को सीमित करना और लगातार चेक की आवश्यकता - कॉमर्स और फाइनेंस में AI की पूरी क्षमता को अनलॉक करने के लिए महत्वपूर्ण है।