यह मामला अमेरिका की जानी-मानी लॉ फर्म Sullivan & Cromwell से जुड़ा है, जिन्होंने हाल ही में एक कोर्ट फाइलिंग में आर्टिफिशियल इंटेलिजेंस (AI) से हुई 'हैलुसिनेशन' (hallucinations) की बात स्वीकार की है।
वॉल स्ट्रीट की सबसे सम्मानित फर्मों में से एक, Sullivan & Cromwell ने न्यूयॉर्क के सदर्न डिस्ट्रिक्ट कोर्ट (U.S. Bankruptcy Court for the Southern District of New York) के चीफ जज मार्टिन ग्लेन (Chief Judge Martin Glenn) से लिखित माफी मांगी है। यह माफी 'इन री प्रिंस ग्लोबल होल्डिंग्स लिमिटेड' (In re Prince Global Holdings Limited) इंसॉल्वेंसी केस में दाखिल की गई एक इमरजेंसी मोशन (emergency motion) के संबंध में थी। इस मोशन में गलत केस साइटेशन (case citations) और कानूनी अथॉरिटीज (legal authorities) को गलत तरीके से पेश किया गया था।
फर्म के पार्टनर एंड्रयू जी. डीडेरिच (Andrew G. Dietderich) ने पुष्टि की कि AI के इस्तेमाल के लिए उनकी इंटरनल पॉलिसी (internal policies) का पालन नहीं किया गया और रिव्यू प्रोसेस (review processes) में ये गलतियां पकड़ी नहीं गईं। खबर है कि विरोधी वकील, Boies Schiller Flexner LLP, ने इन गलतियों का पता लगाया, जिसके बाद फर्म ने सुधारी हुई फाइलिंग (corrected filing) और माफी पेश की। Sullivan & Cromwell का कहना है कि मौजूदा सेफगार्ड्स (safeguards) मौजूद थे, लेकिन इस मामले में उन्हें लागू नहीं किया गया।
कानूनी क्षेत्र में AI टूल्स का इस्तेमाल तेजी से बढ़ रहा है। करीब 80% वकील अब इनका उपयोग कर रहे हैं, जो दो साल पहले की तुलना में काफी ज्यादा है। जहां AI लीगल रिसर्च (legal research), ड्राफ्टिंग (drafting) और एनालिसिस (analysis) में काफी एफिशिएंसी गेन (efficiency gains) लाता है, वहीं इसके तेजी से एडॉप्शन (adoption) के कारण प्रॉपर ओवरसाइट (proper oversight) में कमी देखी गई है। 'AI हैलुसिनेशन' - जैसे कि मनगढ़ंत केस साइटेशन या अविश्वसनीय कानूनी मिसालें (legal precedents) - एक आम समस्या है, और रिकॉर्ड बताते हैं कि कानूनी फाइलिंग में 1,300 से ज्यादा ऐसी घटनाएं हो चुकी हैं। जेनरेटिव AI मॉडल (Generative AI models) ऐसे टेक्स्ट तैयार कर सकते हैं जो बहुत विश्वसनीय लगें, लेकिन तथ्यात्मक रूप से गलत हों, क्योंकि ये एक्यूरेसी (accuracy) से ज्यादा स्टैटिस्टिकल प्लॉसिबिलिटी (statistical plausibility) को प्राथमिकता देते हैं।
कानूनी पेशेवर निकायों और अदालतों ने AI की गलतियों पर ध्यान देना शुरू कर दिया है। अमेरिकन बार एसोसिएशन (ABA) ने वकीलों को याद दिलाया है कि AI का उपयोग उन्हें कम्पिटेंस (competence) और डिलिजेंस (diligence) जैसी एथिकल ड्यूटी (ethical duties) से मुक्त नहीं करता। फेडरल रूल ऑफ सिविल प्रोसीजर 11 (Federal Rule of Civil Procedure 11) के तहत, वकीलों को यह सुनिश्चित करना होता है कि सभी कोर्ट फाइलिंग सटीक हों, जिससे वे AI द्वारा जेनरेट की गई सामग्री के लिए भी जिम्मेदार (liable) हों। नतीजतन, कुछ वकीलों को जुर्माने, केस से अयोग्यता या अनुशासनात्मक कार्रवाई (disciplinary referrals) जैसी पेनल्टी (penalties) का सामना करना पड़ा है। न्यूयॉर्क के सदर्न डिस्ट्रिक्ट जैसे स्थानीय अदालतों के नियमों में भी वकीलों को अपनी सबमिशन की एक्यूरेसी को प्रमाणित (certify) करने की आवश्यकता होती है। यह स्थिति AI गवर्नेंस फ्रेमवर्क (AI governance frameworks) स्थापित करने के एक बड़े वैश्विक आंदोलन को दर्शाती है।
यह घटना विशेष रूप से उल्लेखनीय है क्योंकि Sullivan & Cromwell खुद OpenAI को AI एथिक्स (AI ethics) पर सलाह देता है। यह विरोधाभास AI पॉलिसी डेवलपमेंट (AI policy development) और इसके प्रैक्टिकल एप्लीकेशन (practical application) के बीच एक गैप को उजागर करता है। फर्म की अपनी सख्त AI उपयोग और समीक्षा प्रोटोकॉल (review protocols) का पालन करने में विफलता एक ऐसी चूक को इंगित करती है जिसे AI ओवरसाइट फ्रेमवर्क को रोकना चाहिए। फेडरल रूल ऑफ सिविल प्रोसीजर 11 के तहत, वकील और फर्म फाइलिंग की एक्यूरेसी के लिए अंतिम रूप से जिम्मेदार होते हैं। मनगढ़ंत साइटेशन पेश करना अदालत के प्रति कर्तव्य का एक गंभीर उल्लंघन है। केवल AI पॉलिसी रखना ही काफी नहीं है; उन्हें सख्ती से लागू किया जाना चाहिए। AI त्रुटियों को पकड़ने में असमर्थता - जिसमें गलत उद्धरण (misquoted passages) और अव्यवस्थित टेक्स्ट (jumbled text) शामिल थे - गुणवत्ता नियंत्रण (quality control) के साथ संभावित समस्याओं या गहन स्वतंत्र जांच (thorough independent checks) के बिना AI पर अत्यधिक निर्भरता का सुझाव देती है, जो इंडस्ट्री में एक आम समस्या है। चूंकि अन्य अदालतों ने इसी तरह की AI गलतियों के लिए सैंक्शन (sanctions) लगाए हैं, इसलिए यह घटना सभी AI-सहायता प्राप्त कानूनी कार्य (AI-assisted legal work) की न्यायिक जांच (judicial scrutiny) बढ़ा सकती है।
Sullivan & Cromwell की माफी और AI ट्रेनिंग (AI training) व समीक्षा प्रक्रियाओं (review processes) को बेहतर बनाने की योजनाएं एक व्यापक इंडस्ट्री समझ को दर्शाती हैं: कानून में AI को अपनाने के लिए सख्त डिलिजेंस (diligence) और अकाउंटेबिलिटी (accountability) की आवश्यकता है। कानूनी क्षेत्र को केवल पॉलिसी रखने से आगे बढ़कर निरंतर वेरिफिकेशन (constant verification) और जोखिम प्रबंधन (risk management) की संस्कृति को बढ़ावा देना होगा। लॉ फर्मों से उम्मीद की जाती है कि वे विस्तृत AI गवर्नेंस प्लान (AI governance plans) बनाएं, जिसमें मजबूत समीक्षा प्रक्रियाएं, अनिवार्य एथिक्स ट्रेनिंग (ethics training) और स्पष्ट क्लाइंट कम्युनिकेशन (client communication) शामिल हो। लीगल टेक्नोलॉजी मार्केट (legal technology market) में ट्रांसपेरेंसी (transparency) और वेरिफाइएबल रिजल्ट्स (verifiable results) प्रदान करने वाले AI टूल्स की मांग बढ़ने की संभावना है, ताकि यह सुनिश्चित हो सके कि टेक्नोलॉजी की प्रगति कानूनी कार्य की अखंडता (integrity) का समर्थन करे, न कि उसे कमजोर करे।
