न्यूयॉर्कमधील यु.एस. डिस्ट्रिक्ट कोर्टासमोर (U.S. Bankruptcy Court) एका प्रतिष्ठित कायदा फर्मने AI मुळे झालेल्या चुकांबद्दल माफी मागितली आहे. In re Prince Global Holdings Limited या दिवाळखोरीच्या (insolvency) खटल्यात दाखल केलेल्या आपत्कालीन अर्जात (emergency motion) चुकीचे कायदेशीर संदर्भ (case citations) आणि बनावट कायदेशीर अधिकारांचा (legal authorities) उल्लेख होता. फर्मचे पार्टनर Andrew G. Dietderich यांनी कबूल केले की, AI वापरासंबंधीचे कंपनीचे अंतर्गत धोरण (internal policies) आणि तपासणी प्रक्रिया (review processes) पाळल्या गेल्या नाहीत, ज्यामुळे या चुका निदर्शनास आल्या नाहीत.
विरोधक वकील (Opposing counsel) Boies Schiller Flexner LLP यांनी ही चूक शोधून काढल्याचे समजते. Sullivan & Cromwell ने आता सुधारित अर्ज (corrected filing) सादर केला आहे.
कायदेशीर क्षेत्रात AI चा वापर वेगाने वाढत आहे. आता जवळपास 80% वकील AI टूल्स वापरत आहेत. AI मुळे कामाचा वेग वाढतो, पण 'AI hallucinations' म्हणजेच AI द्वारे चुकीची माहिती किंवा बनावट संदर्भ देण्याची समस्या गंभीर आहे. अशा प्रकारच्या 1,300 पेक्षा जास्त घटना कायदेशीर कागदपत्रांमध्ये नोंदवल्या गेल्या आहेत.
अमेरिकन बार असोसिएशन (ABA) ने वकिलांना स्पष्ट सूचना दिल्या आहेत की AI वापरल्याने त्यांची व्यावसायिक जबाबदारी (ethical duties) कमी होत नाही. Federal Rule of Civil Procedure 11 नुसार, वकील त्यांच्या प्रत्येक अर्जाच्या अचूकतेसाठी पूर्णपणे जबाबदार असतात, AI ने तयार केला असला तरी. चुकीच्या AI सामग्रीमुळे वकिलांना दंड, खटल्यातून अपात्रता किंवा शिस्तभंगाची कारवाई यासारख्या गंभीर परिणामांना सामोरे जावे लागू शकते.
या घटनेची विशेष बाब म्हणजे, Sullivan & Cromwell ही फर्म OpenAI ला AI एथिक्स (ethics) बाबत सल्ला देते. स्वतःच्याच AI धोरणांचे पालन न करणे हे AI oversight frameworks चा उद्देश पूर्णपणे अयशस्वी करणारे आहे. केवळ AI धोरणे असणे पुरेसे नाही, तर त्यांची कठोर अंमलबजावणी (strict enforcement) आणि सतत पडताळणी (constant verification) आवश्यक आहे.
या घटनेमुळे कायदा क्षेत्रात AI च्या जबाबदार वापरासाठी कडक नियम आणि पूर्ण पडताळणीची संस्कृती रुजवण्याची गरज स्पष्ट झाली आहे. यामुळे भविष्यात AI-आधारित कायदेशीर कामांवर अधिक बारकाईने लक्ष ठेवले जाण्याची शक्यता आहे.
