Totul a pornit de la un incident petrecut în fața unei instanțe federale din Statele Unite. Un avocat de la Latham & Watkins a folosit Claude, un model de limbaj dezvoltat de Anthropic, pentru a pregăti un memoriu juridic. Claude, la fel ca alte modele de tip GPT, este antrenat pe cantități masive de text și poate genera răspunsuri coerente, dar nu are o înțelegere reală a adevărului. În acest caz, AI-ul a „inventat” cazuri și citate care nu existau – un fenomen cunoscut sub numele de halucinație. Avocatul, fără să verifice sursele, a depus memoriul în instanță. Judecătorul a observat rapid neregulile și a cerut explicații.
Incidentul a fost rapid mediatizat, mai ales că Latham & Watkins este unul dintre cele mai prestigioase cabinete de avocatură din lume. Reacțiile au fost împărțite: unii au criticat avocatul pentru neglijență, alții au subliniat că AI-ul este doar o unealtă și că responsabilitatea finală revine omului. Dar dincolo de cazul particular, această situație deschide întrebări fundamentale: Cine plătește atunci când AI-ul greșește? Avocatul? Firma? Producătorul software-ului? Și cum putem preveni astfel de erori?
Pentru a înțelege mai bine, trebuie să privim contextul mai larg. Inteligența artificială generativă a fost adoptată cu entuziasm în domeniul juridic: de la redactarea de contracte până la analiza jurisprudenței. Avocații o folosesc pentru a economisi timp și a reduce costurile. Însă, așa cum arată acest caz, încrederea oarbă în AI poate avea consecințe grave. Halucinațiile nu sunt rare; ele apar atunci când modelul încearcă să completeze informații lipsă sau să răspundă la întrebări pentru care nu are date suficiente. Rezultatul poate fi convingător, dar complet fals.
În instanță, acuratețea este esențială. Un citat greșit poate influența o decizie, poate duce la pierderea unui caz sau chiar la sancțiuni pentru avocat. În cazul Latham & Watkins, judecătorul a fost indulgent, dar a avertizat că astfel de practici nu vor fi tolerate. Baroul avocaților din statul respectiv a deschis o anchetă pentru posibilă conduită neprofesională. Dacă se va dovedi că avocatul nu a verificat informațiile generate de AI, acesta riscă sancțiuni disciplinare, de la amendă până la suspendare.
Dar problema nu este doar a avocatului. Firma Latham & Watkins a emis un comunicat în care își asumă responsabilitatea și anunță măsuri suplimentare de formare și verificare. Însă, în industria juridică, se pune întrebarea dacă nu cumva întreaga profesie trebuie să își revizuiască standardele. Avocații au obligația de a verifica orice informație pe care o prezintă în instanță, indiferent de sursă. Utilizarea AI-ului nu schimbă această obligație; dimpotrivă, o face și mai stringentă.
Pe de altă parte, producătorii de AI, precum Anthropic, au și ei o responsabilitate. Ei trebuie să își avertizeze utilizatorii despre limitările modelelor și să implementeze mecanisme de detectare a halucinațiilor. În cazul Claude, există deja avertismente că modelul poate genera informații inexacte, dar mulți utilizatori le ignoră. Unii experți cer ca instrumentele AI destinate uzului juridic să fie certificate și supuse unor teste riguroase înainte de a fi folosite în instanță.
Incidentul Latham & Watkins nu este singular. În 2023, un alt avocat a fost sancționat pentru că a folosit ChatGPT pentru a redacta un memoriu, iar AI-ul a inventat cazuri. Atunci, judecătorul a spus că „tehnologia nu este un substitut pentru diligența profesională”. Aceste cazuri arată un tipar: avocații sunt tentați să folosească AI-ul ca pe un scurtcircuit, fără să înțeleagă riscurile.
Ce înseamnă asta pentru răspunderea avocaților? În primul rând, că standardul de diligență rămâne același: un avocat trebuie să verifice personal orice informație pe care o prezintă. Dacă se bazează pe AI, o face pe propriul risc. În al doilea rând, că firmele de avocatură trebuie să dezvolte politici clare privind utilizarea AI-ului, inclusiv instruirea angajaților și implementarea unor verificări încrucișate. În al treilea rând, că instanțele și barourile trebuie să emită ghiduri oficiale pentru a clarifica ce este acceptabil și ce nu.
Un aspect interesant este că AI-ul poate fi, de asemenea, folosit pentru a detecta halucinațiile. Există deja instrumente care compară textul generat cu baze de date juridice și semnalează posibile inexactități. Poate că soluția nu este să renunțăm la AI, ci să îl folosim cu mai multă înțelepciune.
În final, incidentul Latham & Watkins este un semnal de alarmă pentru întreaga comunitate juridică. Tehnologia avansează rapid, dar etica și responsabilitatea trebuie să țină pasul. Avocații nu își pot permite să fie neglijenți, iar AI-ul nu este o scuză. Dimpotrivă, este o unealtă puternică care necesită o mână pricepută și vigilentă.
De ce este important:
Acest caz subliniază riscurile reale ale utilizării inteligenței artificiale în domeniul juridic, un domeniu în care acuratețea și încrederea sunt fundamentale. Pe măsură ce tot mai mulți avocați adoptă AI-ul pentru a-și eficientiza munca, incidente ca acesta vor deveni mai frecvente. Înțelegerea limitelor tehnologiei și a răspunderii profesionale este crucială pentru a preveni erori care pot afecta drepturile părților implicate și integritatea sistemului de justiție. De asemenea, acest caz deschide discuții despre reglementarea AI-ului în profesii reglementate și despre necesitatea unor standarde clare de utilizare.