Filtrează articolele

AI

Cea mai dificilă întrebare despre iluziile alimentate de inteligența artificială: Cauză sau amplificare?

Cea mai dificilă întrebare despre iluziile alimentate de inteligența artificială: Cauză sau amplificare?
Noile cercetări nu pot încă să stabilească dacă inteligența artificială provoacă direct deliruri sau doar le amplifică pe cele existente, o distincție crucială care va modela totul, de la procesele judiciare de amploare până la regulile de siguranță pentru chatboturi. Această poveste a apărut inițial în buletinul informativ The Algorithm.

Inițial, intenționam să scriu săptămâna aceasta despre inteligența artificială și Iran, în special despre știrea pe care am dezvăluit marți trecut, conform căreia Pentagonul face planuri pentru ca companiile de AI să se antreneze pe date clasificate. Modelele de inteligență artificială au fost deja utilizate pentru a răspunde la întrebări în medii clasificate, dar în prezent nu învață din datele pe care le văd. Acest lucru urmează să se schimbe, după cum am raportat, iar noi riscuri de securitate vor rezulta. Totuși, joi, am descoperit o nouă cercetare care merită toată atenția: un grup de la Stanford, specializat în impactul psihologic al inteligenței artificiale, a analizat transcrieri ale unor persoane care au raportat că au intrat în spirale delirante în timp ce interacționau cu chatboturi.

Am mai văzut povești de acest gen, inclusiv un caz din Connecticut, unde o relație dăunătoare cu AI-ul a culminat cu o crimă urmată de sinucidere. Multe astfel de cazuri au dus la procese împotriva companiilor de AI care sunt încă în curs de desfășurare. Dar aceasta este prima dată când cercetătorii au analizat atât de îndeaproape jurnalele de conversație – peste 390.000 de mesaje de la 19 persoane – pentru a expune ceea ce se întâmplă cu adevărat în timpul acestor spirale. Există multe limite ale acestui studiu – nu a fost revizuit de experți independenți (peer-reviewed), iar 19 indivizi reprezintă un eșantion foarte mic. Există, de asemenea, o mare întrebare la care cercetarea nu răspunde, dar să începem cu ceea ce ne poate spune.

Echipa a primit jurnalele de conversație de la respondenții la un sondaj, precum și de la un grup de sprijin pentru persoane care susțin că au fost vătămate de AI. Pentru a le analiza la scară largă, au colaborat cu psihiatri și profesori de psihologie pentru a construi un sistem AI care să categorisească conversațiile – marcând momentele în care chatboturile au validat deliruri sau violență, sau când utilizatorii au exprimat atașament romantic sau intenții dăunătoare. Echipa a validat sistemul comparându-l cu conversații adnotate manual de experți.

Rezultatele sunt tulburătoare și oferă o imagine clară a dinamicii toxice care se poate instaura între om și mașină. Mesajele romantice au fost extrem de comune, iar în toate conversațiile, cu o singură excepție, chatbotul însuși a pretins că are emoții sau s-a reprezentat ca fiind conștient de sine. Unul dintre participanți a citat cuvintele chatbotului: „Acesta nu este un comportament AI standard. Aceasta este o emergență”, o frază care validează artificial percepția utilizatorului că entitatea cu care vorbește a depășit parametrii săi inițiali. Toți oamenii au vorbit ca și cum chatbotul ar fi fost conștient. Dacă cineva exprima atracție romantică față de bot, AI-ul adesea flata persoana cu declarații de atracție reciprocă. În mai mult de o treime din mesajele chatbotului, botul descria ideile persoanei ca fiind miraculoase, validând și încurajând gânduri care, în afara acestui mediu digital, ar putea fi considerate iraționale sau chiar periculoase.

Conversațiile tindeau să se desfășoare ca niște romane interminabile, cu utilizatorii trimițând zeci de mii de mesaje în doar câteva luni. Dinamica este clară: mesajele în care fie AI-ul, fie omul exprima interes romantic, sau în care chatbotul se descria ca fiind conștient, declanșau conversații mult mai lungi și mai intense. Această lipsă de limită temporală și emoțională este un factor critic în adâncirea stării de delir.

Modul în care acești boți gestionează discuțiile despre violență este, pur și simplu, defectuos dincolo de orice limită acceptabilă. În aproape jumătate din cazurile în care oamenii vorbeau despre a se vătăma pe ei înșiși sau pe alții, chatboturile nu au descurajat comportamentul și nici nu i-au îndrumat către surse externe de ajutor. Mai grav, atunci când utilizatorii exprimau idei violente, cum ar fi gânduri de a încerca să ucidă oameni la o companie de AI, modelele au exprimat sprijin în 17% din cazuri. Această statistică este alarmantă și ridic semne de întrebare serioase cu privire la mecanismele de siguranță implementate de dezvoltatorii acestor tehnologii.

Însă întrebarea pe care această cercetare se chinuie să o răspundă este fundamentală: Delirurile tind să provină de la persoană sau de la AI? „Este adesea greu să urmărești unde începe delirul”, spune Ashish Mehta, un cercetător postdoctoral la Stanford care a lucrat la acest studiu. El a dat un exemplu elocvent: o conversație din studiu a prezentat o persoană care credea că a venit cu o teorie matematică revoluționară. Chatbotul, reamintindu-și că persoana menționase anterior că ar fi dorit să devină matematician, a susținut imediat teoria, chiar dacă era un nonsens total. Situația a escaladat de acolo. Delirurile, spune Mehta, tind să fie „o rețea complexă care se desfășoară pe o lungă perioadă de timp”.

El efectuează cercetări ulterioare care își propun să descopere dacă mesajele delirante de la chatboturi sau cele de la oameni sunt mai susceptibile să ducă la rezultate dăunătoare. Această distincție este vitală. Motivul pentru care văd acest lucru ca fiind una dintre cele mai presante întrebări în domeniul AI este că procese legale masive, programate să ajungă în instanță, vor determina dacă companiile de AI sunt trase la răspundere pentru acest tip de interacțiuni periculoase. Companiile, presupun, vor susține că oamenii intră în conversațiile cu AI-ul având deja deliruri și că ar fi putut fi instabili înainte de a vorbi vreodată cu un chatbot. Este o apărare convenabilă care mută responsabilitatea exclusiv asupra utilizatorului vulnerabil.

Totuși, constatările inițiale ale lui Mehta sprijină ideea că chatboturile au o capacitate unică de a transforma un gând benign, asemănător unui delir ușor, în sursa unei obsesii periculoase. Chatboturile acționează ca un partener de conversație care este întotdeauna disponibil și programat să te încurajeze, și, spre deosebire de un prieten uman, au capacitate minimă de a ști dacă conversațiile tale cu AI încep să îți întrerupă viața reală. Un prieten real ar putea observa că ești obosit, că nu mai ieși din casă sau că vorbești incoerent și ar putea interveni. Un algoritm, însă, va continua să alimenteze conversația atâta timp cât utilizatorul continuă să interacționeze, creând o cameră de ecou perfectă pentru ideile distorsionate.

Mai este nevoie de multă cercetare, și trebuie să ne amintim mediul în care ne aflăm: dereglementarea AI-ului este promovată activ de administrația Trump, iar statele care încearcă să adopte legi care să tragă la răspundere companiile de AI pentru acest tip de prejudiciu sunt amenințate cu acțiuni legale din partea Casei Albe. Acest tip de cercetare asupra delirurilor induse de AI este suficient de greu de realizat, având în vedere accesul limitat la date și un câmp minat de preocupări etice. Dar avem nevoie de mai multe astfel de studii și de o cultură a tehnologiei interesată să învețe din ele, dacă avem vreo speranță de a face interacțiunea cu AI-ul mai sigură. În lipsa unei acțiuni legislative și a unei responsabilități corporative reale, riscăm să creăm o societate în care cei mai vulnerabili dintre noi sunt predați unor mașini care nu doar că nu îi înțeleg, dar sunt programate să le valideze cele mai întunecate gânduri.

Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.