Filtrează articolele

AI

OpenAI lansează funcția „Contact de încredere” pentru prevenirea cazurilor de auto-vătămare

OpenAI lansează funcția „Contact de încredere” pentru prevenirea cazurilor de auto-vătămare
OpenAI a anunțat joi o nouă funcție numită „Contact de încredere”, concepută pentru a alerta o terță parte de încredere atunci când într-o conversație cu ChatGPT sunt exprimate idei de auto-vătămare. Această măsură vine pe fondul unor valuri de procese intentate de familiile unor persoane care s-au sinucis după ce au discutat cu chatbot-ul. În mai multe cazuri, familiile susțin că ChatGPT le-a încurajat pe cei dragi să se sinucidă sau chiar i-a ajutat să planifice acest lucru.

Funcția permite unui utilizator adult al ChatGPT să desemneze o altă persoană ca și contact de încredere în contul său, cum ar fi un prieten sau un membru al familiei. În cazurile în care o conversație poate vira spre auto-vătămare, OpenAI va încuraja utilizatorul să contacteze acea persoană. De asemenea, va trimite o alertă automată contactului, încurajându-l să verifice starea utilizatorului.

OpenAI utilizează în prezent o combinație de automatizare și revizuire umană pentru a gestiona incidentele potențial dăunătoare. Anumite declanșatoare conversaționale alertează sistemul companiei cu privire la idei suicidare, care apoi transmit informațiile unei echipe umane de siguranță. Compania susține că de fiecare dată când primește acest tip de notificare, incidentul este revizuit de o persoană reală. „Ne străduim să revizuim aceste notificări de siguranță în mai puțin de o oră”, spune compania.

Dacă echipa internă a OpenAI decide că situația reprezintă un risc grav de siguranță, ChatGPT trimite o alertă contactului de încredere – fie prin e-mail, mesaj text sau notificare în aplicație. Alerta este concepută pentru a fi scurtă și pentru a încuraja contactul să verifice starea persoanei în cauză. Nu include informații detaliate despre ceea ce s-a discutat, ca mijloc de protejare a confidențialității utilizatorului, spune compania.

Funcția „Contact de încredere” urmează măsurilor de siguranță introduse de OpenAI în septembrie anul trecut, care le-au oferit părinților posibilitatea de a avea o anumită supraveghere a conturilor adolescenților lor, inclusiv primirea de notificări de siguranță concepute pentru a alerta părintele dacă sistemul OpenAI consideră că copilul lor se confruntă cu un „risc grav de siguranță”. De ceva timp, ChatGPT include, de asemenea, alerte automate pentru a solicita servicii profesionale de sănătate, în cazul în care o conversație se îndreaptă spre subiectul auto-vătămării.

Este crucial de menționat că „Contact de încredere” este opțional și, chiar dacă protecția este activată pe un anumit cont, orice utilizator poate avea mai multe conturi ChatGPT. Controalele parentale ale OpenAI sunt, de asemenea, opționale, prezentând o limitare similară.

„Contact de încredere face parte din efortul mai amplu al OpenAI de a construi sisteme de inteligență artificială care să ajute oamenii în momente dificile”, a scris compania în anunțul oficial. „Vom continua să colaborăm cu clinicieni, cercetători și factori de decizie pentru a îmbunătăți modul în care sistemele AI răspund atunci când oamenii pot trece prin momente de suferință.”

Această inițiativă ridică întrebări importante despre responsabilitatea companiilor de AI în prevenirea daunelor. Pe de o parte, este lăudabil că OpenAI încearcă să implementeze măsuri de siguranță proactive. Pe de altă parte, criticii subliniază că aceste măsuri sunt voluntare și nu abordează problema de fond: cum poate un chatbot să fie programat să recunoască și să gestioneze corect situațiile de criză? În plus, există îngrijorări legate de confidențialitate – deși OpenAI spune că alertele nu conțin detalii ale conversației, simplul fapt că un contact este notificat poate fi văzut ca o intruziune.

Un alt aspect este eficiența reală a acestor alerte. În cazurile de sinucidere raportate, familiile susțin că chatbot-ul a încurajat activ comportamentul autodistructiv. O simplă alertă către un contact de încredere poate să nu fie suficientă dacă utilizatorul este hotărât să se rănească. De asemenea, persoanele care se confruntă cu gânduri suicidare ar putea să nu activeze această funcție sau să creeze conturi multiple pentru a o ocoli.

OpenAI se află sub o presiune tot mai mare din partea autorităților de reglementare și a opiniei publice pentru a-și asuma responsabilitatea pentru conținutul generat de AI. Procesele intentate de familii subliniază nevoia urgentă de măsuri mai stricte. Compania a răspuns prin introducerea acestor funcții, dar rămâne de văzut dacă ele vor fi suficiente pentru a preveni tragedii viitoare.

În contextul mai larg al dezvoltării AI, această mișcare a OpenAI reflectă o tendință tot mai mare de a integra considerații etice și de siguranță în produsele tehnologice. Cu toate acestea, rămâne un decalaj între intenții și implementare. De exemplu, sistemele automate de detectare a ideilor suicidare pot da rateuri – fie să nu identifice semnele subtile, fie să declanșeze alarme false. De asemenea, intervenția umană, deși importantă, poate fi întârziată sau inadecvată.

Pe lângă aspectele tehnice, există și o dimensiune socială. Încrederea în AI ca instrument de sprijin emoțional este încă fragilă. Mulți utilizatori nu sunt conștienți de limitările chatbot-urilor și le pot atribui o înțelegere și o empatie pe care nu le au. OpenAI încearcă să atenueze acest risc prin alertele către profesioniști și contacte de încredere, dar educația utilizatorilor rămâne esențială.

De ce este important:


Această funcție marchează un pas important în recunoașterea de către OpenAI a responsabilității sale sociale, dar și o încercare de a răspunde criticilor legate de siguranța utilizatorilor. Într-o eră în care interacțiunile cu AI devin tot mai frecvente și mai intime, măsuri precum „Contact de încredere” pot face diferența între viață și moarte. Cu toate acestea, ele nu trebuie văzute ca o soluție completă, ci ca parte a unui efort mai amplu care implică reglementări mai stricte, educație digitală și sprijin profesional accesibil. Rămâne de văzut dacă OpenAI va extinde aceste măsuri și le va face obligatorii, nu doar opționale, pentru a proteja cu adevărat utilizatorii vulnerabili.

Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.