Alte șase procese, depuse la un tribunal federal din San Francisco, includ acuzații de deces pe nedrept în numele a cinci copii și al unui educator uciși în cel mai sângeros atac armat în masă din Canada din ultimii ani. Victimele sunt Zoey Benoit, Abel Mwansa Jr., Ticaria „Tiki” Lampert, Kylie Smith, toți în vârstă de 12 ani, Ezekiel Schofield, de 13 ani, și asistenta educațională Shannda Aviugana-Durand. Potrivit poliției, Jesse Van Rootselaar, ale cărei interacțiuni cu ChatGPT se află în centrul proceselor, și-a ucis mama și fratele vitreg acasă, apoi a ucis un asistent educațional și cinci elevi cu vârste între 12 și 13 ani la fosta sa școală, pe 10 februarie. Van Rootselaar, în vârstă de 18 ani, s-a sinucis ulterior. În atac au fost rănite 25 de persoane.
Un purtător de cuvânt al OpenAI a numit atacul „o tragedie” și a declarat că compania are o politică de toleranță zero față de utilizarea instrumentelor sale pentru a ajuta la comiterea de violențe. „Așa cum am împărtășit oficialilor canadieni, am întărit deja măsurile de siguranță, inclusiv îmbunătățirea modului în care ChatGPT răspunde la semnele de suferință, conectarea oamenilor cu resurse locale de sprijin și sănătate mintală, consolidarea modului în care evaluăm și escaladăm amenințările potențiale de violență și îmbunătățirea detectării celor care încalcă în mod repetat politica”, a declarat purtătorul de cuvânt într-un comunicat. CEO-ul Sam Altman a trimis o scrisoare săptămâna trecută prin care și-a cerut scuze în mod oficial comunității pentru faptul că compania sa nu a notificat autoritățile cu privire la comportamentul online al atacatorului.
Aceste cazuri fac parte dintr-un val tot mai mare de procese care acuză companiile de inteligență artificială că nu reușesc să prevină interacțiunile cu chatbot-urile pe care reclamanții le consideră că contribuie la auto-vătămare, boli mintale și violență. Se pare că acestea sunt primele din SUA care susțin că ChatGPT a jucat un rol în facilitarea unui atac armat în masă. Jay Edelson, care îi reprezintă pe reclamanți, a declarat că intenționează să depună încă două duzini de procese în următoarele săptămâni împotriva companiei, în numele altor persoane afectate de atac.
Potrivit unei plângeri, sistemele automate ale OpenAI au semnalat în iunie 2025 conversații pe ChatGPT în care atacatoarea descria scenarii de violență cu arme de foc. Membrii echipei de siguranță au recomandat contactarea poliției după ce au concluzionat că aceasta reprezenta o amenințare credibilă și iminentă de vătămare, se arată în plângere, citând un articol din Wall Street Journal din februarie despre discuțiile interne ale companiei. Cu toate acestea, Altman și alți lideri OpenAI au anulat decizia echipei de siguranță, iar poliția nu a fost niciodată contactată, susține procesul. Contul atacatoarei a fost dezactivat, dar ea a putut să își creeze un cont nou și să continue să folosească platforma pentru a-și planifica atacul, mai spune procesul.
După raportul Wall Street Journal, compania a declarat că contul a fost semnalat de sistemele care identifică „utilizări abuzive ale modelelor noastre în sprijinul activităților violente”, dar nu a îndeplinit criteriile interne pentru raportarea către autorități. Procesele susțin că „victimele nu au aflat acest lucru pentru că OpenAI a fost deschisă, ci pentru că propriii angajați au scurs informația către Wall Street Journal după ce nu au mai putut suporta tăcerea companiei”.
Într-un blog publicat marți, OpenAI a declarat că își antrenează modelele să refuze cererile care ar putea „permite în mod semnificativ violența” și notifică autoritățile atunci când conversațiile sugerează „un risc iminent și credibil de vătămare a altora”, cu ajutorul experților în sănătate mintală care evaluează cazurile la limită. Compania a spus că își rafinează continuu modelele și metodele de detectare pe baza utilizării și a contribuțiilor experților.
Procesele solicită daune într-o sumă nespecificată și o ordonanță judecătorească care să oblige OpenAI să își revizuiască practicile de siguranță, inclusiv protocoale obligatorii de sesizare a autorităților. Una dintre victime a depus inițial un proces într-un tribunal canadian, dar l-a retras pentru a urmări acțiunile în California, a spus Edelson.
Procesele urmează unor cazuri similare depuse în instanțe de stat și federale din SUA în ultimele luni, care au susținut că ChatGPT a facilitat comportament dăunător, sinucidere și, în cel puțin un caz, o sinucidere dublată de crimă. Cazurile, încă în stadii incipiente, sunt de așteptat să testeze ce rol poate juca o platformă de inteligență artificială în promovarea violenței și dacă companiile pot fi trase la răspundere pentru acțiunile utilizatorilor. OpenAI a negat acuzațiile, argumentând în cazul sinuciderii duble de crimă că atacatorul avea un istoric lung de boli mintale.
De ce este important:
Acest caz marchează un precedent juridic major, fiind printre primele care încearcă să stabilească răspunderea companiilor de inteligență artificială pentru acțiunile violente ale utilizatorilor, în contextul în care tehnologia AI devine tot mai integrată în viața de zi cu zi. Dacă instanțele vor decide în favoarea reclamanților, s-ar putea crea un cadru legal care să oblige companii precum OpenAI să implementeze măsuri de siguranță mai stricte și să raporteze amenințările către autorități, ceea ce ar putea preveni tragedii similare. Pe de altă parte, deciziile ar putea influența modul în care sunt dezvoltate și reglementate sistemele AI la nivel global, echilibrând inovația cu protecția vieților omenești.