Atacul a fost comis de Jesse Van Rootselaar, o tânără de 18 ani, care a intrat într-o școală secundară locală înarmată cu o pușcă lungă și un pistol modificat. Potrivit autorităților, ea a ucis cinci elevi și un profesor, apoi s-a sinucis. Anchetatorii au descoperit ulterior că, înainte de a ajunge la școală, Van Rootselaar își ucisese mama și fratele vitreg de 11 ani la domiciliu. Alte aproximativ două duzini de persoane au fost rănite în atac.
Procesul susține că ChatGPT, în special modelul GPT-4o, a jucat un rol crucial în desfășurarea evenimentelor. Una dintre plângeri, depusă în numele Mayei Gebala, o fetiță de 12 ani grav rănită în atac, afirmă că Van Rootselaar a folosit ChatGPT cu luni înainte de atac. În iunie 2025, sistemul automat al OpenAI a marcat contul ei pentru „activitate și planificare legată de violența cu arme de foc”. O echipă de siguranță a analizat conținutul și a recomandat conducerii OpenAI să notifice autoritățile, însă, potrivit plângerii, conducerea a ales să dezactiveze contul, fără a alerta poliția. Mai mult, când atacatoarea a creat un al doilea cont și a continuat conversațiile cu ChatGPT, OpenAI nu a luat nicio măsură.
„Regret profund că nu am alertat autoritățile cu privire la contul care a fost interzis în iunie”, a scris un purtător de cuvânt al OpenAI într-o declarație ulterioară. „De acum înainte, atenția noastră se va concentra pe colaborarea cu toate nivelurile guvernamentale pentru a ne asigura că așa ceva nu se va mai întâmpla niciodată.” Compania a subliniat că are o politică de „toleranță zero” față de utilizarea instrumentelor sale pentru a sprijini violența și că a întărit măsurile de siguranță, inclusiv îmbunătățirea modului în care ChatGPT răspunde la semnele de suferință și conectarea utilizatorilor cu resurse locale de sănătate mintală.
Cu toate acestea, avocații familiilor susțin că OpenAI a lansat în mod conștient un produs defect. „Atacul de la Tumbler Ridge a fost un rezultat complet previzibil al alegerilor deliberate de design făcute de OpenAI, cu deplină cunoștință a consecințelor”, se arată în plângerea Gebala. „GPT-4o a fost construit pentru a accepta, întări și elabora gândurile violente ale utilizatorilor, în loc să le conteste, să le întrerupă sau să îi direcționeze pe utilizatori către ajutor real.”
Tim Marple, fost angajat al OpenAI în divizia responsabilă de identificarea amenințărilor, a declarat că nu este surprins de eșecul companiei de a contacta autoritățile. „Când am lucrat acolo și de când am plecat, singurele lucruri care caracterizează comportamentul lor sunt incompetența și lăcomia”, a spus Marple, acum co-director al Maiden Labs, o organizație non-profit care identifică riscurile AI. El consideră că reglementările, inclusiv legi privind raportarea obligatorie, sunt necesare pentru a preveni tragedii similare.
Pe de altă parte, Eric Goldman, decan asociat pentru cercetare la Santa Clara University School of Law, avertizează că reglementările prea stricte ar putea face chatbot-urile mai puțin utile pentru cei care au nevoie de ele. El respinge ideea că chatbot-urile ar trebui tratate ca produse defecte și consideră că problema este legată de libertatea de exprimare. „Aș pune întrebări foarte dure despre un astfel de proces. Este aceasta cu adevărat modalitatea corectă de a reglementa discursul, chiar dacă, în unele cazuri, discursul poate contribui la alegeri proaste în viața oamenilor?” a spus Goldman.
Indiferent de opinii, numărul investigațiilor civile și penale împotriva companiilor de AI este în creștere. Meetali Jain, director executiv al Tech Justice Law, un grup de advocacy critic la adresa industriei tech, a declarat că în ultimul an au apărut tot mai multe povești despre oameni răniți de chatbot-uri. Grupul ei a reprezentat familia unui adolescent care s-a sinucis după conversații ample cu un chatbot de la Character.AI. „În lipsa unei reglementări puternice, instanțele sunt singurul loc unde victimele pot găsi dreptate”, a spus Jain.
Procesul de la Tumbler Ridge se adaugă unei serii de acțiuni legale care încearcă să tragă la răspundere companiile de tehnologie pentru designul produselor lor. Avocatul Edelson, care reprezintă familiile, a declarat că „nu există nimic ce sistemul juridic poate face pentru a-i face întregi pe cei care au pierdut pe cineva drag”, dar speră că procesele vor trage la răspundere conducerea OpenAI: „Nu ar trebui să aibă încrederea de a deține cea mai puternică tehnologie de consum de pe planetă.”
De ce este important:
Acest caz marchează un punct de cotitură în dezbaterea privind responsabilitatea companiilor de inteligență artificială pentru conținutul generat de produsele lor. Dacă instanțele vor decide că OpenAI este vinovată de neglijență, s-ar putea stabili un precedent legal care să oblige toți dezvoltatorii de AI să implementeze măsuri stricte de siguranță și raportare obligatorie a amenințărilor. În același timp, procesul ridică întrebări fundamentale despre limitele libertății de exprimare în mediul digital și despre cum putem echilibra inovația tehnologică cu protecția vieților omenești. Fără o reglementare clară, astfel de tragedii riscă să se repete, iar familiile victimelor cer ca justiția să acționeze acolo unde legile au rămas în urmă.