Există două grupuri care par absolut încântate de revelația recentă conform căreia Anthropic lucrează la un model de inteligență artificială ultra-secret: Departamentul Apărării și echipa de strângere de fonduri a Anthropic. Într-o zi de joi, publicația Fortune a raportat faptul că Anthropic a lăsat accesibilă o serie de informații încă nepublicate pe site-ul său web, ceea ce a condus la dezvăluirea unui model presupus a fi super-puternic, încă nelansat, numit Claude Mythos. Acest model — care se presupune a fi „de departe cel mai puternic model AI pe care l-am dezvoltat vreodată”, conform textului unui articol de blog scurs și nepublicat de la Anthropic — depășește cu mult benchmark-urile stabilite de modelul public actual al companiei, Claude Opus 4.6.
Compania a confirmat existența modelului pentru Fortune și l-a descris ca fiind „o schimbare de paradigmă și cel mai capabil model construit de noi până în prezent”. Mai mult, reprezentanții companiei au declarat, practic, că rețin lansarea modelului deoarece, în acest moment, acesta ar putea fi prea periculos pentru a fi lansat publicului. Conform Fortune, Anthropic a afirmat că modelul este „în prezent cu mult înaintea oricărui alt model AI în ceea ce privește capabilitățile cibernetice” și prezintă riscuri de securitate cibernetică fără precedent, riscuri pe care compania pare să dorească să le gestioneze proactiv.
Această revelație a pus Pentagonul într-o stare de euforie, deși acesta nu a dat niciodată vreun indiciu că ar avea preocupări legate de acest tip de probleme înainte. Departamentul Apărării păstrează încă o ranchiună față de Anthropic, după ce compania a refuzat să își permită utilizarea modelului său pentru supravegherea internă sau pentru arme militare complet autonome. Și deși se pare că Pentagonul pierde cazul său legal — o hotărâre pronunțată de un judecător joi a blocat temporar DoD de la a eticheta Anthropic ca risc de securitate — instituția caută în continuare să câștige în instanța opiniei publice.
În urma dezvăluirii Claude Mythos, Subsecretarul de Război și principalul antagonist al Anthropic, Emil Michael, a postat: „Hm... alo? Nu este clar încă că avem o problemă aici?”. Michael îl critică pe Anthropic de săptămâni întregi, numind CEO-ul companiei, Dario Amodei, un „mincinos” cu un „complex de dumnezeu” care dorește să „controleze personal armata SUA”, iar acum tratează scurgerea de informații ca pe o dovadă că Anthropic nu poate fi de încredere.
Poziția lui Michael vine, aproape cu certitudine, nu dintr-o preocupare sinceră. Anthropic a primit unda verde pentru a gestiona materiale clasificate de la guvernul federal, iar majoritatea aplicațiilor militare pentru model funcționează în medii securizate (sau ar trebui să funcționeze). Conflictul a fost despre dorința Pentagonului de a utiliza modelele Anthropic chiar mai mult decât dorește compania, ceea ce nu pare a fi lucrul pentru care ai lupta dacă ai crede că modelele prezintă riscuri de securitate. Michael are legături financiare semnificative cu alte firme AI care sunt competitori ai Anthropic, deci este dificil să îi acceptăm punctul de vedere la valoarea nominală. De asemenea, acesta este același Pentagon care a adăugat un jurnalist într-un chat de grup pe Signal unde se partajau planuri de război, așa că să nu pretindem că protocoalele lor de securitate sunt infailibile.
Indiferent de aceste aspecte, dacă luăm scurgerea de informații așa cum se prezintă, pare că Anthropic se pregătește să lanseze un produs major, deși cine știe când sau dacă îl vom vedea vreodată. Se pare că este foarte costisitor de antrenat și operat — atât de costisitor, încât compania nu pare sigură cum să îl implementeze în acest moment. Există puține motive să credem că Anthropic a lăsat aceste informații expuse cu intenția ca cineva să le găsească. Frankly, este o supraveghere destul de stânjenitoare să lași sistemul de gestionare a conținutului accesibil fără a solicita o parolă, iar acesta este modul în care toate aceste informații au devenit publice.
Dar este, de asemenea, greu de ignorat faptul că întreaga situație se potrivește perfect cu manualul clasic al companiilor de AI: de a vorbi despre pericolele unui model pentru a evidenția cât de puternic și capabil este acesta. Prin urmare, este potrivit că, în același timp cu scurgerea despre modelul extrem de puternic care îi depășește pe toți ceilalți, publicația The Information a raportat că Anthropic își propunea să devină companie publică mai târui în acest an. Acel model secret și super-puternic pare a fi exact genul de lucru pe care Anthropic ar dori ca potențialii investitori să îl cunoască înainte de o ofertă publică inițială (IPO).
Într-un context tot mai complex al dezvoltării inteligenței artificiale, incidentul ridică întrebări fundamentale despre transparență, securitate și interesele economice și geopolitice care modelează această industrie. Pe de o parte, avem o companie care construiește tehnologii pe care ea însăși le consideră potențial periculoase, iar pe de altă parte, o instituție militară care dorește acces neîngrădit la aceste capacități, în ciuda riscurilor pe care pretinde că le denunță. Este un dans periculos între inovație și control, în care mizele sunt definite nu doar de profiturile corporative, ci și de securitatea națională și, poate, chiar de viitorul autonomiei umane în fața mașinilor. Scurgerea Claude Mythos nu este doar o greșeală tehnică; este o fereastră către tensiunile profunde care definesc cursa actuală pentru supremație în domeniul AI.
Modelul Anthropic, scurs pe internet, prezintă „riscuri de securitate cibernetică fără precedent”, spre încântarea Pentagonului