Într-o decizie judiciară semnificativă care a trimis unde de șoc prin comunitatea tehnologică, o instanță federală din California a blocat temporar încercarea Pentagonului de a eticheta compania de inteligență artificială Anthropic drept „risc pentru lanțul de aprovizionare”. Această măsură pune în lumină tensiunile profunde dintre administrația americană și unul dintre cei mai importanți jucători din domeniul AI, ridicând întrebări fundamentale despre limitele puterii executive și despre modul în care guvernul poate sau nu să pedepsească companiile care nu se aliniază politic.
Decizia de a „da tweet-uri mai întâi și de a consulta avocații mai târziu” nu a fost bine primită de instanță. Judecătoarea Rita Lin a emis o opinie de 43 de pagini care sugerează că ceea ce era în esență un simplu dispută contractuală nu trebuia să ajungă la o asemenea frenezie mediatică și juridică. Totuși, guvernul a ales să ignore procesele existente pentru rezolvarea acestor tipuri de dispute și a alimentat focul cu postări pe rețelele sociale din partea unor oficiali care, în cele din urmă, au contrazis pozițiile susținute în instanță.
Pentru a înțelege amploarea acestui conflict, trebuie să analizăm contextul. Anthropic, fondată de foști cercetători de la OpenAI, s-a poziționat ca o companie de AI axată pe siguranță, un aspect care i-a permis să câștige contracte cu apărarea, dar care a creat și o linie fină de echilibrare în ceea ce privește brandingul. Guvernul a folosit Claude, modelul lor de limbaj, pentru o mare parte a anului 2025 fără plângeri, conform documentelor judiciare. Angajații din apărare care îl accesează prin Palantir erau obligați să accepte termenii unei politici de utilizare specifice guvernului, pe care cofondatorul Anthropic, Jared Kaplan, a declarat că „interzicea supravegherea în masă a americanilor și războiul autonom letal”.
Disensiunile au început abia când guvernul a încercat să contracteze direct cu Anthropic. Ceea ce a atras mânia judecătoarei a fost faptul că, atunci când aceste neînțelegeri au devenit publice, au avut mai mult de-a face cu pedepsirea companiei decât cu simpla întrerupere a relațiilor cu aceasta. Și au urmat un tipar clar: postări pe rețele sociale înainte de acțiuni legale.
Pe 27 februarie, președintele Trump a postat pe Truth Social despre „nebuni de stânga” de la Anthropic și a îndrumat fiecare agenție federală să înceteze utilizarea AI-ului companiei. Aceasta a fost ecouată la scurt timp de secretarul Apărării, Pete Hegseth, care a declarat că va îndruma Pentagonul să eticheteze Anthropic drept risc pentru lanțul de aprovizionare. Însă, așa cum a constatat judecătoarea, Hegseth nu a finalizat setul specific de acțiuni necesare pentru o astfel de desemnare. Scrisorile trimise comisiilor congressionale, de exemplu, afirmau că au fost evaluate măsuri mai puțin drastice și au fost considerate imposibile, fără a oferi alte detalii.
Mai mult, guvernul a susținut că desemnarea ca risc pentru lanțul de aprovizionare era necesară deoarece Anthropic ar putea implementa un „întrerupător de siguranță” (kill switch), dar avocații săi au trebuit ulterior să admită că nu există nicio dovadă în acest sens, a scris judecătoarea. Postarea lui Hegseth a declarat și că „Niciun contractant, furnizor sau partener care face afaceri cu armata Statelor Unite nu poate desfășura nicio activitate comercială cu Anthropic”. Dar propriii avocați ai guvernului au recunoscut marți că Secretarul nu are puterea de a face acest lucru și au fost de acord cu judecătoarea că declarația nu avea „absolut niciun efect legal”.
Postările agresive au determinat-o pe judecătoare să concluzioneze că Anthropic avea motive solide să susțină că drepturile sale prevăzute de Primul Amendament au fost încălcate. Guvernul, a scris judecătoarea citând postările, „a încercat să pedepsească public Anthropic pentru „ideologia” și „retorica” sa, precum și pentru „aroganța” de a nu fi dispus să compromită aceste convingeri”. Etichetarea Anthropic drept risc pentru lanțul de aprovizionare ar fi fost în esență identificarea sa drept „sabotor” al guvernului, pentru care judecătoarea nu a văzut dovezi suficiente.
Dean Ball, care a lucrat la politica AI pentru administrația Trump, dar a redactat un memoriu în sprijinul Anthropic, a descris ordinul judecătoarei ca „o hotărâre devastatoare pentru guvern, care constată că Anthropic are șanse să câștige în esență toate teoriile sale privind motivele pentru care acțiunile guvernului au fost ilegale și neconstituționale”.
Documentele judiciare prezintă un tipar destul de clar. Declarațiile publice făcute de oficiali și de Președinte nu s-au aliniat deloc cu ceea ce legea spune că ar trebui să se întâmple într-o dispută contractuală de acest gen, iar avocații guvernului au trebuit în mod constant să creeze justificări pentru atacurile pe rețelele sociale la adresa companiei după fapt. Liderii Pentagonului și ai Casei Albe știau că urmarea opțiunii nucleare va declanșa o bătălie juridică; Anthropic a promis pe 27 februarie că va contesta desemnarea de risc pentru lanțul de aprovizionare cu zile înainte ca guvernul să o depună oficial pe 3 martie.
Faptul că au continuat oricum sugerează că conducerea de nivel înalt a fost, cel puțin să spunem, distrasă în timpul primelor cinci zile ale războiului din Iran, lansând lovituri aeriene în timp ce compilau dovezi că Anthropic era un sabotor al guvernului, când ar fi putut pur și simplu să întrerupă legăturile cu Anthropic prin mijloace mai simple.
Chiar dacă Anthropic câștigă în cele din urmă, guvernul are alte mijloace de a exclude compania de la lucrări guvernamentale. Contractanții de apărare care doresc să rămână în relații bune cu Pentagonul, de exemplu, au acum puține motive să lucreze cu Anthropic, chiar dacă nu este marcată drept risc pentru lanțul de aprovizionare.
„Cred că este sigur să spunem că există mecanisme pe care guvernul le poate folosi pentru a aplica un anumit grad de presiune fără a încălca legea”, spune Charlie Bullock, cercetător principal la Institutul pentru Drept și AI. „Depinde cât de investit este guvernul în pedepsirea Anthropic.” Din dovezile de până acum, administrația dedică timp și atenție la nivel înalt pentru a câștiga un război cultural al AI. În același timp, Claude este aparent atât de important pentru operațiunile sale, încât chiar președintele Trump a spus că Pentagonul avea nevoie de șase luni pentru a înceta utilizarea sa.
Casa Albă cere loialitate politică și aliniere ideologică de la companiile de AI de top, dar cazul împotriva Anthropic, cel puțin pentru moment, expune limitele influenței sale. Acest conflict ridică întrebări profunde despre viitorul relației dintre guvern și companiile tehnologice, despre rolul instanțelor în limitarea puterii executive și despre modul în care dezvoltarea AI-ului va fi modelată de considerente politice în anii care vin.
Tactica războiului cultural al Pentagonului împotriva Anthropic a dat greș: O analiză a conflictului dintre guvernul SUA și gigantul AI