Filtrează articolele

AI

Guvernul SUA își extinde furnizorii de AI și reanalizează rolul Anthropic

Guvernul SUA își extinde furnizorii de AI și reanalizează rolul Anthropic
Administrația americană a adăugat patru noi companii de inteligență artificială pe lista furnizorilor săi preferați, Pentagonul semnând acorduri cu Microsoft, Reflection AI (care încă nu a lansat un model disponibil publicului), Amazon și Nvidia. Aceste companii se alătură OpenAI, xAI și Google, permițând Departamentului Apărării să le utilizeze produsele „pentru orice utilizare legală”. Această formulare a stat la baza recentului conflict dintre Anthropic AI și administrația americană, CEO-ul Darius Amodei susținând că ar permite guvernului să folosească tehnologia Anthropic pentru supravegherea populației civile și producerea de arme autonome – domenii pe care compania dorea să le excludă.

Pentagonul a anulat un contract de 200 de milioane de dolari cu Anthropic, decizie pe care compania a contestat-o rapid în instanță, invocând pierderi de milioane de dolari din cauza guvernului și a altor entități influențate de această măsură. Administrația Trump a catalogat compania drept „risc pentru lanțul de aprovizionare”, prima dată când o companie americană primea un astfel de statut. Declarațiile ulterioare ale surselor guvernamentale au descris Anthropic drept o companie „woke”.

Comunicatul Pentagonului privind noile acorduri subliniază: „Departamentul va continua să construiască o arhitectură care să prevină dependența de un singur furnizor de AI și să asigure flexibilitatea pe termen lung a forțelor comune”. Tehnologiile vor „oferi războinicilor instrumentele necesare pentru a acționa cu încredere și a proteja națiunea împotriva oricărei amenințări”. Sistemele de AI vor fi utilizate pentru „Nivelurile de Impact” șase (date secrete) și șapte (materiale strict secrete), contribuind la crearea unei „forțe de luptă bazate pe AI”.

În prezent, utilizarea AI generative de către Pentagon se limitează în mare parte la sarcini neclasificate din cadrul diferitelor departamente de apărare, cum ar fi redactarea și rezumarea documentelor și cercetarea. Noii furnizori vor ajuta forțele de apărare să „eficientizeze sinteza datelor”, dar și să „îmbunătățească înțelegerea situațională și să sporească capacitatea de decizie a războinicilor în medii operaționale complexe”. Nu este clar dacă aceste descrieri includ și desfășurări interne pe teritoriul SUA.

Extinderea gamei de furnizori de AI pentru armata și forțele de securitate americane le va face mai imune la schimbările de atitudine ale unor furnizori individuali care ar putea afecta operațiunile militare și de securitate. Prin lărgirea bazei tehnologice, capriciile personale ale liderilor companiilor devin mai puțin relevante. Google și Amazon au concediat anterior angajați care au protestat împotriva utilizării tehnologiei lor în armament și război.

Modelul Claude al Anthropic fusese utilizat pe materiale clasificate prin intermediul setului de instrumente Maven al Palantir, un rol pe care noii semnatari l-ar putea înlocui. Cu toate acestea, modelul Mythos al companiei este raportat a fi utilizat în prezent de Agenția Națională de Securitate (NSA) în contextul presupuselor sale capacități de război cibernetic și apărare. La nivel global, Mythos este evaluat de 40 de organizații, dintre care doar 12 au fost numite, MI5 din Marea Britanie și NSA fiind considerate printre celelalte 28.

Potrivit Axios, administrația americană ar putea da înapoi în ceea ce privește poziția sa publică recentă față de Anthropic. Site-ul a declarat că are o sursă la Casa Albă care afirmă că administrația încearcă să găsească modalități de a „salva fața și a-i aduce înapoi”. Se pare că modelul de codare Claude al Anthropic este încă utilizat de organizațiile de securitate ale guvernului american, inclusiv pe parcursul evenimentelor recente. Potrivit Casei Albe, guvernul SUA „continuă să se angajeze proactiv în întreaga administrație și industrie pentru a proteja țara și poporul american, inclusiv prin colaborarea cu laboratoarele de frontieră AI”.

De ce este important:


Această extindere a furnizorilor de AI pentru Pentagon marchează o schimbare strategică majoră: administrația americană dorește să evite dependența de un singur furnizor și să își asigure flexibilitatea operațională. Conflictul cu Anthropic evidențiază tensiunile dintre etica AI și nevoile de securitate națională, iar decizia de a reanaliza rolul companiei sugerează că guvernul recunoaște valoarea tehnologiei sale, chiar și în contextul controverselor. Pe termen lung, această dinamică va influența modul în care companiile de AI își definesc limitele de utilizare și relația cu statul, având implicații globale pentru reglementarea și adoptarea inteligenței artificiale în domeniul militar.

Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.