„Aceste acorduri accelerează transformarea către stabilirea armatei Statelor Unite ca o forță de luptă bazată pe AI și vor întări capacitatea războinicilor noștri de a menține superioritatea decizională în toate domeniile de război”, se arată în comunicatul oficial al DoD. Declarația subliniază angajamentul Pentagonului de a integra AI în operațiunile sale, de la analiza datelor până la luarea deciziilor tactice.
Contextul acestor acorduri este marcat de o dispută controversată cu Anthropic, compania din spatele modelului Claude AI. Pentagonul dorea acces nelimitat la instrumentele AI ale Anthropic, însă laboratorul de AI a insistat asupra unor garanții pentru a preveni utilizarea tehnologiei sale în supravegherea în masă a cetățenilor americani sau în arme autonome. Conflictul a ajuns în instanță, iar în martie, Anthropic a obținut o hotărâre judecătorească preliminară împotriva încercării Pentagonului de a eticheta compania drept „risc pentru lanțul de aprovizionare”.
Pentagonul a declarat că va continua să construiască o arhitectură care să prevină dependența de un singur furnizor de AI și să asigure flexibilitate pe termen lung pentru Forțele Întrunite. „Accesul la o suită diversă de capabilități AI din întregul ecosistem tehnologic american rezilient va oferi războinicilor instrumentele de care au nevoie pentru a acționa cu încredere și a proteja națiunea împotriva oricărei amenințări”, se arată în comunicat.
Tehnologiile și modelele AI ale companiilor menționate vor fi implementate în medii de securitate de nivel 6 (IL6) și nivel 7 (IL7), cele mai înalte clasificări de securitate pentru date și sisteme informatice considerate critice pentru securitatea națională. Aceste medii necesită protecție fizică strictă, controale de acces riguroase și audituri regulate. Scopul este de a eficientiza sinteza datelor, de a îmbunătăți înțelegerea situațională și de a sprijini procesul decizional al militarilor.
Pentagonul a dezvăluit că peste 1,3 milioane de angajați ai DoD au folosit deja platforma sa securizată pentru AI generativ, GenAI.mil, care oferă acces la modele de limbaj mari (LLM-uri) și alte instrumente AI în medii cloud aprobate de guvern. Platforma este concepută în principal pentru sarcini neclasificate, cum ar fi cercetarea, redactarea documentelor și analiza datelor.
Această mișcare face parte dintr-o strategie mai amplă a Pentagonului de a diversifica furnizorii de AI, după ce a întâmpinat rezistență din partea unor companii precum Anthropic. În timp ce Google, SpaceX și OpenAI au acceptat termenii Pentagonului, Anthropic a refuzat să cedeze, invocând riscuri etice și de securitate. Conflictul a atras atenția asupra tensiunii dintre nevoile militare și principiile etice ale companiilor de AI.
Nvidia, cunoscută pentru procesoarele sale grafice (GPU-uri) esențiale pentru antrenarea modelelor AI, va furniza hardware și software pentru centrele de date clasificate. Microsoft, prin platforma sa Azure Government, va oferi servicii cloud securizate, iar AWS, prin AWS GovCloud, va asigura infrastructura necesară. Reflection AI, o companie mai mică specializată în AI pentru apărare, va contribui cu soluții personalizate.
Analiștii consideră că aceste acorduri reprezintă un pas semnificativ spre integrarea AI în operațiunile militare, dar ridică și întrebări legate de controlul și utilizarea acestor tehnologii. Pe de o parte, AI poate îmbunătăți viteza și acuratețea deciziilor pe câmpul de luptă, reducând riscurile pentru soldați. Pe de altă parte, există temeri legate de posibila utilizare a AI în arme autonome sau în supravegherea în masă, aspecte pe care Anthropic le-a semnalat.
Pentagonul a încercat să atenueze aceste îngrijorări, subliniind că acordurile sunt limitate la „utilizarea operațională legală” și că vor exista mecanisme de supraveghere. Cu toate acestea, criticii susțin că termenii sunt vagi și că nu există suficiente garanții împotriva abuzurilor.
În paralel, DoD continuă să investească în cercetare și dezvoltare AI, inclusiv în programe de inteligență artificială pentru război electronic, recunoaștere și logistică. Parteneriatele cu companii private sunt esențiale pentru a accesa cele mai noi tehnologii, dar și pentru a menține un avantaj competitiv față de adversari precum China și Rusia.
Un aspect notabil este că Pentagonul a ales să colaboreze cu mai mulți furnizori, evitând dependența de un singur gigant tehnologic. Această strategie de diversificare este văzută ca o mișcare inteligentă, având în vedere riscurile geopolitice și comerciale. De asemenea, DoD a semnat acorduri cu companii emergente precum Reflection AI, ceea ce indică o deschidere către inovația din sectorul privat.
Impactul acestor acorduri se va resimți nu doar în domeniul militar, ci și în cel civil. Tehnologiile dezvoltate pentru uz militar pot fi ulterior adaptate pentru aplicații civile, de la securitate cibernetică la asistență medicală. În același timp, implicarea marilor companii tech în proiecte militare poate afecta reputația acestora, mai ales în rândul angajaților și al publicului preocupat de etică.
În concluzie, semnarea acestor acorduri marchează o nouă etapă în cursa pentru supremația AI în domeniul militar. Pentagonul își consolidează parteneriatele cu liderii industriei, în timp ce încearcă să gestioneze riscurile etice și de securitate. Rămâne de văzut cum vor evolua aceste colaborări și dacă vor apărea noi conflicte similare celui cu Anthropic.
De ce este important:
Aceste acorduri sunt cruciale deoarece semnalează o schimbare majoră în modul în care armata americană integrează inteligența artificială în operațiunile sale clasificate. Prin colaborarea cu giganți tech precum Nvidia, Microsoft și AWS, Pentagonul accelerează transformarea către o forță de luptă bazată pe AI, ceea ce poate oferi un avantaj strategic semnificativ. În același timp, disputa cu Anthropic evidențiază tensiunile dintre nevoile militare și principiile etice, un subiect care va continua să domine dezbaterile publice. Pentru cititori, acest articol oferă o perspectivă asupra modului în care tehnologia AI modelează viitorul apărării și securității naționale.