Filtrează articolele

Război

Pentagonul pregătește un teren revoluționar pentru antrenarea modelelor AI pe date clasificate: o nouă eră în războiul digital

Pentagonul pregătește un teren revoluționar pentru antrenarea modelelor AI pe date clasificate: o nouă eră în războiul digital
Într-o mișcare care ar putea redefini granițele dintre tehnologia comercială și securitatea națională, Pentagonul este în discuții avansate pentru a stabili medii securizate destinate companiilor de inteligență artificială. Scopul este de a permite acestora să antreneze versiuni specifice ale modelelor lor pe date clasificate, conform informațiilor obținute de MIT Technology Review. Această inițiativă marchează o schimbare fundamentală de paradigmă în modul în care armata americană integrează inteligența artificială generativă în operațiunile sale strategice.

Până în prezent, modelele de inteligență artificială generativă utilizate în medii clasificate, precum Claude de la Anthropic, au operat sub o constrângere majoră: puteau răspunde la întrebări bazate pe date sensibile, dar nu aveau capacitatea de a învăța din informațiile la care aveau acces. Cu alte cuvinte, aceste sisteme funcționau ca niște enciclopedii interogabile, dar nu își îmbogățează baza de cunoștințe în timp real. Totul se schimbă acum. Permisiunea de a antrena modele direct pe date clasificate ar reprezenta o dezvoltare fără precedent, care deschide ușa către o eficiență sporită, dar și către riscuri de securitate complet noi și greu de anticipat.

Noile frontiere ale războiului algoritmic

Discuțiile purtate la cel mai înalt nivel al apărării americane vizează crearea unor „bule” digitale securizate. În acest scenariu, o copie a unui model AI ar fi izolată într-un centru de date acreditat pentru proiecte guvernamentale clasificate, unde ar fi „hrănită” cu informații precum rapoarte de supraveghere, evaluări ale câmpului de luptă sau date critice despre capacitățile inamice. Un oficial al apărării americane, care a vorbit sub protecția anonimatului, a confirmat că antrenarea modelelor pe astfel de date este așteptată să le facă mult mai precise și eficiente în anumite sarcini critice.

Această evoluție nu vine într-un vid contextual. Cererea pentru modele mai puternice este în creștere exponentială, alimentată de o agendă politică și militară agresivă. Pentagonul a încheiat deja acorduri cu giganți ai industriei precum OpenAI și xAI (condus de Elon Musk) pentru a opera modelele lor în medii clasificate. Mai mult, conflictul în escaladare cu Iranul a accelerat implementarea unei noi doctrine care vizează transformarea armatei americane într-o „forță de luptare AI-first” (prioritară AI). Aplicațiile actuale sunt deja tangible: analiza țintelor strategice în Iran și redactarea documentelor administrative sunt doar câteva exemple.

Riscurile inerente: când secretele devin „cunoștințe”

Deși promisiunea unei eficiențe sporite este tentantă, experții avertizează asupra unor riscuri semnificative. Aalok Mehta, directorul Wadhwani AI Center la Center for Strategic and International Studies și un veteran al politicii AI de la Google și OpenAI, subliniază că trecerea de la simpla interogare la antrenare schimbă fundamental ecuația de risc. Principalul pericol este „înmormântarea” informațiilor clasificate în parametrii modelului, de unde acestea ar putea fi extrase de utilizatori neautorizați.

„Vă puteți imagina, de exemplu, un model care are acces la o anumită inteligență umană sensibilă – cum ar fi numele unui agent secret – și care scurge acea informație către o parte a Departamentului Apărării care nu ar trebui să aibă acces la ea”, explică Mehta. Acest scenariu de „scurgere internă” ar putea compromite operațiuni întregi și pune în pericol vieți umane. Dacă un model este partajat între diverse departamente militare, fiecare cu niveluri diferite de clasificare și nevoi informaționale, delimitarea accesului devine o problemă complexă de inginerie și securitate.

Totuși, Mehta oferă o notă de optimism în ceea ce privește securitatea externă: „Dacă configurați corect acest sistem, riscul ca acele date să apară pe internetul public sau să revină la OpenAI va fi foarte mic”. Soluția tehnică implică izolarea completă a modelului antrenat, asigurându-se că „învățătura” sa rămâne în incinta centrelor guvernamentale.

Infrastructura și provocările logistice

Implementarea acestui plan nu este lipsită de provocări logistice și tehnice. Guvernul american are deja o parte din infrastructura necesară. Palantir, gigantul în domeniul securității datelor, a câștigat contracte substanțiale pentru construirea unor medii securizate prin care oficialii pot interoga modele AI despre subiecte clasificate fără a trimite informațiile înapoi companiilor producătoare. Totuși, utilizarea acestor sisteme pentru antrenare – un proces care necesită volume masive de date și putere de calcul considerabilă – rămâne un teritoriu necunoscut.

Înainte de a permite acest nou tip de antrenament, oficialii Pentagonului intenționează să evalueze riguros acuratețea și eficiența modelelor antrenate pe date neclasificate, cum ar fi imaginile satelitare disponibile comercial. Armata are o istorie îndelungată în utilizarea modelelor de vedere computerizată (computer vision) pentru a identifica obiecte în imaginile colectate de drone și avioane, dar integrarea modelelor de limbaj mari (LLM) în acest ecosistem este un pas mult mai complex.

Viitorul analizei informaționale

Modelele de limbaj mari și chatboții au creat deja versiuni ajustate pentru munca guvernamentală, precum „Claude Gov” de la Anthropic, care este conceput să funcționeze în mai multe limbi și în medii securizate. Dar antrenarea directă pe date clasificate ar putea debloca capacități care astăzi par aparțină science-fiction-ului. Mehta sugerează că există numeroase sarcini gestionate în prezent de analiști umani care ar putea fi preluate de AI. Acestea ar putea include învățarea identificării indiciilor subtile într-o imagine, la fel cum procedează un analist experimentat, sau conectarea informațiilor noi cu un context istoric vast.

Datele clasificate ar putea fi extrase din cantități aproape de neconceput de text, audio, imagini și video, în multe limbi, pe care serviciile de informații le colectează zilnic. Este o resursă imensă, astăzi subutilizată din cauza lipsei capacității umane de procesare. Inteligența artificială ar putea fi cheia pentru a transforma acest ocean de date brute în informații acționabile.

Concluzie: O cursă contra cronometru

Memorandumul semnat de Secretarul Apărării, Pete Hegseth, în ianuarie, a declanșat o cursă accelerată pentru incorporarea AI. De la utilizarea în luptă, unde AI-ul a clasat liste de ținte și a recomandat priorități de atac, până la roluri administrative, prezența algoritmilor este în creștere. Totuși, capacitatea exactă a modelelor antrenate pe date secrete rămâne un subiect păstrat în cel mai strict secret. Așa cum subliniază Mehta, Departamentul Apărării are toate motivele să păstreze confidențialitatea acestor capacități pentru a nu oferi adversarilor indicii despre forța militară americană. În acest nou peisaj, linia dintre inovație și vulnerabilitate este mai subțire ca niciodată.

Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.