Filtrează articolele

AI

Microsoft, Google și xAI deschid ușa guvernului SUA pentru testarea securității modelelor AI

Microsoft, Google și xAI deschid ușa guvernului SUA pentru testarea securității modelelor AI
Într-o mișcare care subliniază tensiunile tot mai mari dintre inovația tehnologică și securitatea națională, giganții tech Microsoft, Google și xAI (compania lui Elon Musk) au anunțat că vor permite guvernului federal al Statelor Unite acces la cele mai noi modele de inteligență artificială pentru testarea riscurilor de securitate. Acordul, semnat marți cu Centrul pentru Standarde și Inovație în Inteligența Artificială (CAISI) din cadrul Departamentului Comerțului, vine pe fondul îngrijorărilor legate de capacitățile tot mai avansate ale AI-ului, inclusiv modelul Mythos de la Anthropic, despre care se spune că ar putea fi folosit de hackeri pentru atacuri cibernetice de o amploare fără precedent.

Conform noii înțelegeri, guvernul american va putea evalua modelele înainte de lansare și va efectua cercetări pentru a determina capacitățile și riscurile de securitate. Aceasta îndeplinește o promisiune făcută în iulie de administrația președintelui Donald Trump, care a cerut parteneriate cu companiile de tehnologie pentru a verifica modelele AI în privința „riscurilor pentru securitatea națională”.

Microsoft a declarat într-un comunicat că va colabora cu oamenii de știință din guvern pentru a testa sistemele AI „în moduri care să scoată la iveală comportamente neașteptate”. Împreună, vor dezvolta seturi de date și fluxuri de lucru comune pentru testarea modelelor companiei. Gigantul software a semnat un acord similar și cu Institutul de Securitate AI al Regatului Unit.

„O știință a măsurării independentă și riguroasă este esențială pentru a înțelege AI-ul de frontieră și implicațiile sale pentru securitatea națională”, a declarat Chris Fall, directorul CAISI, într-un comunicat. Centrul, care servește drept principal hub guvernamental pentru testarea modelelor AI, a efectuat deja peste 40 de evaluări, inclusiv pe modele de ultimă oră care nu sunt încă disponibile publicului. Dezvoltatorii predau adesea versiuni ale modelelor lor cu gardurile de siguranță eliminate, pentru ca centrul să poată investiga riscurile de securitate națională.

Această inițiativă se bazează pe acordurile din 2024 cu OpenAI și Anthropic, încheiate sub administrația președintelui Joe Biden, când CAISI era cunoscut sub numele de Institutul American pentru Siguranța Inteligenței Artificiale. Sub Biden, institutul s-a concentrat pe dezvoltarea testelor AI, definițiilor și standardelor voluntare de siguranță. A fost condus de consilierul tehnologic Elizabeth Kelly, care, potrivit profilului său de LinkedIn, s-a alăturat ulterior companiei Anthropic.

Anunțul vine la doar câteva zile după ce Pentagonul a semnat un acord cu șapte mari companii tech – Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection și SpaceX – pentru a utiliza sistemele lor AI în rețele informatice clasificate. Departamentul Apărării a declarat că acordul va oferi resurse pentru „a spori capacitatea de luare a deciziilor a militarilor în medii operaționale complexe”. O absență notabilă de pe această listă este Anthropic, după disputa publică și lupta juridică cu administrația Trump privind etica și siguranța utilizării AI în război.

Pe Wall Street, acțiunile Microsoft au scăzut cu 0,6% în urma anunțului, în timp ce Alphabet, compania-mamă a Google, a crescut cu 1,3%. xAI nu este listată la bursă.

Analiză: De ce este această mișcare atât de importantă?



Decizia marilor companii de AI de a deschide ușile guvernului pentru testare reprezintă o schimbare de paradigmă în relația dintre sectorul privat și stat. Până acum, accesul guvernamental la modelele AI era limitat, iar companiile își păstrau secretele comerciale. Acum, însă, riscurile de securitate – de la atacuri cibernetice masive la utilizarea militară necontrolată – au devenit prea mari pentru a fi ignorate.

Modelul Mythos de la Anthropic, deși nu este încă disponibil public, a stârnit îngrijorări serioase la Washington. Se spune că ar putea fi folosit pentru a sparge sisteme de securitate, a genera dezinformare la scară largă sau a automatiza atacuri cibernetice. Prin urmare, testarea independentă devine o necesitate.

Cu toate acestea, există și voci critice care avertizează că un astfel de parteneriat ar putea duce la o supraveghere excesivă sau la limitarea inovației. De asemenea, absența Anthropic de la acordul Pentagonului arată că tensiunile etice rămân nerezolvate. Compania a contestat în instanță utilizarea AI-ului în scopuri militare, ceea ce a dus la o ruptură cu administrația Trump.

Pe termen lung, aceste acorduri ar putea stabili un precedent global. Alte țări, precum Regatul Unit, au început deja să încheie parteneriate similare. Rămâne de văzut dacă acest model de colaborare va deveni standardul internațional sau dacă va genera o cursă a înarmării în domeniul AI.

De ce este important:


Această colaborare între guvernul SUA și giganții tech marchează un punct de cotitură în reglementarea inteligenței artificiale. Pe măsură ce modelele devin tot mai puternice, riscurile pentru securitatea națională – de la atacuri cibernetice la utilizarea în război – cresc exponențial. Testarea independentă și transparentă poate preveni dezastre, dar ridică și întrebări legate de confidențialitate, control și etică. Este un pas necesar, dar care trebuie urmărit cu atenție pentru a nu sacrifica inovația în numele securității.

Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.