Filtrează articolele

Război

Unde ar putea apărea tehnologia OpenAI în conflictul din Iran: O nouă eră a războiului alimentat de AI

Unde ar putea apărea tehnologia OpenAI în conflictul din Iran: O nouă eră a războiului alimentat de AI
La puțin peste două săptămâni de la încheierea unui acord controversat între OpenAI și Pentagon, care permite utilizarea inteligenței artificiale în medii clasificate, lumea tehnologică și cea militară se confruntă cu întrebări profunde și îngrijorătoare. Această poveste, care a apărut inițial în buletinul informativ The Algorithm, dezvăluie nuanțele unui parteneriat care marchează o cotitură majoră în doctrina militară americană și în etica companiilor de tehnologie. Acordul a stârnit reacții puternice, având în vedere că OpenAI, condusă de Sam Altman, a ales să își calce pe propriile principii fondatoare, deschizând ușa pentru o integrare fără precedent a modelelor sale generative în inima operațiunilor de luptă.

Întrebarea care arde pe buzele tuturor este: ce permite, de fapt, acest acord? Deși Sam Altman a declarat public că armata americană nu va folosi tehnologia sa pentru a construi arme autonome, realitatea este mult mai nuanțată. Acordul cere pur și simplu armatei să respecte propriile sale regulamente, care sunt, în mod istoric, destul de permisive în ceea ce privește dezvoltarea și utilizarea armelor semi-autonome. O altă afirmație cheie a OpenAI, conform căreia acordul ar preveni utilizarea tehnologiei pentru supravegherea internă a cetățenilor, pare la fel de dubioasă în contextul în care granițele dintre supravegherea externă și cea internă devin din ce în ce mai fluide.

Motivațiile din spatele acestei decizii rămân un subiect de speculație intensă. Nu este pentru prima dată când un gigant tehnologic îmbrățișează contracte militare, după ce a jurat că nu va face niciodată asta, dar viteza cu care s-a produs această schimbare de direcție la OpenAI este remarcabilă. Există, desigur, argumentul financiar: antrenarea modelelor de inteligență artificială de ultimă generație costă miliarde de dolari, iar compania este într-o continuă vânătoare de venituri, explorând chiar și surse controversate precum reclamele. Totuși, există și o dimensiune ideologică pe care Altman o invocă frecvent: democrațiile liberale (și forțele lor armate) trebuie să aibă acces la cea mai puternică inteligență artificială pentru a putea concura eficient cu China. Această argumentare poziționează tehnologia nu doar ca un instrument comercial, ci ca un activ strategic esențial în marea putere globală.

Însă, întrebarea cu adevărat consequentială este ce se va întâmpla în continuare. OpenAI a decis că se simte confortabil operând chiar în inima haotică a luptelor, într-un moment în care Statele Unite își intensifică loviturile împotriva Iranului, un context în care inteligența artificială joacă un rol mai mare ca niciodată. Așadar, unde exact ar putea apărea tehnologia OpenAI în acest conflict și ce aplicații vor fi tolerate de clienți și, mai important, de proprii angajați?

Deși acordul cu Pentagonul este deja în vigoare, nu este clar când tehnologia OpenAI va fi pregătită pentru medii clasificate. Integrarea este un proces complex, necesitând legătura cu alte instrumente militare existente. Este de așteptat ca xAI a lui Elon Musk, care a semnat recent propriul acord cu Pentagonul pentru modelul Grok, să treacă printr-un proces similar. Presiunea pentru accelerarea acestor proceduri este imensă, mai ales în contextul controverselor generate de refuzul Anthropic de a permite utilizarea AI-ului său pentru „orice utilizare legală”. Acest refuz a dus la intervenția directă a administrației Trump, care a ordonat armatei să nu mai folosească tehnologia Anthropic, compania fiind etichetată ca un risc pentru lanțul de aprovizionare – o desemnare pe care Anthropic o contestă acum în instanță.

Dacă conflictul cu Iranul este încă în desfășurare în momentul în care tehnologia OpenAI va fi integrată în sisteme, care vor fi utilizările sale practice? O discuție recentă cu un oficial din domeniul apărării sugerează un scenariu care părea science-fiction acum doar câțiva ani: un analist uman ar putea introduce o listă de potențiale ținte în modelul AI, cerându-i să analizeze informațiile și să prioritizeze loviturile. Modelul ar putea procesa informații logistice complexe, precum locația anumitor avioane sau provizii, și ar putea analiza o multitudine de intrări sub formă de text, imagine și video. Un om ar fi apoi responsabil pentru verificarea manuală a acestor rezultate. Totuși, acest lucru ridică o întrebare evidentă și tulburătoare: dacă o persoană verifică cu adevărat ieșirile AI-ului, cum reușește sistemul să accelereze deciziile de vizare și atac? Răspunsul sugerează o încredere tot mai mare, poate nejustificată, în capacitatea mașinii de a sintetiza informații mai repede decât mintea umană.

De ani de zile, armata folosește un alt sistem AI, numit Maven, capabil să analizeze automat înregistrări video de la drone pentru a identifica posibile ținte. Este foarte probabil că modelele OpenAI, la fel ca Claude de la Anthropic, vor oferi o interfață conversațională peste acest sistem, permițând utilizatorilor să ceară interpretări ale informațiilor clasificate și recomandări tactice. Este greu de supraestimat cât de nou este acest lucru: dacă AI-ul a făcut mult timp analize pentru armată, extrăgând informații din oceane de date, utilizarea sfatului AI-ului generativ pentru a decide acțiuni concrete pe teren este testată pentru prima dată cu seriozitate în Iran.

La sfârșitul anului 2024, OpenAI a anunțat un parteneriat strategic cu Anduril, o companie care produce atât drone, cât și tehnologii contra-drone. Acordul stipulează că OpenAI va colabora cu Anduril pentru analiza în timp real a dronelor care atacă forțele americane, ajutând la doborârea lor. Un purtător de cuvânt al OpenAI a precizat că acest lucru nu încalcă politicile companiei, care interzic „sistemele concepute pentru a răni oamenii”, deoarece tehnologia vizează dronele, nu oamenii. Totuși, această distincție este din ce în ce mai greu de menținut în războiul modern, unde dronele sunt extensii directe ale operatorilor umani.

Miza este extrem de ridicată. Anduril oferă o suită completă de tehnologii contra-drone bazelor militare din întreaga lume, iar interfața sa, numită Lattice, este punctul central unde soldații pot controla totul, de la apărarea anti-drone la rachete și submarine autonome. Compania câștigă contracte masive – 20 de miliarde de dolari doar săptămâna trecută – pentru a-și conecta sistemele cu echipamentele militare vechi și a suprapune un strat de AI peste ele. Dacă modelele OpenAI se dovedesc utile, Lattice este conceput să le integreze rapid în întregul stiva de război.

În afara câmpului de luptă direct, Pentagonul sub conducerea secretarului Pete Hegseth a început să încurajeze utilizarea AI-ului în roluri administrative. Platforma GenAI.mil permite personalului militar să acceseze în siguranță modele AI comerciale pentru sarcini precum contracte, logistică și achiziții. Google Gemini a fost printre primele disponibile, urmat de Grok de la xAI și, în cele din urmă, de modelele OpenAI. Deși utilizarea ChatGPT pentru sarcini neclasificate pare inofensivă, aceasta servește unei atitudini „all-in” față de AI pe care Hegseth o promovează neîncetat. Mesajul este clar: AI transformă fiecare aspect al modului în care SUA luptă, de la deciziile de vizare a țintelor până la hârtii. OpenAI câștigă din ce în ce mai mult o bucată din acest întreg, marcând o nouă eră în care liniile dintre tehnologia comercială și mașinăria morții devin din ce în ce mai subțiri.

Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.