Filtrează articolele

AI

Gapul dintre SUA și China în domeniul AI se închide, dar preocupările privind AI-ul responsabil cresc

Gapul dintre SUA și China în domeniul AI se închide, dar preocupările privind AI-ul responsabil cresc
Un nou raport al Institutului pentru Inteligență Artificială Centrată pe Om de la Universitatea Stanford, publicat în această săptămână, a dus la lumină concluzii surprinzătoare privind echilibrul de putere în domeniul inteligente artificiale între Statele Unite și China. Conform analizei detaliate a 423 de pagini, numită AI Index 2026, presupunerea de lunga durată că SUAțin un avantaj tehnologic decisiv în performanța modelelor de AI nu este susținută de date. De fapt,'écartul dintre cele două superputeri tehnologice s-a îngustat semnificativ și, în unele perioade, a chiar inversat direcția.

În februarie 2025, modelul DeepSeek-R1, dezvoltat de o companie chinesă, a atins pentru scurt timp performanța celui de-al leaderului american, sugerând că avantajul SUA nu este absolut. Pe lângă acest moment semnificativ, datele din martie 2026 arată că modelul de top al Anthropic, Claude Opus 4.5, conduce cu o margine de doar 2,7% peste cel mai bun model chinez – o diferență atât de mică încât poate fi compensată de o singură actualizare sau o nouă arhitectură de model. Acest lucru demonstrează clar că lideratul SUA în performanța modelelor de AI nu este mai un avantaj durabil, ci o poziție vulnerabilă și în continuă schimbare.

Deși SUA continuă să producă mai multe modele de top – 50 în 2025 comparativ cu 30 la China – și să dețină un număr mai mare de brevete de impact ridicat, China a depășit SUA în alte indicatori esențiali: volumul de publicații, numărul de citări și numărul de brevete acordate. De exemplu, părțile Chineze în topul 100 celor mai citești articole de AI au crescut de la 33 în 2021 la 41 în 2024. În plus, Coreea de Sud conduce lumea în numărul de brevete de AI per capita, indicând o distribuție mai egală a inovației în Asia de Est.

Un alt aspect critic evidențiat de raport este dependența extremă a infrastructurii globale de AI de la un singur furnizor: TSMC. Deși SUA găzduiește 5.427 de centre de date – mai mult de zece ori decât orice altă țară – aproape toate cipurile de AI de frontă sunt fabricate în unitățile TSMC din Taiwan. Deși o extensie a TSMC în SUA a început să funcționeze în 2025, dependența de un singur punct de fabricație creează o vulnerabilitate strategică majoră pentru toată industria globală de AI.

Totuși, cel mai alarmant aspect al raportului nu este tehnologic, ci etic și de guvernare. Deși aproape toți dezvoltatorii de modele de frontă publică rezultate pe benchmarkele de performanță (cum ar fi MMLU, GSM8K sau HumanEval), foarte puțini fac lo same pentru benchmarkele de AI responsabil. Tabelul de benchmark al raportului pentru siguranță, echitate și agenție umană arată că majoritatea intrărilor sunt goale. Doar Claude Opus 4.5 raportează rezultate pe mai mult de două benchmarkele de AI responsabil urmăriți, iar doar GPT-5.2 menționea StrongREJECT – un metric de rezistență la jailbreak-uri și manipulare.

Această lipsă de transparență nu înseamnă necesar că laboratorii de frontă nu efectuează teste interne de siguranță sau aliniere. Pe contra, raportul recognizează că activitățile de red-teaming și aliniere au loc, dar acestea „rar sunt dezvăluite folosind un set comun, extern comparabil de benchmarke”. În consecință, compararea externă în dimensiunile de siguranță a AI devine practic imposibilă pentru majoritatea modelelor, ceea ce obstructează responsabilitatea și progresul colectiv.

Această opacitate coincide cu o creștere alarmantă a incidentelor legate de AI. Conform bazei de date AI Incident Database, numărul incidentelor documentate a crescut de la 233 în 2024 la 362 în 2025. OECD’s AI Incidents and Hazards Monitor, care folosește un pipeline mai automatizat și larg, a înregistrat un pic de 435 de incidente lunare în ianuarie 2026, cu o medie mobilă de șase luni de 326. În același timp, capacitatea organizațiilor de a răspunde la aceste incidente se deterioră: conform unui sondaj realizat de AI Index în parteneriat cu McKinsey, ponderea organizațiilor care evaluează răspunsul la incidentele AI ca „excelent” a scăzut de la 28% în 2024 la 18% în 2025, iar cele care îl consideră „bun” au scăzut de la 39% la 24%. În contrast, ponderea organizațiilor care au experimentat de la trei la cinci incidente a crescut de la 30% la 50%.

Raportul identifică și o tensiune structurală în eforturile de a face AI-ul mai responsabil: îmbunătățirile într-o dimensiune adesea duc la degradarea în alta. De exemplu, creșterea siguranței poate reduce acuratețea, îmbunătățirea confidențialității poate afecta echitatea, iar creșterea explainabilității poate afecta viteza sau performanța. Deși aceste comerci sunt cunoscute, nu există un cadru stabilit pentru gestionarea lor, iar în multe dimensiuni – inclusiv echitate și explainabilitate – datele standardizate necesare pentru monitorizarea progresului în timp nu există încă.

Opinia publică reflectă această tensiune. Deși 59% dintre persoanele sondate la nivel global consideră că beneficiile AI-ului depășesc dezavantajele (în creștere de la 55% în 2024), 52% spun că produsele și serviciile de AI le fac să se simtă îngrijorate – o creștere de două puncte procentuale într-un an. Acest fenomen – optimizarea crescută simultană cu îngrijorarea – sugerează un public care adoptează AI-ul tot mai larg, dar devine tot mai skeptic privind direcția în care se dezvoltă tehnologia.

Dezvoltarea acestui scepticism este mai accentuată în privința impactului asupra locurilor de muncă. În timp ce 73% dintre experții în AI așteaptă un impact pozitiv al AI-ului asupra modului în care oamenii lucrează, doar 23% din publicul general împărtășește această vedere – o diferență de 50 de puncte. La nivel economic, diferența este de 48 de puncte (69% dintre experți sunt optimisti față de 21% din public). În domeniul medical, experții sunt mult mai optimisti (84%) comparativ cu publicul (44%). Aceste diferențe sunt semnificative pentru că nădejdea publică influențează direct rezultatele reglementare, iar acestea, la rândul lor, determină modul în care AI-ul este implementat în societate.

Pe acest fond, un rezultat particularmente concerning este că SUA au raportat cel mai níveu de încredere în guvernul propriu pentru a reglementa AI-ul responsabil – doar 31%, comparativ cu o medie globală de 54%. Țările din Sud-Est Asiatic sunt cele mai încrezătoare: Singapore la 81% și Indonezia la 76%. De asemenea, între 25 de țări sondate de Pew Research Centre în 2025, mediana de 53% a respondentilor a încredere în UE pentru a reglementa AI-ul eficient, comparativ cu 37% pentru SUA și doar 27% pentru China.

În concluzie, raportul Stanford AI Index 2026 descompune mitul unui liderat american durabil în AI și înlocuiește-o cu o imagine mult mai complexă: o competiție strânsă în performanță, o dependență periculoasă de la TSMC, o lipsă alarmantă de transparență în domeniul siguranței și eticii, și o publică care, deși adoptează AI-ul tot mai rapid, devine tot mai incertă și puțin încredătoare în capacitatea instituțiilor de a-i conduce dezvoltarea într-un sens sigur și echitabil. Fără un cadru comun de benchmarke pentru AI responsabil și fără o creștere a transparenței și responsabilității, riscurile de a avansa tehnologic fără a avea în vedere consecințele sociale pot deveni prea mari pentru a fi ignorate.

Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.