Filtrează articolele

AI

Guvernanța agenților AI intră în vizorul autorităților de reglementare: semnale de alarmă privind lacunele de control

Guvernanța agenților AI intră în vizorul autorităților de reglementare: semnale de alarmă privind lacunele de control
Pe măsură ce inteligența artificială pătrunde tot mai adânc în operațiunile financiare și nu numai, autoritățile de reglementare încep să tragă semnale de alarmă cu privire la modul în care sunt gestionate riscurile asociate agenților AI. Un avertisment recent venit din Australia, de la Autoritatea Australiană de Reglementare Prudențială (APRA), subliniază că practicile de guvernanță și asigurare a agenților AI sunt slab gestionate în sectorul financiar. Aceasta nu este doar o problemă locală – ci un semnal pentru întreaga industrie globală că este nevoie de o abordare mai riguroasă.

APRA a efectuat o revizuire țintită asupra unor entități reglementate de mari dimensiuni la sfârșitul anului 2025, pentru a evalua adoptarea AI și riscurile prudențiale conexe. Concluzia? Toate entitățile revizuite utilizau deja AI, dar maturitatea gestionării riscurilor și a rezilienței operaționale varia semnificativ. Consiliile de administrație manifestau un interes puternic pentru AI în scopuri de productivitate și experiență a clienților, însă multe dintre ele erau încă în faza de construire a cadrelor de gestionare a riscurilor AI.

Un aspect îngrijorător semnalat de APRA este dependența excesivă de prezentările și rezumatele furnizorilor de tehnologie. Consiliile nu acordau întotdeauna suficientă atenție riscurilor precum comportamentul imprevizibil al modelelor sau efectele pe care o defecțiune AI le-ar putea avea asupra operațiunilor critice. APRA a subliniat că boardurile trebuie să dezvolte o înțelegere mai profundă a AI pentru a putea stabili strategii și mecanisme de supraveghere coerente. Strategia AI ar trebui să fie aliniată cu apetitul pentru risc al instituției și să includă monitorizare și proceduri clare în caz de erori.

Entitățile reglementate testau sau introduceau AI în domenii precum ingineria software, trierea cererilor de despăgubire și procesarea cererilor de împrumut. Alte cazuri de utilizare includeau detectarea fraudelor și întreruperea tentativelor de înșelăciune, precum și interacțiunea cu clienții. Unele entități tratau riscul AI în aceiași termeni ca și riscul altor tehnologii, dar această abordare nu ține cont de comportamentul specific al modelelor și de prejudecățile acestora.

APRA a identificat lacune în monitorizarea comportamentului modelelor, în gestionarea schimbărilor și în dezafectarea acestora. A cerut inventare ale instrumentelor AI și desemnarea unor persoane responsabile pentru fiecare instanță AI. De asemenea, a subliniat necesitatea implicării umane în deciziile cu risc ridicat.

Securitatea cibernetică a fost un alt domeniu de îngrijorare. Adoptarea AI modifică mediul de amenințare prin adăugarea unor noi căi de atac, cum ar fi injecția de prompturi și integrări nesigure. Practicile de gestionare a identității și accesului nu s-au adaptat în unele cazuri la elemente non-umane, cum ar fi agenții AI. Volumul dezvoltării software asistate de AI pune presiune asupra controalelor de schimbare și lansare. APRA a cerut aplicarea de controale asupra fluxurilor de lucru agentice și autonome, inclusiv gestionarea accesului privilegiat, configurarea și actualizările de securitate. De asemenea, a solicitat testarea de securitate a codului generat de AI.

Un alt punct sensibil: dependența de un singur furnizor pentru multiple instanțe AI. Doar câteva instituții au putut prezenta un plan de ieșire sau o strategie de substituire a furnizorilor de AI. APRA a atras atenția că AI poate fi prezent în dependențe din amonte, de care entitățile poate nici măcar nu sunt conștiente.

Această atenție asupra controalelor de identitate și permisiuni se reflectă și în noile standarde elaborate de FIDO Alliance. Grupul a format un Agentic Authentication Technical Working Group și dezvoltă specificații pentru comerțul inițiat de agenți. FIDO a subliniat că modelele existente de autentificare și autorizare au fost concepute pentru interacțiunea umană, nu pentru acțiuni delegate efectuate de software. Furnizorii de servicii au nevoie de modalități de a verifica cine sau ce autorizează acțiunile și în ce condiții. Printre soluțiile prezentate FIDO se numără Agent Payments Protocol de la Google și Verifiable Intent Framework de la Mastercard.

Centre for Internet Security (CIS), o organizație non-profit finanțată în mare parte de Departamentul pentru Securitate Internă al SUA, a publicat ghiduri de securitate AI care mapează CIS Controls v8.1 la modele de limbaj mari, agenți AI și medii Model Context Protocol. Ghidul pentru LLM acoperă probleme legate de prompturi și date sensibile, iar ghidul MCP se concentrează pe accesul securizat al instrumentelor software, identitățile non-umane și interacțiunile în rețea.

De ce este important:


Acest articol evidențiază o problemă critică în adoptarea AI: guvernanța insuficientă a agenților AI poate duce la riscuri financiare, operaționale și de securitate majore. Avertismentul APRA nu este izolat – el reflectă o tendință globală de îngrijorare a autorităților de reglementare. Pe măsură ce agenții AI devin mai autonomi și mai răspândiți, este esențial ca organizațiile să implementeze cadre de control robuste, să evite dependența excesivă de furnizori și să asigure implicarea umană în deciziile critice. Inițiativele FIDO și CIS arată că industria începe să răspundă, dar rămâne mult de făcut pentru a preveni scenarii în care agenții AI acționează fără supraveghere adecvată, cu consecințe potențial devastatoare.

Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.