Un nou studiu ISACA revealează că doar 21% dintre organizații pot opri rapid un incident de AI, iar 59% nu înțeleg cât de repede pot interveni. Lipsa de guvernanță, responsabilitate clară și mecanisme de oprire urgență pune afacerile la risc de daune irreversible, sancționări și pierdere de credibilitate. Soluția nu este în încetarea adopției AI, ci în tratarea ei ca un „angajat digital” cu proprietate, control și responsabilitate clară.
Raportul AI Index 2026 de la Stanford revela că gapul de performanță între modelele de AI americane și chineze s-a îngustat la doar 2,7%, în timp ce preocupările privind siguranța, transparența și guvernarea AI-ului responsabil cresc, iar SUA au cel mai níveu de încredere în guvern pentru a reglementa tehnologia.
Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.