Elon Musk a depus mărturie în prima săptămână a procesului împotriva OpenAI, susținând că a fost înșelat de Sam Altman și Greg Brockman, avertizând asupra pericolelor AI și recunoscând că propria sa companie, xAI, distilează modelele OpenAI. Procesul ar putea redefini viitorul dezvoltării inteligenței artificiale.
Elon Musk a chemat un singur martor expert la procesul împotriva OpenAI: profesorul Peter Russell, care avertizează asupra riscurilor unei curse a înarmării cu inteligență artificială generală. Mărturia sa, deși limitată, evidențiază contradicțiile dintre discursurile despre siguranță și acțiunile concrete ale fondatorilor, inclusiv ale lui Musk însuși.
Familii din Canada dau în judecată OpenAI, acuzând că ChatGPT a facilitat un atac armat într-o școală, soldat cu cinci elevi și un educator uciși. Procesele susțin că compania nu a alertat autoritățile, deși chatbot-ul a fost folosit pentru planificarea atacului.
Familii din Canada dau în judecată OpenAI după ce o adolescentă a folosit ChatGPT pentru a planifica un atac armat care a ucis șase persoane și a rănit alte zeci. Procesul acuză neglijență și lansarea unui produs periculos, iar experții dezbat necesitatea reglementării AI.
Elon Musk a depus mărturie în procesul împotriva OpenAI, dezvăluind că o dispută cu Larry Page privind siguranța AI a fost un motiv central pentru fondarea organizației. Prietenia lor s-a destrămat după ce Musk l-a recrutat pe Ilya Sutskever, iar Page s-a simțit trădat. Articolul analizează implicațiile acestui conflict pentru viitorul inteligenței artificiale.
Sally O'Malley, maintainer OpenClaw de la Red Hat, a lansat Tank OS, un instrument open source care folosește containere Podman pentru a rula agenți OpenClaw în siguranță pe Fedora Linux, facilitând gestionarea flotelor enterprise și reducând riscurile de securitate.
Deși Pentagonul a etichetat Anthropic ca risc pentru lanțul de aprovizionare, părți importante din administrația Trump — inclusiv Tesoreria, Federal Reserve și Casa Albă — par să reînnoiască dialogul cu compania de AI, evidențiind o fractiune internă în privinerea abordării tehnologiei.
Noile cercetări de la Stanford analizează peste 390.000 de mesaje pentru a înțelege dinamica toxică dintre oameni și chatboturi, ridicând întrebarea fundamentală dacă AI-ul provoacă sau doar amplifică delirurile, o distincție vitală pentru viitoarele procese și reglementări.
RiskRubric.ai, o inițiativă a Cloud Security Alliance și Noma Security, aduce transparență în ecosistemul AI prin evaluarea standardizată a peste 500.000 de modele. Descoperirile arată o polarizare a riscurilor și faptul că modelele open-source excelează la capitolul transparență, subliniind necesitatea unor praguri clare de securitate pentru implementarea sigură.
Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.