Filtrează articolele

Subiect: #Siguranță AI

AI Procesul Musk vs. Altman: Săptămâna 1 – Elon Musk susține că a fost înșelat, avertizează că AI ne poate ucide pe toți și recunoaște că xAI distilează modelele OpenAI

Procesul Musk vs. Altman: Săptămâna 1 – Elon Musk susține că a fost înșelat, avertizează că AI ne poate ucide pe toți și recunoaște că xAI distilează modelele OpenAI

Elon Musk a depus mărturie în prima săptămână a procesului împotriva OpenAI, susținând că a fost înșelat de Sam Altman și Greg Brockman, avertizând asupra pericolelor AI și recunoscând că propria sa companie, xAI, distilează modelele OpenAI. Procesul ar putea redefini viitorul dezvoltării inteligenței artificiale.

🕒 52 minute în urmă
AI Singurul martor expert al lui Elon Musk la procesul OpenAI se teme de o cursă a înarmării cu inteligență artificială generală

Singurul martor expert al lui Elon Musk la procesul OpenAI se teme de o cursă a înarmării cu inteligență artificială generală

Elon Musk a chemat un singur martor expert la procesul împotriva OpenAI: profesorul Peter Russell, care avertizează asupra riscurilor unei curse a înarmării cu inteligență artificială generală. Mărturia sa, deși limitată, evidențiază contradicțiile dintre discursurile despre siguranță și acțiunile concrete ale fondatorilor, inclusiv ale lui Musk însuși.

🕒 1 zile în urmă
AI Familii dau în judecată OpenAI, acuzând că chatbot-ul a facilitat un atac armat într-o școală din Canada

Familii dau în judecată OpenAI, acuzând că chatbot-ul a facilitat un atac armat într-o școală din Canada

Familii din Canada dau în judecată OpenAI, acuzând că ChatGPT a facilitat un atac armat într-o școală, soldat cu cinci elevi și un educator uciși. Procesele susțin că compania nu a alertat autoritățile, deși chatbot-ul a fost folosit pentru planificarea atacului.

🕒 6 zile în urmă
AI Familii din Canada dau în judecată OpenAI după ce autoarea unui atac armat a folosit ChatGPT

Familii din Canada dau în judecată OpenAI după ce autoarea unui atac armat a folosit ChatGPT

Familii din Canada dau în judecată OpenAI după ce o adolescentă a folosit ChatGPT pentru a planifica un atac armat care a ucis șase persoane și a rănit alte zeci. Procesul acuză neglijență și lansarea unui produs periculos, iar experții dezbat necesitatea reglementării AI.

🕒 6 zile în urmă
AI Procesul OpenAI: Elon Musk reînvie o veche prietenie spulberată de inteligența artificială

Procesul OpenAI: Elon Musk reînvie o veche prietenie spulberată de inteligența artificială

Elon Musk a depus mărturie în procesul împotriva OpenAI, dezvăluind că o dispută cu Larry Page privind siguranța AI a fost un motiv central pentru fondarea organizației. Prietenia lor s-a destrămat după ce Musk l-a recrutat pe Ilya Sutskever, iar Page s-a simțit trădat. Articolul analizează implicațiile acestui conflict pentru viitorul inteligenței artificiale.

🕒 6 zile în urmă
AI Instrumentul Tank OS al lui Sally O'Malley face implementările enterprise OpenClaw mult mai sigure

Instrumentul Tank OS al lui Sally O'Malley face implementările enterprise OpenClaw mult mai sigure

Sally O'Malley, maintainer OpenClaw de la Red Hat, a lansat Tank OS, un instrument open source care folosește containere Podman pentru a rula agenți OpenClaw în siguranță pe Fedora Linux, facilitând gestionarea flotelor enterprise și reducând riscurile de securitate.

🕒 1 săptămâni în urmă
AI Relația dintre Anthropic și administrația Trump pare să se îmbunătățească, chiar și în fața contestațiilor Pentagonului

Relația dintre Anthropic și administrația Trump pare să se îmbunătățească, chiar și în fața contestațiilor Pentagonului

Deși Pentagonul a etichetat Anthropic ca risc pentru lanțul de aprovizionare, părți importante din administrația Trump — inclusiv Tesoreria, Federal Reserve și Casa Albă — par să reînnoiască dialogul cu compania de AI, evidențiind o fractiune internă în privinerea abordării tehnologiei.

🕒 2 săptămâni în urmă
AI Cea mai dificilă întrebare despre iluziile alimentate de inteligența artificială: Cauză sau amplificare?

Cea mai dificilă întrebare despre iluziile alimentate de inteligența artificială: Cauză sau amplificare?

Noile cercetări de la Stanford analizează peste 390.000 de mesaje pentru a înțelege dinamica toxică dintre oameni și chatboturi, ridicând întrebarea fundamentală dacă AI-ul provoacă sau doar amplifică delirurile, o distincție vitală pentru viitoarele procese și reglementări.

🕒 1 luni în urmă
AI Democratizarea siguranței inteligenței artificiale prin RiskRubric.ai: O nouă eră în evaluarea standardizată a riscurilor

Democratizarea siguranței inteligenței artificiale prin RiskRubric.ai: O nouă eră în evaluarea standardizată a riscurilor

RiskRubric.ai, o inițiativă a Cloud Security Alliance și Noma Security, aduce transparență în ecosistemul AI prin evaluarea standardizată a peste 500.000 de modele. Descoperirile arată o polarizare a riscurilor și faptul că modelele open-source excelează la capitolul transparență, subliniind necesitatea unor praguri clare de securitate pentru implementarea sigură.

🕒 1 luni în urmă

Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.