Filtrează articolele

AI

Grup neautorizat a obținut acces la instrumentul de securitate cibernetică Mythos al Anthropic, conform unui raport

Grup neautorizat a obținut acces la instrumentul de securitate cibernetică Mythos al Anthropic, conform unui raport
Un grup de utilizatori neautorizați a reportedly obținut acces la Mythos, instrumentul de securitate cibernetică exclusiv anunțat recent de Anthropic, conform unui raport publicat de Bloomberg și reluat de TechCrunch. Mythos, descris ca un produs AI conceput pentru a sprijini securitatea antreprenorială, a generat semnificativ interes din cauza puterii sale purportedă — dar și a riscurilor sale, deoarece, în mâinile greșite, ar putea deveni un instrument puternic de hacking, conform declarațiilor proprii companiei.

Conform raportului, grupul neautorizat a reușit să acceseze Mythos printr-un mediu al unui furnizor terț, fără a fi fost identificat public. Un portav al Anthropic a confirmat la TechCrunch că companie investighează un raport care afirmă acces neautorizat la "Claude Mythos Preview" printr-un mediu al unui furnizor terț. Totuși, Anthropic a declarat că, până în acest moment, nu există dovezi că această activitate neautorizată fi afectat sistemele interne ale companiei.

Metodele utilizate de grup au inclus exploatarea accesului unei persoane interviuate de Bloomberg, care este angajată la un contractor terț care lucrează pentru Anthropic. Membrii grupului fac parte dintr-un canal Discord dedicat descoperirii de informații despre modele AI nepublicate. Conform Bloomberg, grupul a început să folosească Mythos regulat imediat după ce l-a obținut, furnizând dovade sub formă de screenshots și o demonstrație live a softwarului.

Un aspect remarcabil este că grupul a allegedly obținut acces la Mythos în aceeași zi în care instrumentul a fost public anunțat. Au făcut această realizare printr-o "ipoteză educată" despre locația online a modelului, bazată pe cunoștința formatului pe care Anthropic l-a folosit pentru alte modele publicate anterior.

Sursa citită de Bloomberg a subliniat că membrii grupului nu au intenția de a cauza daune, ci sunt motivați de curiozitatea de a experimenta cu modele noi: "Sunt interesați să joace cu modele noi, nu să provoace haos cu ele." Totuși, chiar și intențiile benigne nu elimină riscul: orice acces neautorizat la un instrument atât de puternic, chiar dacă folosit doar pentru explorare, poate duce la vulnerabilități neprevăzute, divulgări accidentale sau chiar inspirarea de utilizări maliciousă de către alții.

Mythos a fost lansat inițial într-o manieră limitată, fiind oferit unui număr select de furnizori, printre care se numără și gigantii precum Apple, în cadrul unei inițiative denumite Project Glasswing. Scopul acestei lansări restricționate era preciz să se evite utilizarea instrumentului de către actorii răi, precum hackerii sau grupurile cu intenții maliciouse. Anthropic a avertizat repetat că Mythos, deși conceput pentru a întări apărările cibernetice antreprenoriale, ar putea fi ușor transformat într-un armă cibernetică dacă ajunge în mâinile greșite — de exemplu, pentru a identifica și exploata vulnerabilitățile în sistemele corporative în loc să le protejeze.

Acest incident ridică întrebări critice despre siguranța lanseării controlate a tehnologiilor AI avansate. Deși modelul nu a fost publicat deschis, existența unui canal prin care utilizatori neautorizați pot obține acces — chiar și prin intermediari — sugerează că chiar și strategii de compartimentare au limitele lor, mai ales în fața unei comunități tehnice altamente motivate și organizate, cum sunt acele din canalele Discord dedicate reverse-engineeringului modelelor AI.

De asemenea, cazul subliniază tensiunea înherentă dintre inovație și responsabilitate în domeniul AI: cât de mult trebuie să se compartimenteze o tehnologie puternică pentru a preveni abuzul, fără să se înceteze progresul sau să se limiteze accesul legitim al partenerilor de încredere? Anthropic a ales o cale de disponibilitate limitată, dar acest eveniment arată că chiar și această abordare nu este imună la riscuri.

De la perspectiva securității cibernetice, existența unui instrument precum Mythos în mâinile neautorizate — chiar dacă doar pentru experimentare — creează un pericol de tip "dual-use": aceeași tehnologie care poate ajuta la detectarea amenințărilor poate fi inversată pentru a le crea. De exemplu, dacă Mythos poate analiza comportamentul rețelelor pentru a identifica anomalii, ar putea fi folosit și pentru a testa cât de bine un atac poate rămâne neconstatat.

În final, deși Anthropic a declarat că nu există dovezi de impact pe sistemele sale, incidentul servește ca un avertisment serios: în era modelelor AI de mare scară, controlul accesului nu se limitează doar la protejarea infrastructurii interne — ci la înțelegerea și anticiparea modului în care tehnologia poate fi redescoperită, recompilată sau utilizată în moduri neprevăzute de către actorii externi, chiar și cei cu intenții aparentemente inofensive.

Această situație trebuie să fie un apel la vigilanță pentru toți dezvoltatorii de AI: securitatea nu este doar o caracteristică, ci un proces continuu de evaluare, monitorizare și adaptare față de amenințările emergente — inclusiv cele care nu vin de la hackeri tradiționali, ci de la entuziaștii tehnologiei care trec limita fără să se rendă cont de consecințele lor.

Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.