Filtrează articolele

AI

Sam Altman acuză pe Anthropic de „marketing bazat pe frică” în legătură cu modelul de securitate cibernetică Mythos

Sam Altman acuză pe Anthropic de „marketing bazat pe frică” în legătură cu modelul de securitate cibernetică Mythos
În prima ediție a evenimentului StrictlyVC din 2026, desfășurat la San Francisco pe 30 aprilie, CEO-ul OpenAI, Sam Altman, a reluat polemica publică cu rivalul său de la Anthropic, acuziindu-l de a folosi tactici de „marketing bazat pe frică” pentru a promova noul său model de inteligentiță artificială dedicat securității cibernetice, numit Mythos. Declarările lui Altman au avut loc în cadrul unui podcast numit „Core Memory”, unde a sugerat că Anthropic a creat o narativă exagerată în jurul pericolului modelului său, pentru a justifica restricția de acces și a menține tehnologia în mâinile unui grup exclusiv de clienți enterprise.

Anthropic a lansat Mythos în începutul lunii martie, descriindu-l ca un model de AI atât de puternic și capabil să detecteze și să prevină atacuri cibernetice sofisticate încât, conform afirmațiilor companiei, nu poate fi lansat public din frica că ar putea fi armațat de criminali cibernetici. Această poziție a generat reacții mixte: în timp ce unii au lăudat prudența etică a companiei, alții au considerat că este o strategie de diferențiere prin supraîncetare a capacităților reale ale modelului, un lucru pe care Altman l-a caracterizat deschis ca „fear-based marketing” – marketing bazat pe frică.

"Există oameni în lume care, de mult timp, au vrut să țină AI în mâinile unui grup mai mic de oameni", a declarat Altman. "Poți să-l justifice în multe feluri diferite." Apoi, cu o metaforă vividă, a adăugat: "Este clar un marketing incredibil de eficient să spui: ‚Am construit o bombă, sunt despre a-o lâsa pe capul tău. Vă voi vinde un refugiu anti-bombă pentru 100 de milioane de dolari.’" Acesta nu a fost primul să critiqueze această abordare, dar a fost unul dintre cei mai de profil care a legat direct practica de o tendință mai largă în industria AI: utilizarea hiperbooliei și a scenariilor catastrofice pentru a crește percepția de valoare și urgență.

Altman a recunoscut, totuși, că această tactică nu este exclusivă lui Anthropic. „Ar putea fi argumentat că multa parte a industriei AI a folosit tactici de sperie și exagerare pentru a face instrumentele să pară mai puternice decât sunt”, a spelat, adăugând că el însuși a fost, în trecut, parte din această narativă – o recunoaștere rară și semnificativă, care subliniază tensiunea între responsabilitatea etică și presiunea de piață în competiția feroce între gigantii AI.

Evenimentul StrictlyVC, care a marcat începutul anului 2026 în scena tehnologică din San Francisco, a fost descris ca o platformă pentru discuții nefiltrate între lideri de industrie, investitori și inovatori – un mediu ideal pentru astfel de échanges francoși. Cu biletele care se agotau rapid și promisiuni de reducere de până la 680 de dolari pentru pasul Disrupt 2026, evenimentul a reafirmat rolul său ca punct de întâlnire esențial pentru cei care doresc să înțeleagă direcția viitoare a tehnologiei, eticii și afacerilor în era AI.

Controverșia dintre OpenAI și Anthropic nu este doar o dispută de marcă – ea reflectă o tensiune mai profundă: cine are dreptul să décide ce tehnologii sunt „troppo periculoase” pentru a fi partajate? Și cine profite de această narativă de pericol? În timp ce Anthropic se poziștează ca păzitor al siguranței, Altman sugerează că, uneori, frica este vândută ca un produs de lux – și că aceasta, mai mult decât siguranța reală, devine un instrument de excluziune și de profit.

Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.