Musk, cunoscut pentru declarațiile sale tranșante, a fost întrebat direct de avocați dacă xAI a folosit tehnici de distilare pe modelele OpenAI. Răspunsul său a fost evaziv, dar revelator: „Parțial”. A adăugat că aceasta este o practică generală în rândul companiilor de AI, sugerând că nimeni nu este cu mâinile curate în această cursă tehnologică.
Distilarea, explică specialiștii, presupune interogarea sistematică a unui model AI public (precum ChatGPT) pentru a-i înțelege mecanismele interne și a crea un model similar, dar mai ieftin și mai rapid. Este o metodă folosită pe scară largă de companii chinezești pentru a produce modele open-source aproape la fel de performante ca cele americane, dar la o fracțiune din cost. Însă, până acum, se presupunea că laboratoarele americane evită să recurgă la astfel de practici unele împotriva altora. Mărturia lui Musk spulberă acest mit.
Ironia situației este greu de ignorat. În timp ce OpenAI, Anthropic și Google au lansat inițiative comune prin Frontier Model Forum pentru a combate distilarea venită din China, tocmai unul dintre cei mai vocali critici ai lor recunoaște că a folosit aceeași metodă. Mai mult, aceste laboratoare de vârf au fost ele însele acuzate de încălcarea drepturilor de autor în goana după date de antrenare. Pare că, în lumea AI, regulile sunt făcute pentru a fi încălcate – sau măcar îndoite.
Musk a explicat că xAI, fondată abia în 2023, a încercat să învețe de la liderul pieței de atunci, OpenAI. „Este o practică standard în industrie”, a insistat el. Deși distilarea nu este în mod explicit ilegală, ea încalcă adesea termenii de utilizare ai platformelor. OpenAI, de exemplu, interzice în termenii săi „extragerea” de cunoștințe din modelele sale. Însă, în lipsa unor legi clare, companiile se bazează pe măsuri tehnice – cum ar fi limitarea numărului de interogări – pentru a descuraja astfel de practici.
În continuarea depoziției sale, Musk a fost întrebat despre o afirmație făcută vara trecută, când spunea că xAI va depăși curând orice companie, cu excepția Google. Acum, el a oferit un clasament actualizat al furnizorilor de AI: pe primul loc a plasat Anthropic, urmat de OpenAI, Google și modelele open-source chinezești. xAI, a spus el, rămâne o companie mult mai mică, cu doar câteva sute de angajați.
Această recunoaștere are implicații uriașe pentru procesul în sine. Musk încearcă să demonstreze că OpenAI a abandonat misiunea non-profit, dar propria sa admitere că a folosit modelele OpenAI pentru a-și construi Grok slăbește poziția sa morală. Pe de altă parte, dezvăluirea ar putea deschide calea pentru acțiuni legale împotriva xAI din partea OpenAI, care ar putea invoca încălcarea termenilor de utilizare.
Dincolo de aspectele juridice, mărturia lui Musk scoate la iveală o realitate incomodă: cursa pentru supremația în AI este atât de acerbă, încât nici măcar cei mai mari jucători nu ezită să „împrumute” de la concurență. Distilarea, văzută inițial ca o amenințare venită din China, este de fapt o armă folosită de toată lumea. În timp ce OpenAI și Anthropic fac front comun împotriva „hoților” chinezi, propriul lor „fiu risipitor” – Elon Musk – recunoaște că a făcut exact același lucru.
Pentru investitori și analiști, această știre confirmă ceea ce mulți bănuiau de mult: modelele AI nu sunt create în vid, ci se hrănesc unele din altele. În lipsa unor reglementări clare, granița dintre inovație și încălcarea proprietății intelectuale devine tot mai subțire. Rămâne de văzut dacă instanța va considera distilarea o practică acceptabilă sau o va sancționa ca pe o formă de concurență neloială.
De ce este important:
Această mărturie a lui Elon Musk este crucială pentru că dezvăluie că practica distilării – considerată până acum o amenințare externă, venită din China – este de fapt folosită și de marile laboratoare americane unele împotriva altora. Ea subminează argumentul că OpenAI și alții sunt victime ale „furtului” de tehnologie și ar putea reconfigura dezbaterea privind reglementarea AI. În plus, procesul în sine capătă o nouă dimensiune, deoarece Musk, care acuză OpenAI de abatere de la misiunea sa, recunoaște că a profitat de pe urma muncii acestora. Pe termen lung, această dezvăluire ar putea accelera eforturile de a stabili reguli mai clare privind utilizarea modelelor AI și protejarea proprietății intelectuale într-un domeniu care evoluează vertiginos.