Filtrează articolele

AI

Într-o nouă turnură pentru cipurile AI, Meta semnează un acord pentru milioane de procesoare Amazon

Într-o nouă turnură pentru cipurile AI, Meta semnează un acord pentru milioane de procesoare Amazon
Amazon a obținut o victorie majoră în fața Meta, datorită, din nou, cipurilor proprii. Meta a semnat un acord pentru a utiliza milioane de cipuri AWS Graviton pentru a-și alimenta nevoile tot mai mari de inteligență artificială, a anunțat Amazon vineri. Este important de menționat că AWS Graviton este un CPU bazat pe arhitectura ARM (un procesor central, care se ocupă de sarcini generale de calcul), nu un GPU (unitate de procesare grafică). În timp ce GPU-urile rămân alegerea preferată pentru antrenarea modelelor mari, odată ce aceste modele sunt antrenate, agenții AI construiți pe baza lor determină o schimbare a tipului de cip necesar. Agenții creează sarcini de lucru intensive din punct de vedere computațional, cum ar fi raționamentul în timp real, scrierea de cod, căutarea și coordonarea implicată în gestionarea agenților prin sarcini cu mai mulți pași. Cea mai recentă versiune a Graviton de la AWS a fost concepută special pentru a gestiona nevoile de calcul legate de AI, spune compania.

Acest acord aduce o parte semnificativă din bugetul Meta înapoi la AWS, în loc să meargă către concurenți precum Google Cloud. În august anul trecut, Meta a semnat un acord pe șase ani, în valoare de 10 miliarde de dolari, cu Google Cloud, deși Meta fusese, până atunci, în principal un client AWS care folosea și Microsoft Azure. Nu am putut să nu observăm că AWS a sincronizat anunțul acestui acord exact când se încheia conferința Google Cloud Next, ca un zâmbet virtual la adresa rivalului său din cloud. Google, desigur, produce și el propriile cipuri AI personalizate și a anunțat noi versiuni ale acestora la eveniment.

Este adevărat că Amazon produce și propriul său GPU AI: Trainium, care, în ciuda numelui, este folosit atât pentru antrenare, cât și pentru inferență – etapa care are loc după ce un model este antrenat, când procesează activ solicitări. Dar Anthropic a intervenit deja cu un acord anunțat la începutul acestei luni, care a monopolizat multe dintre aceste cipuri pentru anii următori. Producătorul Claude a acceptat să cheltuiască 100 de miliarde de dolari pe o perioadă de 10 ani pentru a-și rula sarcinile de lucru pe AWS – cu un accent deosebit pe Trainium – în timp ce Amazon a acceptat să investească încă 5 miliarde de dolari (aducând totalul la 13 miliarde de dolari) în Anthropic, în schimb.

În cele din urmă, acordul cu Meta permite Amazon să prezinte un client important de AI ca dovadă a viabilității procesoarelor sale proprii. Aceste cipuri concurează cu noul CPU Vera de la Nvidia, care este, de asemenea, bazat pe ARM și conceput pentru a gestiona sarcinile de lucru ale agenților AI. Diferența, desigur, este că Nvidia își vinde cipurile și sistemele AI către întreprinderi și furnizori de cloud (inclusiv AWS). AWS oferă acces la cipurile sale doar prin serviciul său cloud. La începutul acestei luni, CEO-ul Amazon, Andy Jassy, a criticat Nvidia și Intel în scrisoarea sa anuală către acționari, spunând că întreprinderile doresc rapoarte preț-performanță mai bune pentru AI și că intenționează să câștige contracte pe această bază. Acest lucru înseamnă, de asemenea, că presiunea asupra echipei interne de proiectare a cipurilor Amazon este mai mare ca niciodată, o echipă pe care am vizitat-o luna trecută într-un tur exclusiv al laboratorului lor.

Contextul acestui acord este extrem de important pentru înțelegerea dinamicii actuale din industria cipurilor AI. Până acum, GPU-urile Nvidia au dominat piața, fiind esențiale pentru antrenarea modelelor de limbaj mari (LLM-uri). Însă, pe măsură ce AI-ul trece de la faza de antrenare la cea de inferență și la agenți autonomi, cerințele de calcul se schimbă. Agenții AI, care pot planifica, raționa și executa sarcini complexe, necesită procesoare capabile să gestioneze operațiuni secvențiale și logice, nu doar calcule paralele masive. Aici intervin CPU-urile ARM, cum ar fi Graviton, care oferă eficiență energetică și performanță pentru sarcini de tip „general-purpose”.

Meta, care investește masiv în AI – de la asistentul său inteligent până la sisteme de recomandare – are nevoie de o infrastructură flexibilă. Alegerea de a folosi milioane de cipuri Graviton sugerează că Meta se pregătește pentru o creștere explozivă a numărului de agenți AI care rulează în producție. Aceasta este o mișcare strategică care ar putea reduce dependența de GPU-urile Nvidia, scumpe și greu de obținut, și ar putea optimiza costurile pe termen lung.

Pentru Amazon, acest acord este o validare uriașă a strategiei sale de a dezvolta cipuri proprii. Deși AWS rămâne cel mai mare furnizor de cloud, concurența cu Google Cloud și Microsoft Azure este acerbă. Google are propriile cipuri TPU, iar Microsoft investește masiv în infrastructură AI. Prin atragerea unui client precum Meta, Amazon demonstrează că poate oferi soluții competitive nu doar la nivel de servicii cloud, ci și la nivel de hardware. Mai mult, acordul vine imediat după ce Google Cloud Next s-a încheiat, ceea ce pare o mișcare de marketing bine calculată.

Un alt aspect interesant este competiția cu Nvidia. Nvidia a lansat recent CPU-ul Vera, bazat tot pe ARM, vizând exact aceleași sarcini de lucru pentru agenți AI. Însă, în timp ce Nvidia își vinde cipurile ca produse independente, Amazon le integrează în ecosistemul său cloud, oferind acces prin servicii precum AWS Graviton. Aceasta înseamnă că Amazon poate oferi o soluție completă, de la hardware la software, ceea ce poate fi un avantaj pentru clienții care doresc să evite complexitatea gestionării propriilor servere.

Pe de altă parte, acordul cu Anthropic pentru Trainium arată că Amazon nu se bazează doar pe CPU-uri, ci și pe GPU-uri proprii. Trainium este conceput atât pentru antrenare, cât și pentru inferență, iar investiția masivă a Anthropic (100 de miliarde de dolari) garantează că aceste cipuri vor fi utilizate la scară largă. Astfel, Amazon își construiește un portofoliu diversificat de cipuri AI, acoperind toate etapele ciclului de viață al modelelor.

Pentru Meta, acest acord reprezintă o oportunitate de a-și reduce costurile și de a-și asigura capacitatea de calcul necesară pentru viitoarele sale produse AI. În același timp, Meta își diversifică parteneriatele, având acum acorduri atât cu AWS, cât și cu Google Cloud. Aceasta îi oferă putere de negociere și flexibilitate în fața fluctuațiilor pieței.

În concluzie, acest acord marchează o nouă etapă în evoluția cipurilor AI, unde CPU-urile specializate încep să joace un rol tot mai important. Pe măsură ce agenții AI devin mai răspândiți, cererea pentru procesoare capabile să ruleze sarcini complexe de raționament va crește. Amazon, prin Graviton, și Nvidia, prin Vera, se luptă pentru a domina această nișă. Rămâne de văzut cine va câștiga, dar un lucru este cert: piața cipurilor AI este mai dinamică ca niciodată.

De ce este important:


Acest acord dintre Meta și Amazon pentru milioane de cipuri AWS Graviton semnalează o schimbare majoră în peisajul inteligenței artificiale. Pe măsură ce AI-ul trece de la antrenarea modelelor masive la implementarea agenților autonomi, tipul de cip necesar se schimbă. CPU-urile ARM, cum este Graviton, devin esențiale pentru sarcinile de inferență și raționament în timp real. Aceasta înseamnă că dependența de GPU-urile Nvidia ar putea scădea, iar furnizorii de cloud precum Amazon își consolidează poziția prin oferirea de soluții hardware proprii. Pentru companii, aceasta înseamnă mai multe opțiuni și potențial costuri mai mici. Pentru industria tech, este un semn că inovația în cipuri AI nu se oprește la GPU-uri, ci se extinde către procesoare specializate pentru agenți. Monitorizarea acestor evoluții este crucială pentru oricine este interesat de viitorul AI și al cloud computing-ului.

Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.