Filtrează articolele

AI

DeepSeek prezintă un nou model de AI care „îmbrățișează spațiul” cu modelele de frontieră

DeepSeek prezintă un nou model de AI care „îmbrățișează spațiul” cu modelele de frontieră
Laboratorul chinez de inteligență artificială DeepSeek a lansat două versiuni de previzualizare ale noului său model de limbă mare, DeepSeek V4, o actualizare mult așteptată a modelului V3.2 din anul trecut, împreună cu modelul de raționare R1 care a creat un mare zgomote în lumea AI. Conform declarațiilor companiei, ambele modele – DeepSeek V4 Flash și V4 Pro – sunt arhitectate pe principiul mixture-of-experts (MoE), cu ferestre de context de câte 1 milion de tokenuri fiecare, suficient pentru a permite utilizarea de baze de cod mari sau documente extinse în prompturi. Această abordare activează doar un număr specific de parametri pe sarcină, reducând astfel costurile de inferență.

Modelul V4 Pro are un total de 1,6 biliardi de parametri (49 de miliardi activați), ceea ce îl face cel mai mare model greutății deschise disponibil în prezent, depășind Kimi K 2.6 al Moonshot AI (1,1 biliardi), M1 al MiniMax (456 de miliardi) și dublu mai mult decât V3.2 al DeepSeek însuși (671 de miliardi). Varianta mai mică, V4 Flash, are 284 de miliardi de parametri (13 de miliardi activați). DeepSeek afirmă că ambele modele sunt mai eficiente și mai performante decât V3.2 datorită îmbunătățirilor arhitecturale și au aproape „îmbrățișat spațiul” cu modelele de frontieră curente, atât deschise, cât și închise, pe referințele de raționare.

Compania declară că modelul V4-Pro-Max depășește colegii săi open-source pe referințele de raționare și depășește GPT-5.2 al OpenAI și Gemini 3.0 Pro pe unele sarcini. În benchmark-urile de competiție în codare, performanța ambelor modele V4 este „comparabilă cu GPT-5.4“, conform afirmațiilor DeepSeek. Totuși, modelele par să fie ușor în spatele modelelor de frontieră în teste de cunoscute, în special GPT-5.4 al OpenAI și Gemini 3.1 Pro al Google. Această întârziere sugerează o „traiectorie de dezvoltare care urmează modelele de frontieră de stare de artă cu aproximativ 3–6 luni“, conform unui comunicat al laboratorului.

Ambele modele V4 Flash și V4 Pro susțin doar text, spre deosebire de mulți pari de frontiera închiși, care oferă suport pentru înțelegerea și generarea de audio, video și imagini. Un avantaj semnificativ este costul: V4 Flash costa $0,14 per milion de tokenuri de intrare și $0,28 per milion de tokenuri de ieșire, subțepând GPT-5.4 Nano, Gemini 3.1 Flash, GPT-5.4 Mini și Claude Haiku 4.5. V4 Pro costa $0,145 per milion de tokenuri de intrare și $3,48 per milion de tokenuri de ieșire, fiind de asemenea mai ieftin decât Gemini 3.1 Pro, GPT-5.5, Claude Opus 4.7 și GPT-5.4.

Lansarea a avut loc o zi după ce SUA-a acusat China de furt în scară industrială de proprietate intelectuală din laboratoarele americane de AI, folosind mii de conturi proxy. DeepSeek a fost de asemenea acuza de Anthropic și OpenAI de „distilare“ – esențial, copiere – a modelilor lor de AI.

De ce este important:

Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.