Filtrează articolele

Subiect: #Local AI

AI Accelerarea agentului Qwen3-8B pe procesoarele Intel® Core™ Ultra folosind modele draft cu eliminare stratificată a profunzimii

Accelerarea agentului Qwen3-8B pe procesoarele Intel® Core™ Ultra folosind modele draft cu eliminare stratificată a profunzimii

Acest articol explorează optimizarea modelului Qwen3-8B pe procesoarele Intel® Core™ Ultra, folosind decodare speculativă și modele draft cu eliminare stratificată. Se detaliază integrarea cu 🤗 smolagents pentru agenți AI locali rapizi.

🕒 1 luni în urmă
AI Ghid complet: Rularea modelelor VLM locale pe procesoare Intel în 3 pași simpli

Ghid complet: Rularea modelelor VLM locale pe procesoare Intel în 3 pași simpli

Acest ghid detaliat explică cum să rulați modele VLM local pe procesoare Intel folosind Optimum Intel și OpenVINO. Aflați despre conversia modelului, tehnicile de cuantizare pentru eficiență și rezultatele benchmark-urilor care demonstrează creșteri semnificative de performanță.

🕒 1 luni în urmă
AI GGML și llama.cpp se alătură Hugging Face pentru a garanta progresul pe termen lung al Inteligenței Artificiale Locale

GGML și llama.cpp se alătură Hugging Face pentru a garanta progresul pe termen lung al Inteligenței Artificiale Locale

Georgi Gerganov și echipa GGML se alătură Hugging Face pentru a scala proiectul llama.cpp, asigurând resursele necesare pentru viitorul AI-ului local. Parteneriatul promite autonomie deplină pentru proiectul open-source, integrare tehnică fluidă cu biblioteca transformers și o viziune comună pentru democratizarea superinteligenței pe dispozitivele utilizatorilor.

🕒 1 luni în urmă

Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.