Filtrează articolele

Subiect: #Fine-Tuning

Implementare codificare pentru parsarea, analiza, vizualizarea și ajustarea fină a urmelor de raționament ale agenților folosind setul de date lambda/hermes-agent-reasoning-traces

Acest articol prezintă o implementare practică pentru parsarea, analiza, vizualizarea și ajustarea fină a urmelor de raționament ale agenților AI, folosind setul de date lambda/hermes-agent-reasoning-traces. Sunt explicate structura datelor, metodele de extragere a componentelor cheie, analiza tiparelor, vizualizarea fluxurilor de gândire și tehnicile de fine-tuning pentru îmbunătățirea performanței agenților.

🕒 3 zile în urmă

Presupunerea LoRA care eșuează în producție

LoRA este o tehnică populară de fine-tuning, dar în producție, presupunerea că funcționează la fel ca fine-tuning-ul complet se sparge adesea. Află care sunt capcanele și cum să le eviți.

🕒 1 săptămâni în urmă
AI Jupyter Agents: Antrenarea modelelor de limbaj pentru raționament bazat pe notebook-uri

Jupyter Agents: Antrenarea modelelor de limbaj pentru raționament bazat pe notebook-uri

Jupyter Agent reprezintă o inovație majoră în antrenarea modelelor de limbaj de mici dimensiuni pentru a raționa și executa cod în medii Jupyter. Proiectul detaliază un pipeline complex de curățare a datelor din Kaggle și fine-tuning, demonstrând cum modelele mici pot deveni agenți eficienți în știința datelor.

🕒 1 luni în urmă
AI Together AI și Hugging Face revoluționează antrenarea modelelor: Acum poți adapta orice LLM în doar câteva minute

Together AI și Hugging Face revoluționează antrenarea modelelor: Acum poți adapta orice LLM în doar câteva minute

Parteneriatul dintre Together AI și Hugging Face permite dezvoltatorilor să efectueze fine-tuning pe orice model LLM compatibil direct prin infrastructura cloud, eliminând complexitatea tehnică și reducând timpul de la descoperire la implementare la doar câteva minute.

🕒 1 luni în urmă
AI RapidFire AI: Optimizarea TRL de 20 de ori mai rapidă pentru antrenarea modelelor lingvistice

RapidFire AI: Optimizarea TRL de 20 de ori mai rapidă pentru antrenarea modelelor lingvistice

RapidFire AI revoluționează ajustarea fină a modelelor de limbaj (LLM) prin TRL, oferind o accelerare de până la 20x. Soluția permite rularea concurentă a multiplelor configurații chiar și pe un singur GPU, cu control interactiv în timp real pentru a maximiza eficiența și a reduce timpul de experimentare.

🕒 1 luni în urmă
AI Antrenarea modelelor AI cu Unsloth și Hugging Face Jobs: Ghid Complet Gratuit

Antrenarea modelelor AI cu Unsloth și Hugging Face Jobs: Ghid Complet Gratuit

Un ghid complet despre cum să antrenați modele AI gratuit folosind Unsloth și Hugging Face Jobs. Aflați cum să utilizați modele mici precum LFM2.5-1.2B-Instruct, să instalați skill-uri pentru agenți de codare și să rulați job-uri de antrenare pe GPU-uri cloud gestionate automat.

🕒 1 luni în urmă
AI Construiește un Model de Embedding Specific pe Domeniu în Mai Puțin de o Zi: Ghid Complet de Optimizare și Implementare

Construiește un Model de Embedding Specific pe Domeniu în Mai Puțin de o Zi: Ghid Complet de Optimizare și Implementare

Acest ghid tehnic detaliază procesul de construire a unui model de embedding specific domeniului în mai puțin de 24 de ore, utilizând generare sintetică de date și minerit de negative dure. Soluția, validată de cazul Atlassian care a obținut o îmbunătățire de 26% a Recall-ului, democratizează accesul la modele AI de înaltă performanță, eliminând necesitatea etichetării manuale a datelor.

🕒 1 luni în urmă

Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.