Ecosistemul Hugging Face Diffusers se îmbogățește cu o nouă piesă de rezistență, marcând o evoluție semnificativă în domeniul generării de imagini bazate pe inteligență artificială. Black Forest Labs (BFL) a lansat oficial FLUX.2, un model de generare și editare a imaginilor care promite să redefinească standardele de calitate și flexibilitate. Anunțat pe 25 noiembrie 2025, acest nou model nu este conceput ca o simplă actualizare incrementală a predecesorului său, FLUX.1, ci ca o entitate nouă, cu o arhitectură reimaginată și capacități extinse.
Este crucial de menționat încă de la început: FLUX.2 nu este destinat să fie un înlocuitor „drop-in” (care se instalează direct fără modificări) pentru FLUX.1. Acesta reprezintă o nouă generație de modele, aducând schimbări fundamentale în modul în care înțelege și procesează prompturile textuale și referințele vizuale.
O scurtă introducere în arhitectura FLUX.2
FLUX.2 se diferențiază prin capacitatea sa de a opera atât în regim de generare ghidată de imagine, cât și de generare ghidată de text. Una dintre cele mai interesante funcționalități noi este capacitatea de a accepta multiple imagini ca intrări de referință, pe care le sintetizează pentru a produce imaginea finală. Această funcționalitate desparte ușa către editări complexe și compoziții care necesită un context vizual bogat.
Din punct de vedere tehnic, schimbările sunt profunde. Să le disecăm pe rând:
1. Encoderul de text: Simplificare și eficiență
Una dintre cele mai notabile schimbări arhitecturale este trecerea de la un sistem dual de encodere de text (așa cum era în FLUX.1) la un singur encoder de text: Mistral Small 3.1. Această decizie simplifică drastic procesul de calculare a embedding-urilor pentru prompturi, reducând complexitatea pipeline-ului. Modelul permite o lungime maximă a secvenței (max_sequence_length) de 512 de tokeni, oferind un context mai larg pentru descrieri detaliate.
Mai mult, FLUX.2 nu se bazează pe stratul final de ieșire pentru embedding-urile promptului. În schimb, utilizează o tehnică avansată de stivuire a ieșirilor din straturile intermediare. Această abordare este susținută de cercetări recente care demonstrează că straturile intermediare capturează informații semantice mai bogate și mai nuanțate, benefice pentru fidelitatea imaginii generate.
2. Arhitectura DiT (Diffusion Transformer)
FLUX.2 continuă să utilizeze arhitectura MM-DiT (Multimodal Diffusion Transformer) combinată cu DiT paralel, moștenită de la FLUX.1. Pentru a reamări mecanismele: blocurile MM-DiT procesează latenții imaginii și textul de condiționare în fluxuri separate, unindu-le doar în timpul operației de atenție. Acestea sunt cunoscute sub numele de blocuri „double-stream” (flux dublu). Ulterior, blocurile paralele operează pe fluxurile concatenate de imagine și text, fiind denumite blocuri „single-stream” (flux unic).
Totuși, există inovații majore. Informațiile despre timp și ghidaj, sub forma parametrilor de modulație AdaLayerNorm-Zero, sunt acum partajate între toate blocurile transformatorului, atât double-stream, cât și single-stream. În FLUX.1, fiecare bloc avea propriii parametri de modulație, ceea ce creștea numărul total de parametri. De asemenea, niciun strat din FLUX.2 nu utilizează parametri de bias, nici în sub-blocurile de atenție, nici în cele feedforward (FF), o simplificare care optimizează eficiența computațională.
O altă inovație tehnică este fuzionarea proiecțiilor. În FLUX.1, blocurile single-stream fuzionau doar proiecția de ieșire a atenției cu proiecția de ieșire FF. FLUX.2 merge mai departe, fuzionând proiecțiile QKV (Query, Key, Value) ale atenției cu proiecția de intrare FF, creând un bloc transformator complet paralel. De asemenea, se utilizează o activare MLP de tip SwiGLU în loc de GELU, o alegere modernă care îmbunătățește performanța.
Structura modelului a fost, de asemenea, reechilibrată. FLUX.2 are o proporție mai mare de blocuri single-stream (48) comparativ cu blocurile double-stream (8). În cifre absolute, FLUX.2[dev]-32B are aproximativ 24% din parametri în blocurile double-stream și 73% în blocurile single-stream, comparativ cu FLUX.1[dev]-12B care avea 54% în blocurile double-stream. Această schimbare reflectă o concentrare mai mare pe procesarea integrată a informației vizuale și textuale.
3. Componente auxiliare și optimizări
Modelul introduce un nou Autoencoder (AutoencoderKLFlux2) și o metodă îmbunătățită de încorporare a programelor de timp (timestep schedules) dependente de rezoluție, ajustând procesul de denoisare în funcție de dimensiunea imaginii dorite.
Inferența cu Diffusers: Accesibilitate și Flexibilitate
Datorită dimensiunii sale mari (DiT extins și Mistral3 Small ca encoder), FLUX.2 necesită resurse hardware semnificative. O utilizare fără optimizări necesită peste 80GB de VRAM. Totuși, echipa Diffusers a furnizat soluții detaliate pentru diverse constrângeri de sistem.
Pentru utilizatorii cu acces la GPU-uri de înaltă performanță, cum ar fi seria Hopper (H100), se poate utiliza Flash Attention 3 pentru a accelera inferența. Pentru cei cu resurse mai limitate, biblioteca `bitsandbytes` permite încărcarea modelului în 4-bit, reducând cerințele la aproximativ 20GB VRAM, accesibilă pentru plăci precum RTX 3090/4090.
O abordare inovatoare este utilizarea unui encoder de text remote. Deoarece encoderul Mistral este mare, acesta poate fi descărcat de pe GPU-ul local și rulat pe un Inference Endpoint Hugging Face. Aceasta eliberează VRAM local pentru modelul DiT și VAE, permițând utilizatorilor cu GPU-uri mai modeste (chiar și de 8GB VRAM cu group_offloading) să ruleze modelul, sacrificând doar viteza de inferență.
Exemplele de cod furnizate demonstrează flexibilitatea pipeline-ului: de la generarea standard cu CPU offloading, la utilizarea cuantizării NF4 și integrarea encoderului remote. Prompturile complexe, care descriu scene detaliate precum „o fotografie macro realistă a unui pustnic folosind o cutie de sodă drept carapace”, sunt redate cu o acuratețe remarcabilă a detaliilor, textelor și culorilor.
În concluzie, FLUX.2 reprezintă un pas înainte în democratizarea modelelor de generare de imagini de ultimă generație. Prin optimizări arhitecturale inteligente și suport software robust în Diffusers, BFL și Hugging Face fac ca acest model puternic să fie accesibil nu doar centrelor de cercetare mari, ci și dezvoltatorilor individuali și entuziaștilor AI.
Diffusers întâmpină cu brațele deschise noul model FLUX.2: O revoluție în generația imaginelor prin inteligență artificială