Într-o eră în care inteligența artificială redefinește fundamental modul în care funcționează industriile din întreaga lume, sectorul public se află în fața unei provocări paradoxale: presiunea tot mai mare de a adopta tehnologii AI avansate, în condițiile unor constrângeri operaționale, de securitate și de guvernanță care par aproape insurmontabile. Modelele lingvistice mici, special concepute pentru nevoile specifice ale instituțiilor guvernamentale, oferă o cale practică și viabilă spre operationalizarea AI-ului în aceste medii complexe, unde cerințele de control, transparență și fiabilitate nu pot fi negociate sub nicio formă.
Un studiu realizat de Capgemini a relevat un fapt îngrijorător: 79% dintre executivii din sectorul public la nivel global își exprimă reticența față de riscurile de securitate a datelor asociate cu implementarea AI. Acest procentaj ridicat nu este deloc surprinzător, având în vedere sensibilitatea sporită a datelor guvernamentale și obligațiile legale stricte care înconjoară utilizarea acestora. Han Xiao, vicepreședinte AI la Elastic, subliniază cu claritate această realitate: „Agențiile guvernamentale trebuie să fie extrem de restrictive în ceea ce privește tipul de date pe care le trimit în rețea. Aceasta stabilește o mulțime de limite în modul în care gândesc și gestionează datele lor." Nevoia fundamentală de control asupra informațiilor sensibile reprezintă doar unul dintre factorii multipli care complică implementarea AI, în special când comparăm situația sectorului public cu presupunerile operaționale standard din sectorul privat.
Când entitățile din sectorul privat își extind capacitățile AI, acestea presupun în mod tipic că anumite condiții vor fi îndeplinite: conectivitate continuă la cloud, dependență de infrastructură centralizată, acceptarea unei transparențe incomplete a modelelor și restricții limitate privind mișcarea datelor. Pentru multe instituții de stat, însă, acceptarea acestor condiții poate fi orice, de la periculoasă până la imposibilă. Agențiile guvernamentale trebuie să se asigure că datele lor rămân sub controlul lor strict, că informațiile pot fi verificate și validate, și că perturbările operaționale sunt menținute la un minimum absolut. În același timp, acestea trebuie adesea să opereze în medii unde conectivitatea la internet este limitată, nesigură sau chiar indisponibilă.
Aceste complexități împiedică multe proiecte pilot promițătoare din sectorul public să depășească stadiul de experimentare. „Mulți oameni subestimează provocarea operațională a AI-ului," afirmă Han Xiao. „Sectorul public are nevoie ca AI-ul să funcționeze fiabil pe toate tipurile de date și apoi să poată crește fără să se defecteze. Continuitatea operațiunilor este adesea subestimată." Un sondaj Elastic realizat în rândul liderilor din sectorul public a evidențiat că 65% dintre aceștia se confruntă cu dificultăți în utilizarea continuă a datelor în timp real și la scară largă.
Constrângerile de infrastructură adaugă o dimensiune suplimentară acestei probleme. Organizațiile guvernamentale se pot confrunta, de asemenea, cu dificultăți în obținerea unităților de procesare grafică (GPU-uri) utilizate pentru antrenarea și accesarea modelelor AI complexe. După cum subliniază Han Xiao, „Guvernul nu achiziționează adesea GPU-uri, spre deosebire de sectorul privat — nu sunt obișnuiți să gestioneze infrastructură GPU. Astfel, accesul la un GPU pentru a rula modelul reprezintă un blocaj pentru o mare parte a sectorului public."
Cerințele non-negociabile din sectorul public fac ca modelele lingvistice mari (LLM-uri) să fie nefezabile. Modelele lingvistice mici (SLM-uri), însă, pot fi găzduite local, oferind o securitate și un control mult mai mari. SLM-urile sunt modele AI specializate care utilizează în mod tipic miliarde, și nu sute de miliarde, de parametri, ceea ce le face semnificativ mai puțin solicitante din punct de vedere computațional decât cele mai mari LLM-uri. Sectorul public nu are nevoie să construiască modele din ce în ce mai mari găzduite în locații centralizate externe.
Un studiu empiric a constatat că SLM-urile au performat la fel de bine sau chiar mai bine decât LLM-urile în multiple scenarii de testare. SLM-urile permit utilizarea eficientă și eficace a informațiilor sensibile, evitând în același timp complexitatea operațională a menținerii unor modele mari. Han Xiao explică: „Este ușor să folosești ChatGPT pentru corectura textelor. Este foarte dificil să rulezi propriile modele lingvistice mari la fel de lin într-un mediu fără acces la rețea."
SLM-urile sunt special concepute pentru nevoile departamentului sau agenției care le va utiliza. Datele sunt stocate în siguranță în afara modelului și sunt accesate doar la cerere. Prompturi atent proiectate asigură că doar cele mai relevante informații sunt retrieve, oferind răspunsuri mai precise. Folosind metode precum căutarea inteligentă, căutarea vectorială și ancorarea în surse verificabile, sistemele AI pot fi construite pentru a răspunde nevoilor specifice ale sectorului public.
Astfel, următoarea fază a adoptării AI în sectorul public ar putea fi aducerea instrumentului AI la date, în loc să trimitem datele în cloud. Gartner prezice că, până în 2027, modelele AI mici și specializate vor fi utilizate de trei ori mai mult decât LLM-urile. „Când oamenii din sectorul public aud despre AI, probabil că se gândesc la ChatGPT. Dar putem fi mult mai ambițioși," spune Han Xiao. „AI poate revoluționa modul în care guvernul caută și gestionează cantitățile mari de date pe care le deține."
Privind dincolo de chatbots, descoperim una dintre cele mai imediate oportunități ale AI-ului: căutarea dramatic îmbunătățită. Ca multe organizații, sectorul public dispune de munți de date nestructurate — inclusiv rapoarte tehnice, documente de achiziții, procese verbale și facturi. Tehnologia AI de astăzi poate furniza rezultate din media mixte, precum PDF-uri lizibile, scanări, imagini, foi de calcul și înregistrări, în multiple limbi. Toate acestea pot fi indexate de sisteme alimentate de SLM-uri pentru a oferi răspunsuri personalizate și pentru a redacta texte complexe în orice limbă, asigurând totodată conformitatea legală a rezultatelor.
„Sectorul public are multe date și nu întotdeauna știe cum să le folosească. Nu știe care sunt posibilitățile," adaugă Han Xiao. Și mai puternic, AI-ul poate ajuta angajații guvernamentali să interpreteze datele pe care le accesează. „AI-ul de astăzi vă poate oferi o perspectivă complet nouă asupra modului de a valorifica aceste date," afirmă Xiao. Un SLM bine antrenat poate interpreta normele legale, extrage informații din consultările publice, susține luarea deciziilor executive bazate pe date și îmbunătăți accesul public la servicii și informații administrative. Toate acestea pot contribui la îmbunătățiri dramatice în modul în care sectorul public își desfășoară operațiunile.
Concentrarea pe SLM-uri schimbă conversația de la cât de cuprinzător poate fi un model la cât de eficient este acesta. LLM-urile implică costuri semnificative de performanță și computaționale și necesită hardware specializat pe care multe entități publice nu și-l pot permite. În ciuda necesității unor cheltuieli de capital, SLM-urile sunt mai puțin consumatoare de resurse decât LLM-urile, astfel încât tind să fie mai ieftine și să reducă impactul asupra mediului.
Agențiile din sectorul public se confruntă adesea cu cerințe stricte de audit, iar algoritmii SLM pot fi documentați și certificați ca fiind transparenți. Unele țări, în special în Europa, au și reglementări de confidențialitate precum GDPR, pe care SLM-urile pot fi proiectate să le respecte. Datele de antrenare personalizate produc rezultate mai țintite, reducând erorile, bias-ul și halucinațiile la care AI-ul este predispus. După cum spune Han Xiao, „Modelele lingvistice mari generează text pe baza datelor pe care au fost antrenate, deci există o dată limită când au fost antrenate. Dacă întrebați despre ceva după aceea, va halucina. Putem rezolva acest lucru forțând modelul să lucreze din surse verificate."
Riscurile sunt, de asemenea, minimizate prin păstrarea datelor pe servere locale sau chiar pe un dispozitiv specific. Nu este vorba despre izolare, ci despre autonomie strategică pentru a permite încrederea, reziliența și relevanța. Prin prioritizarea modelelor specifice sarcinii, concepute pentru medii care procesează datele local, și prin monitorizarea continuă a performanței și impactului, organizațiile din sectorul public pot construi capacități AI durabile care să susțină deciziile din lumea reală.
„Nu începeți cu un chatbot; începeți cu căutarea," sfătuiește Han Xiao. „O mare parte din ceea ce considerăm inteligență AI este, de fapt, despre găsirea informațiilor potrivite."
Cum pot organizațiile din sectorul public să implementeze AI în medii cu restricții severe