În ultimele ani, inteligența artificială a trecut de la a fi o tehnologie de niche la a deveni o forță centrală care modelează economii, societăți și chiar identități colective. Dar pe lângă promisiunile de eficiență, inovație și progres, crește o îngrijorare mai profundă: că AI nu doar transformă lumea — o împarte. Nu prin confini geografice, ci prin trăsuri ideologice, culturale și tehnologice — ceea ce unii au început să numească „trăsuri de AI”. Această noțiune sugerează că, în loc să fie un instrument universal de emancipare, AI devine un vector de fragmentare, în care diferite grupuri — naționaliste, corporatiste, ideologice sau chiar etnice — se aproprie de tehnologie pentru a consolida puterea, a controla narativa și a excludere alții.
Una dintre cele mai evidente manifestări ale acestui fenomen este race-naționalismul tehnologic. Statele precum SUA, China și Rusia investește sute de miliarde de dolari în dezvoltarea de sisteme de AI militare, de supraveghere și de manipulare a informațiilor, nu doar pentru avantaj economic, ci pentru a afirma suprematea geopolitică. China, prin iniciativa sa „Made in China 2025” și programele de AI de supraveghere din Xinjiang, folosește tehnologia pentru a consolida controlul authoritarian. SUA, prin gigantii tehnologici precum Google, Microsoft și Palantir, dezvoltă AI pentru armate și pentru a influența alegeri străine — uneori în nume al „democrației”, alteori în silențiu, prin intermediarii opaci. Rusia, de partea sa, folosește AI pentru a genera dezinformare în masă, țintind procesele democratice din Europa și America de Nord.
Dar fragmentarea nu se limitează la state. Corporațiile multinationale — de la Amazon și Meta până la firmele de capital de risc din Silicon Valley — creează proprii ecosisteme de AI, închise, proprietare și adesea incompatibile cu cele ale altor jucători. Un model de AI antrenat pe datele europene poate fi interzis în SUA din cauza regulamentelor privind protecția datelor (GDPR), iar un model antrenat pe datele chineziste poate fi interzis în Europa din cauza amenințărilor de securitate. Rezultatul? O lume în care un utilizator din Berlin, un altu din Shanghai și un third din São Paulo interacționează cu sisteme de AI total diferite — cu valori, prilejuri și limitări moralii distincte — fără a ști că vorbele lor sunt filtre, deciziile lor sunt orientate, și realitatea lor este construită de algoritmi care nu le aparțin.
Aceasta duce la apariția unor „trăsuri de AI” culturale și ideologice. În Statele Unite, unele comunități conservative resping AI-ul „woke” — acuzându-l de a promova egalitatea de gen și rasă prin algoritmi de recrutare sau de moderare a conținutului — în timp ce progresii îl admără pentru capacitatea de a detecta și corecta biasurile sistemice. În Europa, dezbaterile despre etica AI sunt adesea încadruate în cadruul drepturilor omului, iar în Africa și Asia de Sud, multe națiuni văd în AI o șansă de a sări peste etapele de industrializare tradițională — dar se confruntă cu riscul de a deveni dependente de tehnologie străină, fără control asupra datelor sau al infrastructurii.
Un aspect mai subtil, dar同样 periculoasă, este efectul de „cocoon algoritmic” amplificat de AI. Platformele de rețele sociale folosesc AI nu doar pentru a arăta conținut relevant, ci pentru a aprofunda confirmai existente — arătând utilizatorilor doar ce se potrivește cu crezențele lor, întărire polarizarea și reducând expunerea la perspective diferite. Acest lucru nu este doar o problemă de tehnologie — este o problemă de democrație. Când oamenii dintr-o trăsuri văd lumea printr-un filtru de AI care le arată doar inamicul ca fiind irational, rău sau inumit, dialogul devine imposibil. Conflictele nu se rezolvă prin argument, ci prin dominare — și AI devine un armă în această luptă.\n
Totuși, nu toate trăsurile de AI sunt necesar negative. Unele pot fi surse de rezistență și emancipare. În Brazilia, activiști folosesc AI pentru a mapa deforestarea ilegală în Amazonă. În Kenya, fermierele folosesc asistențe vocale în limba swahili pentru a accesa informații despre piete și vreme. În Ucraina, dezvoltatorii locali au creat modele de AI pentru a detecta bombele neexplodate și pentru a sprijini eforturile de deminare. Aceste exemple arată că AI nu este inherent diviziv — este un instrument. Și ca orice instrument, efectul său depinde de cine îl controlează, cu ce scop și în ce context.
Întrebarea nu este mai „dacă AI va împărți lumea?”, ci „cum putem preveni ca această împărțire să devine permanentă și violentă?” Răspunsul trebuie să vină de la o combinație de regulamentare internațională, transparență tehnologică, educație critică și o reîmprospătare a spațiilor publice de dialog. Trebuie să construim cadre globale pentru etica AI — nu doar prin principii abstracte, ci prin mecanisme de aplicare, audit independență și participare multistakeholder. Trebuie să încurajăm dezvoltarea de modele de AI deschise, open-source și locale, care să reducă dependența de monopoli tehnologici. Și trebuie să educăm cetățenii să recunoască când AI le modelează percepția — nu doar ca utilizatori pasivi, ci ca agenți informați.
Lumea nu este încă împărțită de trăsuri de AI — dar este pe cale să devine așa. Și dacă nu intervenim acum, riscul nu este doar ca tehnologia să fie folosită în mod inegal, ci ca noastra capacitate de a ne înțelege unii pe alții să se erozeze — în beneficium unor trăsuri care văd în AI nu un instrument de progres, ci un mijloc de dominare. Alegera nu este între AI și nu AI — ci între o lume în care AI servește diversitatea umană, și una în care o împarte în trăsuri înamică, încomunicabile și fără speranță de reunire.
Suntem pe cale să intrăm într-o lume împărțită de trăsuri de AI?