Oamenii de tehnologie din China încep să antreneze dublorii lor AI și să se opună
Un proiect viral de pe GitHub, numit Colleague Skill, care afirmă că permite angajaților să „distileze” abilitățile și trăsăturile de personalitate ale colegilor lor pentru a le replica printr-un agent AI, a declanșat un debate intens în mediul tehnologic din China. Deși proiectul a fost creat inițial ca o glumă de către Tianyi Zhou, un inginer de la Shanghai Artificial Intelligence Laboratory, a rezonat profund cu angajații care au raportat că șefii îi încurajează să documenteze fluxurile de lucru pentru a automatiza sarcini prin instrumente precum OpenClaw sau Claude Code. Colleague Skill funcționează prin importarea automată a istoricului de mesaje și fișierelor din aplicații de muncă populare în China, precum Lark și DingTalk, și generează manuale detaliate care descrie nu doar sarcini, ci și particularitățile individuale – cum ar fi modul de punctuație sau reacții emotive – ale unui coleg, transformându-le în instrucțiuni pentru un agent AI. Amber Li, o angajată de 27 de ani din Shanghai, a testat instrumentul pe un fost coleg și a fost surprinsă de precizia cu care a capturat chiar și obiceiurile minore: „Este surprinzător de bun. Chiar și modul în care punctuează sau reacționează a fost replicat.” Totuși, experiența i-a provocat o senzătate de neliniște: „A fost neobișnuit și neliniștit.” Deși Li nu crede că locul ei este imediat amenințat – deoarece instrumentele AI rămâne nescredinabile și necesită supraveghere constantă – exprimă o adâncă îngrijorare: „Nu cred că locul meu este în pericol imediat, dar simț că valoarea mea este devalorizată, și nu știu ce să fac.” Această senzătate de devaloare este partajată de mulți. Un inginer de software, care a vorbit anonim din cauza frică de pierde locu, a descris procesul de creare a unui agent AI pe baza fluxului său de lucru ca fiind „reductiv”, ca dacă munca lui ar fi fost „aplatită” în module ușor de înlocuit. Pe rețelele sociale, umorul negru a devenit un mijloc de expresie: un utilizator de pe Rednote a scris: „Un adevarat „la revedere” rece poate fi transformat în jetoni calzi” – o referire la ideea că, prin distilarea colegilor primi, angajatii speră să-și prelungă existența în companie. În răspuns la această tendință, Koki Xu, o manager de produs AI de 26 de ani din Beijing, a creat un instrument numit „anti-distillare”, publicat pe GitHub pe 4 aprilie. Instrumentul ei, construit în aproximativ o oră, permite utilizatorilor să aleagă între trei moduri de sabotaj – ușor, mediu și greu – în funcție de cât de atent sunt monitorizați de șefi. Agentul apoi rescrie materialul în limbaj generic și neacționabil, făcând ca rezultatul să fie un agent AI inutil. Videoul ei a acumulat peste 5 milioane de aprecii pe platforme. Xu a declarat că motivația ei nu era doar tehnică, ci etică și juridică: „Voleam scrie un articol de opinie, dar am decis că ar fi mai util să fac ceva care să se opună direct acestui proces.” ea a subliniat că, deși companiile pot argumenta că istoricul de mesaje și fișierele create pe laptopuri de muncă sunt proprietate corporativă, capturarea tonului, judecății și personalității face ca proprietatea să devină ambiguitate. „Aceasta ridică întrebări juridice serioase: cine detine un model care imită nu doar ce faci, ci cum gândești și cum ești?” Xu, care este o adoptă entuziaste de AI – cu șapte agenți OpenClaw configurati pe dispozitivele personale și de muncă – a adăugat: „Cred că este esențial să urmăm aceste tendințe pentru a putea participa la modul în care ele sunt folosite.” Profesorul Hancheng Cao de la Universitatea Emory, care studiază impactul AI asupra muncii, spune că companiile au motive legitime să încurajeze crearea de „plani de muncă”: acestea oferă date bogate despre know-how, fluxuri și modele de decizie, ajutând firmele să identifice ce poate fi standardizat și ce depinde încă de judecata umană. Totuși, pentru angajați, acest proces poate simți ca o formă de alienare – ca dacă identitatea lor profesională ar fi reducă la un set de instrucțiuni. În timp ce unele companii în China au început să experimenteze cu agenți AI în contexte reale, majoritatea angajaților raportează că instrumentele rămâne limitate în medii de afaceri – nescredinabile, necesită supraveghere și nu pot înlocui complet judecata umană. Totuși, presiunea pentru a documenta și automatiza lucrul continuă să crească, iar cu ea, și temerea de a fi tratați nu ca oameni, ci ca surse de date care pot fi extrase, reproduse și înlocuite. Proiectul Colleague Skill, chiar și ca o glumă, a devenit un oglindă a anxietăților moderne: în epoca AI, ce rămâne de uman când chiar și personalitatea noastră poate fi transformată într-un produs reutilizabil?