De aceea, experții se tem că deepfake-urile înarmate vor eroda și mai mult gândirea critică, precum și încrederea noastră în instituții și în ceilalți. Acest lucru are efecte grave asupra societății și guvernării – și, desigur, asupra persoanelor vizate. Ca și în cazul multor alte exemple de daune provocate de tehnologie, impactul uman va afecta în mod disproporționat femeile și grupurile marginalizate; deși tehnologia a evoluat în ultimii ani, un studiu din 2023 a constatat că 98% dintre deepfake-uri erau de natură pornografică, iar 99% dintre acestea înfățișau femei.
Să luăm doar exemplul Grok. De când Elon Musk a lansat funcția „editare imagine” a acestui chatbot AI la sfârșitul anului trecut, utilizatorii au creat milioane de imagini sexualizate, inclusiv multe care înfățișează copii și femei; un raport a estimat că 81% dintre aceste imagini produse de Grok înfățișau femei. În ciuda criticilor pe scară largă, răspunsul inițial al xAI a fost să limiteze funcția doar la membrii plătitori; ulterior, a blocat funcția de nuditate în jurisdicțiile în care este ilegală.
De asemenea, a avut loc o explozie a deepfake-urilor politice. Administrația Trump, de exemplu, a produs și distribuit în mod regulat imagini și videoclipuri generate de AI. Nu toate sunt menite să pară reale, dar altele par concepute pentru a influența opinia publică și chiar pentru a umili persoana înfățișată. În ianuarie, procurorul general al Texasului, Ken Paxton, a distribuit un videoclip care părea să-l înfățișeze pe adversarul său din primarele republicane pentru un loc în Senatul SUA, senatorul John Cornyn, dansând cu reprezentanta Jasmine Crockett, o contracandidată la nominalizarea democrată. Dar acest lucru nu s-a întâmplat niciodată – un fapt pe care reclama nu l-a dezvăluit clar.
Soluțiile sugerate includ instituirea unor noi măsuri de siguranță tehnică și metode de detectare la marile firme de AI, încurajarea utilizatorilor să ia măsuri de protecție suplimentare și elaborarea de noi legislații sau aplicarea cadrelor de reglementare existente, cum ar fi legea drepturilor de autor, la această problemă. Dar toate acestea au limite. Soluțiile tehnice pot fi ocolite; de exemplu, actorii rău intenționați pot trece pur și simplu la modele open-source construite fără măsuri de siguranță. A determina oamenii să-și schimbe comportamentul, cum ar fi prin marcarea fotografiilor cu filigran sau postarea mai puținelor informații personale online, este pur și simplu nerealist. Reglementări mai stricte necesită aplicare – și, deși președintele Trump a semnat o legislație care incriminează deepfake-urile pornografice, administrația sa continuă să posteze alte tipuri de deepfake-uri dăunătoare. La sfârșitul lunii ianuarie, de exemplu, Casa Albă a distribuit o imagine modificată a unui avocat pentru drepturi civile din Minneapolis, întunecându-i pielea și schimbându-i expresia facială dintr-una calmă într-una de plâns exagerat.
Problema s-ar putea agrava considerabil – și curând. Anul acesta, în Statele Unite, au loc alegeri de mijloc de termen cu mize mari, iar agențiile federale care se ocupau în mod tradițional de integritatea informațiilor legate de alegeri au fost slăbite. La fel s-a întâmplat și cu multe grupuri de cercetare externe dedicate verificării faptelor și combaterii dezinformării legate de alegeri. PopularOpenAI investește totul în construirea unui cercetător complet automatizat. Will Douglas Heaven explică cum Pokémon Go oferă roboților de livrare o vedere perfectă asupra lumii. În interiorul startup-ului secret care a propus clone umane fără creier. Antonio Regalado: Vrei să înțelegi starea actuală a AI? Verifică aceste grafice. Michelle Kim: O conversație exclusivă cu omul de știință-șef al OpenAI, Jakub Pachocki, despre noua mare provocare a firmei și viitorul AI. Exclusiv: spin-off-ul AI al Niantic antrenează un nou model mondial folosind 30 de miliarde de imagini cu repere urbane adunate de la jucători. Conform Indexului AI Stanford 2026, AI aleargă, iar noi ne străduim să ținem pasul. Axiom Math oferă gratuit un nou instrument AI puternic. Rămâne de văzut dacă va accelera cercetarea atât cât speră compania. Întâmpinăm probleme în salvarea preferințelor dvs. Încercați să reîmprospătați această pagină și să le actualizați din nou. Dacă continuați să primiți acest mesaj, contactați-ne la customer-service@technologyreview.com cu o listă de newslettere pe care doriți să le primiți. Fondată la Institutul de Tehnologie din Massachusetts în 1899, MIT Technology Review este o companie media independentă de renume mondial, ale cărei perspective, analize, recenzii, interviuri și evenimente live explică cele mai noi tehnologii și impactul lor comercial, social și politic. Ridicați-vă brandul în prim-planul conversației despre tehnologiile emergente care transformă radical afacerile. De la sponsorizări de evenimente la conținut personalizat, până la povestiri video atractive din punct de vedere vizual, publicitatea cu MIT Technology Review creează oportunități pentru brandul dvs. de a rezona cu o audiență de neegalat a elitei tehnologice și de afaceri. Despre noi: Despre noi, Cariere, Conținut personalizat, Publicitate, Ediții internaționale, Republicare, Știri MIT Alumni, Ajutor și întrebări frecvente, Abonamentul meu, Politica editorială, Politica de confidențialitate, Termeni și condiții, Scrieți pentru noi, Contactați-ne.
De ce este important:
Deepfake-urile înarmate reprezintă o amenințare directă la adresa democrației, a încrederii sociale și a siguranței individuale. Ele subminează capacitatea noastră de a distinge realitatea de ficțiune, erodând gândirea critică și alimentând polarizarea. Impactul disproporționat asupra femeilor și grupurilor marginalizate relevă inegalități adânci în societatea digitală. Fără măsuri eficiente de reglementare, educație și protecție tehnică, riscul de dezinformare electorală, hărțuire și violență incitată de conținut fals va crește exponențial. Este crucial să înțelegem aceste pericole și să acționăm acum pentru a proteja integritatea informației și demnitatea umană.