Filtrează articolele

AI

Trump dorește un Congres blocat să acționeze în domeniul inteligenței artificiale. Statele frustrate răspund că au făcut deja acest lucru

Trump dorește un Congres blocat să acționeze în domeniul inteligenței artificiale. Statele frustrate răspund că au făcut deja acest lucru
În absența unei acțiuni coordonate la nivel federal, statele americane au început să adopte propriile legi pentru reglementarea inteligenței artificiale, creând un complex normativ de orientări pentru siguranța copiilor, cerând o transparență sporită din partea companiilor tehnologice și asigurând protecția pentru avertizori de integritate. Totuși, legislatorii statală – inclusiv cei din partidul președintelui Donald Trump – se confruntă cu o opoziție fermă din partea Casei Albe, care susține că această abordare fragmentată împiedică inovația și creează incertitudine pentru dezvoltatori.

Președintele Trump și principalii săi consilieri, inclusiv „zarul” pentru inteligență artificială și criptomonede, David Sacks, au argumentat repetat că diversitatea legilor statale reprezintă o povară pentru companiile care dezvoltă tehnologii AI. Administrația americană a propus recent un cadru regulator pentru inteligența artificială pe care dorește să îl vadă transpus în legislație de către Congresul Statelor Unite. Michael Kratsios, șeful Biroului pentru Politici Știință și Tehnologie din cadrul Casei Albe, a subliniat săptămâna trecută necesitatea unei viziuni unite: „Dorim să creăm un mediu în care inovatorii să aibă certitudine cu privire la modul în care își pot dezvolta produsele, iar acest lucru este ceva ce doar Congresul poate oferi. Primul pas este crearea unui cadru național unic pentru a evita acest mozaic de reglementări.”

Conceptul de „mozaic normativ” a devenit un punct central al discursului administrației, fiind criticat deschis chiar și de președinte. Această poziție a ajuns până la intervenția directă în procesul legislativ al unor state, inclusiv atunci când inițiativele erau conduse de republicani. Un caz elocvent este cel al reprezentantului statului Utah, Doug Fiefia, membru al Partidului Republican, care a propus la începutul acestui an un proiect de lege menit să impună companiilor tehnologice o transparență sporită privind modul în care protejează consumatorii. Proiectul, însă, nu a ajuns nici măcar la vot, fiind blocat în urma unei intervenții directe din partea administrației Trump, materializată într-un memorandum de o singură linie, potrivit declarațiilor lui Fiefia.

„Au menționat, practic, că se opun proiectului, îl considerau ireparabil și că este împotriva agendei administrației în domeniul inteligenței artificiale”, a explicat Fiefia, fost angajat al Google. El a adăugat că nu a primit nicio explicație suplimentară privind motivele specifice. Un oficial al Casei Albe, vorbind sub protecția anonimatului deoarece nu era autorizat să facă declarații publice, a precizat pentru NPR că administrația nu a interzis niciodată unui stat să adopte măsuri de protecție a copiilor, deși nu a comentat direct memorandumul trimis legislatorului din Utah.

Fiefia a recunoscut că intervenția nu a fost o surpriză totală, având în vedere semnalele primite anterior. Totuși, el a subliniat importanța implicării atât a legislatorilor statală, cât și a celor federali, menționând totodată limitele Congresului: „Congresul este într-un impas politic; nu doar că nu va acționa, dar nu poate acționa. În state precum Utah, vedem acest lucru ca pe o oportunitate de a face un pas înainte și de a ne proteja alegătorii și cetățenii, în special în ceea ce privește siguranța copiilor.”

Această frustrare este împărtășită și de senatorul statală Tracy Pennycuick, o republicană din Pennsylvania, care a sponsorizat legislația privind inteligența artificială, inclusiv recenta lege SAFECHAT. Aceasta impune companiilor de AI să includă măsuri de siguranță pentru a preveni chatboții să furnizeze conținut care încurajează auto-vătămarea sau violența. „Sunt moderat interesată de ceea ce face guvernul federal în acest moment. Îmi pare rău, dar durează prea mult”, a declarat Pennycuick. „Cred că statele sunt primele care observă o problemă și au capacitatea de a se adapta și de a acționa rapid. Așadar, vom continua să facem ceea ce facem.”

Deși administrația critică lipsa de uniformitate, Pennycuick a argumentat că, în absența unei reglementări federale puternice, statele trebuie să își păstreze dreptul de a legifera. „Când nu există reglementări, ai un „Far West”. Îmi place ideea unei legislații federale puternice, dar până când aceasta va exista, cred că trebuie să păstrăm capacitatea statelor de a adopta legi.”

Cadrul propus de Casa Albă conturează principii precum protejarea copiilor de riscurile asociate tehnologiei și apărarea consumatorilor de costurile ridicate ale centrelor de date. Reacțiile din partea experților și legislatorilor au fost mixte. Riki Parikh, director de politici la organizația non-profit Alliance for Secure AI, a criticat lipsa de specificitate a cadrului, în special în ceea ce privește impactul tehnologiei asupra locurilor de muncă și responsabilitatea companiilor. „Un standard federal este mai bun decât un mozaic de 50 de state, dar ceea ce propun ei aici nu este suficient. Nu câștigă dreptul de a înlocui munca bună pe care o fac statele în acest moment.”

Pe de altă parte, procurorul general al statului Tennessee, Jonathan Skrmetti, a privit cu optimism inițiativa administrației, mai ales în comparație cu încercările anterioare. El și-a exprimat ușurarea față de eșecul propunerii de anul trecut a unei moratori de 10 ani asupra legilor statale privind inteligența artificială, o măsură susținută de companiile tehnologice. „Dacă ai avea o blocare de 10 ani a oricărei autorități cu putere de executare și voința de a o folosi, cine știe ce s-ar fi întâmplat. A fost cu adevărat înspăimântător”, a concluzionat Skrmetti, subliniind necesitatea unui echilibru între inovație și protecția cetățenilor.

Acest site folosește cookie-uri pentru a-ți oferi o experiență de navigare cât mai plăcută. Continuarea navigării implică acceptarea acestora.