Amnesty International avertizează cu privire la posibilele abuzuri în timp ce UE ajunge la un acord în legătură cu Legea privind Inteligența Artificială.

img F4oXQQp3aIL7H5PTm1uqANCa

Supraveghere digitală

Potrivit lui Mher Hakobyan, consilier de susținere în cazul problemelor de inteligență artificială la Amnesty International, „sistemele de supraveghere digitală produse de companii franceze, suedeze și olandeze au fost utilizate în cadrul programelor de supraveghere în masă ale Chinei împotriva uigurilor și a altor grupuri etnice majoritar musulmane de pe teritoriul său.

Drept răspuns, UE precizează că Legea privind AI…

Următoarea etapă este un vot al unui comitet cheie al legislatorilor UE la 13 februarie, urmat de ratificarea de către Parlamentul European în martie sau aprilie, dacă textul final va fi aprobat în cele din urmă.

Însă, până în prezent, Parlamentul European a respins interzicerea exportului de sisteme de IA, în ciuda preocupărilor legate de potențialele încălcări ale drepturilor omului.

Enigma Oppenheimer

Întrebarea este dacă este mai bine ca țările să poată dezvolta platforme de AI și să le exporte către regimurile autoritare sau dacă regimurile autoritare ar trebuie să depindă de tehnologiile de inteligență artificială dezvoltate în țară, cu toate problemele pe care le implica acest fapt.

Enigma nu este diferită de cursa lui J. Robert Oppenheimer de a construi o bombă atomică înainte ca naziștii să poată produce arme nucleare, spune Hakobyan.

„Ar fi bine dacă tehnologiile produse în Europa… ar urma aceleași standarde atunci când o companie dorește să le introducă pe piața europeană…„[Însă] aceeași companie care produce același sistem în scopul exportului [în prezent] nu trebuie să treacă prin niciuna dintre aceste măsuri de protejare sau transparență pentru a-l vinde în străinătate”, spune Hakobyan.

„Ar fi benefic dacă cel puțin standardele juridice și tehnice ar fi respectate, dar nu trebuie să se facă acest lucru [în momentul acesta]”.

Hakobyan subliniază că în Europa este posibil să se realizeze modele de IA problematice sau defectuoase, dar există standarde procedurale și juridice în ceea ce privește dezvoltarea IA care protejează împotriva încălcării drepturilor omului sau a discriminării.

Sursa: