Inteligența Artificială Subminează Drepturile Fundamentale în Europa: Un Raport al UE Ridică Semne de Întrebare

Inteligența Artificială Subminează Drepturile Fundamentale în Europa: Un Raport al UE Ridică Semne de Întrebare

În câteva cuvinte

Un raport al Agenției pentru Drepturi Fundamentale a Uniunii Europene subliniază că inteligența artificială prezintă riscuri semnificative pentru drepturile fundamentale precum azilul, educația și munca în Europa, iar reglementările existente nu oferă o protecție adecvată. Industria de profil se confruntă cu dificultăți în evaluarea și atenuarea acestor riscuri.


Un raport al Agenției Uniunii Europene pentru Drepturi Fundamentale (FRA) a dezvăluit că sistemele de inteligență artificială (IA) pot submina drepturi fundamentale esențiale în Europa, inclusiv cele legate de azil, educație și muncă. Constatările, publicate recent, contrazic parțial eforturile Comisiei Europene de a încuraja adaptarea rapidă a instrumentelor de IA "cu risc ridicat" la noile reglementări.

Raportul FRA indică faptul că mecanismele de control actuale sunt insuficiente pentru a garanta respectarea drepturilor fundamentale. Agenția a analizat impactul IA în cinci domenii cheie: azil, educație, piața muncii, aplicarea legii și beneficii sociale.

Printre cazurile studiate se numără utilizarea IA în procesele de solicitare a locurilor de muncă, în special instrumente care filtrează și evaluează CV-urile. De asemenea, au fost analizate mecanisme automate pentru determinarea eligibilității pentru ajutoarele de dizabilitate, precum și instrumente de supraveghere a examenelor sau de măsurare a capacității de lectură a copiilor. "Aceste sisteme trebuie să fie de încredere, deoarece pot modela decizii importante care afectează viața cotidiană a oamenilor", se arată în raport.

Agenția concluzionează că, deși furnizorii acestor sisteme sunt conștienți de problemele legate de protecția datelor sau discriminarea de gen, ei nu iau în considerare în mod adecvat riscul de încălcare a drepturilor fundamentale. De exemplu, instrumentele care evaluează capacitatea de lectură a copiilor nu analizează modul în care verdictul lor poate afecta dreptul la educație al minorului.

Actul privind IA, care va intra în vigoare din august 2024, clasifică sistemele de inteligență artificială în funcție de riscurile pe care le implică pentru cetățeni și le atribuie obligații și cerințe diferite. Sistemele de "risc nul", cum ar fi detectoarele de spam, nu au restricții, în timp ce cele de "risc inacceptabil" (cum ar fi cele care exploatează vulnerabilitățile umane sau inferă emoții, rasă sau opinii politice) sunt direct interzise.

Aplicațiile de "risc ridicat", care necesită o supraveghere permanentă, includ sisteme de identificare biometrică la distanță, sisteme de categorizare biometrică, cele care afectează securitatea infrastructurilor critice și cele legate de educație, angajare, servicii publice esențiale, aplicarea legii sau gestionarea migrației.

Industria se confruntă cu un dezorientare considerabilă. Comisia Europeană a decis să amâne cu 16 luni începerea supravegherii acestor sisteme, argumentând că standardele pentru ce este și nu este acceptabil în utilizarea acestor instrumente nu au fost încă publicate. Raportul FRA, bazat pe interviuri cu furnizori, operatori și experți, relevă că "mulți dintre cei care dezvoltă, vând sau utilizează sisteme de IA cu risc ridicat nu știu cum să evalueze sistematic sau să atenueze riscurile" pe care aceste instrumente le implică în materie de drepturi fundamentale. Agenția consideră că autoreglementarea este relevantă, dar "nu ia în considerare în mod sistematic drepturile fundamentale".

Про автора

Ana-Maria este o jurnalistă de investigație experimentată, specializată în corupție și scandaluri politice. Articolele ei se remarcă prin analize aprofundate și atenție la detalii.