Guvernul aprobă legea privind utilizarea corectă a IA, obligând etichetarea conținutului creat cu această tehnologie

Guvernul aprobă legea privind utilizarea corectă a IA, obligând etichetarea conținutului creat cu această tehnologie

În câteva cuvinte

Proiectul de lege adoptat de Guvern reglementează utilizarea inteligenței artificiale, transpunând regulamentul european. Se interzic anumite aplicații ale IA și se impune etichetarea conținutului generat de aceasta, inclusiv a deepfakes-urilor, deși modalitatea exactă de etichetare urmează să fie stabilită de Agenția Spaniolă de Supraveghere a Inteligenței Artificiale.


Consiliul de Miniștri a aprobat legea privind Inteligența Artificială

Consiliul de Miniștri a aprobat astăzi proiectul de lege pentru o utilizare etică, incluzivă și benefică a inteligenței artificiale (IA), care își propune să pună ordine în aplicarea practică a acestei tehnologii. Proiectul de lege adaptează la legislația noastră prevederile Regulamentului European privind Inteligența Artificială, convenit de instituțiile comunitare la 8 decembrie 2023 și aprobat de Parlamentul European la 13 martie anul trecut. “IA este un instrument foarte puternic, care poate servi pentru a ne îmbunătăți viețile sau pentru a răspândi știri false și a ataca democrația”, a declarat în cadrul unei conferințe de presă ministrul Transformării Digitale și al Funcției Publice, Óscar López.

După cum a amintit ministrul, reglementările europene “ne apără drepturile digitale, identificând practici interzise”. De exemplu, consideră infracțiune gravă nerespectarea etichetării textelor, videoclipurilor sau fișierelor audio generate cu IA. “Suntem cu toții susceptibili de a fi ținta unui atac de acest tip. Se numesc deepfakes și sunt interzise”, a avertizat López.

Cu toate acestea, ministrul nu a precizat cum ar trebui realizată această etichetare. “Când va fi elaborată legislația, Agenția Spaniolă de Supraveghere a Inteligenței Artificiale (Aesia) va stabili regulile”, a spus el. Cine va controla respectarea acestora? Gestionarea și prelucrarea datelor biometrice vor fi responsabilitatea Agenției Spaniole pentru Protecția Datelor (AEPD); sistemele de IA care pot afecta democrația vor fi de competența Consiliului Electoral Central; iar de Consiliul General al Puterii Judiciare cele care pot influența aplicarea justiției.


Mai multe informații

Ignasi Belda, noul director al Agenției de Supraveghere a Inteligenței Artificiale

Restul cazurilor vor fi studiate de Aesia. Constituită anul trecut și cu sediul în A Coruña, organismul este condus de Ignasi Belda și intenționează să angajeze până în 2026 cel puțin 80 de experți din diverse discipline care vor trebui să revizuiască adecvarea diferitelor aplicații de IA la reglementări.

López a reamintit că, așa cum prevede Regulamentul European privind IA, cei care încalcă reglementările se vor confrunta cu amenzi de până la 35 de milioane de euro și/sau între 5% și 7% din cifra de afaceri mondială.


Adaptarea cadrului european

Regulamentul European privind IA, considerat cel mai avansat din lume în această privință, are o abordare pionieră. Cu scopul de a nu deveni depășit, regulamentul clasifică diferitele aplicații de IA disponibile în funcție de riscul lor și, în funcție de acesta, stabilește cerințe și obligații diferite. Acestea variază de la utilizarea fără restricții, de exemplu, un filtru de spam sau un recomandator de conținut, până la interzicerea totală. Aceste cazuri, mai grave, se referă la acele aplicații “care depășesc conștiința unei persoane sau tehnici deliberat manipulatoare”, cele care exploatează vulnerabilitățile sau cele care deduc emoții, rasă sau opinii politice ale oamenilor.

Între cele două extreme se situează așa-numitele tehnologii de “risc ridicat”, supuse unei supravegheri permanente. În această categorie se încadrează sistemele de identificare biometrică de la distanță, pe care un sector larg al Parlamentului dorea să le interzică definitiv; sistemele de categorizare biometrică sau recunoașterea emoțiilor. De asemenea, sistemele care afectează securitatea infrastructurilor critice și cele legate de educație (evaluarea comportamentelor, sisteme de admitere și examene), angajare (selecția personalului) și prestarea de servicii publice esențiale, aplicarea legii sau gestionarea migrației.

Regulamentul stabilește, de asemenea, că trebuie efectuate rapoarte periodice pentru a actualiza această clasificare, astfel încât, atunci când apar noi aplicații care nu sunt prevăzute în document, să se determine în ce categorie se încadrează (utilizare fără restricții, utilizare supusă restricțiilor sau interdicție).

Același lucru s-a întâmplat, de exemplu, cu IA generativă, tehnologia din spatele instrumentelor precum ChatGPT: apariția sa a avut loc atunci când negocierea Regulamentului era deja foarte avansată. S-a discutat dacă se face sau nu o mențiune specifică a acesteia. În cele din urmă, a fost inclusă și s-a stabilit că așa-numitele modele fundamentale vor trebui să îndeplinească criterii de transparență, cum ar fi specificarea dacă un text, un cântec sau o fotografie au fost generate prin IA, precum și garantarea faptului că datele care au fost utilizate pentru antrenarea sistemelor respectă drepturile de autor.

Documentul nu a stabilit, totuși, modul în care ar trebui realizată această semnalizare a conținutului elaborat de IA și nici modul în care se garantează respectarea drepturilor de autor. Aceste două aspecte cheie nu au fost concretizate nici în proiectul prezentat astăzi.

Read in other languages

Про автора

Gabriel scrie despre știri criminale din Spania. El are abilitatea de a face o analiză amănunțită a evenimentelor și de a oferi cititorilor o imagine cât mai completă a ceea ce s-a întâmplat.