Juli Ponce, jurist: «100% dintre mașinile AI sunt psihopate, oamenii doar 1%»

Juli Ponce, jurist: «100% dintre mașinile AI sunt psihopate, oamenii doar 1%»

În câteva cuvinte

Profesorul Juli Ponce Solé avertizează despre riscurile utilizării necontrolate a inteligenței artificiale în administrația publică, subliniind importanța menținerii controlului uman în deciziile importante și necesitatea unui echilibru între eficiența IA și protejarea drepturilor cetățenilor. El subliniază că 100% dintre mașinile AI nu au empatie, spre deosebire de oameni, și evidențiază importanța emoțiilor în luarea deciziilor echitabile. De asemenea, menționează despre riscul ca funcționarii să se ascundă în spatele deciziilor IA pentru a evita responsabilitățile.


Juli Ponce Solé: "100% dintre mașinile AI sunt psihopate, deoarece nu au empatie"

Juli Ponce Solé (Barcelona, 57 de ani) este profesor universitar de drept administrativ la Universitatea din Barcelona. Tocmai a publicat un manual despre utilizarea adecvată și rezonabilă a inteligenței artificiale (IA) în administrațiile publice, cu un titlu foarte lung: Regulamentul privind inteligența artificială al Uniunii Europene din 2024, dreptul la o bună administrație digitală și controlul său judiciar în Spania. Ca în multe alte profesii, funcționarii publici vor profita și vor suferi de pe urma IA. Dar, datorită tipului lor de muncă delicată, cerințele pentru mașini sunt mai exigente. Ponce Solé consideră că "lipsa lor de empatie și alte emoții le împiedică să ia decizii care afectează oamenii".

Întrebare. Cum folosește ChatGPT un profesor universitar de drept administrativ?

Răspuns. Îl folosesc și îi încurajez pe studenții mei să îl folosească, pentru că știu că îl vor folosi în orice caz. Le ofer îndrumări cu privire la posibilitățile și limitele sale. Pentru juriști, jurisprudența este importantă. ChatGPT o inventează sau este mai sincer și îți spune că nu are acces la baze de date de jurisprudență, ceea ce reprezintă o lacună importantă. Este foarte util, mai ales pentru a te orienta.

Î. Nu pare atât de util.

R. Unele reviste juridice al căror membru al consiliului editorial sunt ne-au adresat deja câteva întrebări discrete despre modul în care îl folosim în universități, deoarece găsesc din ce în ce mai multe articole științifice de cercetare realizate cu IA. Nu știu procentul, dar este ceva ce există și îngrijorează.

Mai multe informații

Cine îl supraveghează pe supraveghetor? Noua lege spaniolă privind IA abia dacă pedepsește Administrația

Î. Funcționarii publici folosesc și ei aceste instrumente?

R. Suntem într-un moment de Vest Sălbatic. La universitatea mea am întrebat dacă există vreun criteriu, vreun protocol etic pentru utilizarea IA și mi s-a răspuns că nu. Cred că este ceva general. Nu știu să existe vreun ghid sau vreo indicație. Fiecare face ce crede de cuviință. Rămâne la latitudinea fiecărui funcționar public.

Î. Vă temeți de acest dezechilibru cu IA în administrația publică?

R. De inteligența artificială nu trebuie să ne temem, ci să o respectăm și să fim prudenți. IA are nevoie de cantități uriașe de date, iar administrațiile publice trebuie să țină cont de legislația privind protecția datelor. O altă precauție sunt limitele actuale ale inteligenței artificiale, care este restrânsă sau slabă. Are limitări, iar dacă ar fi folosită de înalți funcționari în luarea deciziilor, ar fi o greșeală și ar fi ilegal.

Î. Funcționarii publici umani fac și ei greșeli, și nu sunt ilegale.

R. Este adevărat, oamenii fac greșeli și au o problemă specifică de prejudecăți cognitive. Acestea sunt prejudecăți exclusiv umane, deoarece doar noi avem creier. Mașinile nu pot avea aceste prejudecăți, dar au altele, cum ar fi halucinațiile. Atât oamenii, cât și mașinile fac greșeli. Dar o inteligență artificială este capabilă să își replice eroarea de mii sau sute de mii de ori. Este o problemă de scalabilitate. Inteligența artificială, dacă funcționează bine, va accelera gestionarea. Dar, în schimb, va trebui să plătim un preț dacă funcționează prost: impactul poate fi de o scară mai mare. Juli Ponce, joi, în Sant Cugat del Vallés.massimiliano minocri

Î. Emoțiile sunt relevante pentru decizii, spuneți. Deoarece IA nu are, deciziile sale sunt ilegale?

R. Nu știu dacă va avea vreodată emoții. Desigur, acum nu are; pe termen mediu nici atât, iar pe termen lung vom vedea.

Î. Dar imită emoțiile.

R. Dar este evident că inteligența artificială nu dispune de emoții, nu dispune de creier, iar printre emoții nu dispune de empatie, deoarece nu are neuroni oglindă. 100% dintre mașinile AI sunt psihopate, deoarece nu au empatie. Oamenii, într-adevăr, fac greșeli: dar doar 1% sunt psihopați. Aici intrăm într-un câmp interesant care depășește cu mult dreptul și care ne afectează pe toți. Decizia unei mașini ne-ar putea trimite la închisoare, ceea ce ar fi cel mai vizibil pentru cetățeanul de rând. Este o dezbatere pe care o aveam deja cu oamenii înainte de apariția inteligenței artificiale. Obama a ales-o pe judecătoarea Sonia Sotomayor pentru Curtea Supremă și a spus că o numește pentru că apreciază capacitatea ei empatică în deciziile sale. Acolo a fost o schismă. Juriștii sunt instruiți să lege dreptul de raționalitatea rece. Este o moștenire pe care o purtăm de la Iluminism. Acest model este pus sub semnul întrebării de ani de zile. Tradiția este că emoțiile trebuiau izolate pentru a lua decizii bune. Dar neurocercetătorul António Damásio afirmă contrariul: nu este posibil să iei decizii bune fără emoții. Trebuie să existe un echilibru. El explică, de asemenea, că emoțiile sunt legate de existența unui corp fizic la oameni, pe care mașinile nu îl au. Nu sunt foarte sigur că vreau ca o mașină incapabilă să aibă vreun fel de emoție, să manifeste empatie și, prin urmare, este incapabilă să manifeste echitate să decidă asupra mea. Echitatea se află de mulți ani în Codul nostru Civil, normele trebuie temperate, trebuie ajustate la caz. Nu aș fi foarte liniștit.

Î. Este logic.

R. Cu tehnologia pe care o avem astăzi, este pur și simplu ilegală utilizarea mașinilor pentru a lua decizii care implică marje de apreciere, care trebuie să țină cont de interesele și drepturile oamenilor.

Î. Dar adesea există plângeri cu privire la judecătorii ale căror verdicte sunt adesea părtinitoare întotdeauna în aceeași direcție sau care tratează victimele prost.

R. Nu trebuie să alegem. Trebuie să fim inteligenți pentru a uni ce e mai bun din ambele lumi. Ideal ar fi o colaborare între mașini ca asistenți și oameni ca decidenți finali. Regulamentul UE privind IA face un pariu important: inteligența artificială nu poate dicta sentințe. Poate doar să ajute judecătorul. Și adaugă că funcția de a judeca este intrinsec umană. Asta nu înseamnă că IA nu poate fi utilizată, ci doar că ultimul cuvânt nu îl poate avea o mașină.

Î. Ar fi o schimbare importantă.

R. Sună foarte rezonabil, deoarece calea de mijloc este întotdeauna rezonabilă. Dar voi face pe avocatul diavolului pentru mine însumi. Faptul că există un om la final liniștește conștiințele. Dar suferim de o prejudecată numită automatizare: avem tendința să avem mare încredere în mașini. Și mai există un element uman important: gândirea este obositoare. În loc ca omul să supravegheze și să decidă, ceea ce se poate întâmpla este ca omul să semneze doar ceea ce i-a spus IA. Dacă un judecător trebuie să dicteze, de exemplu, 30 de sentințe într-o lună, la prima sentință poate va fi foarte prudent, a doua poate, de asemenea; dar când vede că IA funcționează relativ bine ca asistent, la a 300-a sentință este probabil să pună ștampila și să treacă la altceva. Este un risc de care ar trebui să fim conștienți.

Î. Se poate întâmpla ca oamenii să se ascundă în spatele deciziilor IA pentru a evita responsabilitățile?

R. Este un risc într-un context în care se produce un fenomen numit birocrație defensivă, teama de a semna. S-a generat o anumită teamă de a-ți pune semnătura, ca să nu ai o problemă cu un organism contabil sau în domeniul penal. Utilizarea IA poate agrava această problemă, deoarece dacă îmi este frică, cel mai ușor este să las o mașină să ia decizia. Avem tendința să ne autoprotejăm și să evităm problemele. Și nu se poate. Trebuie să fie foarte clară responsabilitatea celui care ia decizia.

Î. Dacă continuă să avanseze ca în sectorul privat, poate avem nevoie de mai puțini funcționari publici.

R. Este foarte probabil să fie nevoie de mai puțini funcționari publici.

Î. Funcționarii publici nu sunt scutiți de acest progres.

Juli Ponce, în Sant Cugat del Vallés, joi.massimiliano minocri

R. În sectorul public și în cel privat vor exista evoluții similare. În carte dezvolt conceptul de rezervă de umanitate. L-am promovat deja în urmă cu ani de zile. Creatorul Eliza [unul dintre primii chatbot-uri] a spus deja în anii șaizeci că există lucruri care nu pot fi lăsate în seama mașinilor. Această intuiție este încă valabilă. Rezerva de umanitate nu este un colț pentru a salva ultimii înalți funcționari publici. Am avut aceste conversații cu persoane specializate în sectorul privat și în consiliile de administrație. Există un anumit consens că trebuie stabilită o rezervă de umanitate pentru un set de funcții și sarcini care afectează drepturile și interesele foarte sensibile ale cetățenilor: drept penal, acordarea de credite, amenzi mari.

Regulamentul european privind inteligența artificială este un bun exemplu de normă care nu vrea să se rigidizeze. Este plină de uși și portițe pentru a se adapta. O utilizare greșită a inteligenței artificiale, o utilizare inadecvată, ne-ar duce la contrariul a ceea ce ne dorim. Nu sunt tehnopesimist sau antitehnologie, dimpotrivă. Trebuie găsit echilibrul. A face proclamații mari că IA ne va rezolva toate problemele sau că va genera dezastre epice este lucrul ușor și care dă un titlu. Dar realitatea este munca tăcută care va trebui făcută în următorii ani. În instanțe, cum se folosește inteligența artificială? Pentru ce probleme? Ce rol va avea judecătorul? Sau într-un plan urbanistic, ce rol poate avea? Cine va lua decizia finală?

Î. Nu pare ușor de răspuns.

R. Există probleme foarte mari pe care le discutam deja înainte de IA, le discutăm acum și le vom discuta în continuare. Când vorbim despre IA, prin contrast, vorbim despre ce înseamnă a fi om, ce înseamnă a lua o decizie bună: ce plus aduce omul față de mașină și ce plus aduce mașina față de om? Am citit deja oferte electorale care spuneau că vor automatiza pentru a economisi 15.000 de milioane de euro. Inteligențele artificiale nu obosesc, nu cer concedii medicale, nu își iau vacanțe, nu se sindicalizează, nu creează probleme. Este foarte atractiv să spui că vei evita acei funcționari publici leneși. Dar haideți să încercăm să evităm distopiile.

Inteligența artificială trebuie încorporată și deja întârziem. Administrațiile publice ar trebui să utilizeze mult mai mult IA pentru a oferi servicii personalizate și proactive. La fel ca în sectorul privat, te identifică și prezic de ce ai putea avea nevoie, evident cu scopul de a obține profit. Același lucru ar putea face și administrațiile publice: să identifice ce copii din cantinele școlare au nevoie de bursă și să nu aștepte ca părinții să o solicite, care poate nu știu că există o bursă sau găsesc dificilă depunerea cererii.

Read in other languages

Про автора

Ana-Maria este o jurnalistă de investigație experimentată, specializată în corupție și scandaluri politice. Articolele ei se remarcă prin analize aprofundate și atenție la detalii.