
În câteva cuvinte
Articolul este un interviu cu expertul în IA Ramon López de Mántaras, care discută despre stadiul actual al IA, în special IA generativă precum ChatGPT. El își exprimă scepticismul cu privire la valoarea științifică a IA generative în atingerea IA adevărate, argumentând că conștiința și inteligența sunt legate de ființele vii și substraturile biologice. El critică implementarea pripită a IA generative și solicită o atenție etică și juridică mai mare, precum și reglementări, în special în ceea ce privește dezinformarea și manipularea.
Ramon López de Mántaras (Sant Vicenç de Castellet, Barcelona, 72 de ani) poate spune că s-a dedicat inteligenței artificiale (IA) înainte ca aceasta să devină la modă.
Cu mult înainte, de fapt: are cincizeci de ani în domeniu, ceea ce îl face unul dintre pionierii autohtoni ai disciplinei. Povestește ca anecdotă că, atunci când Yann LeCun, actualul om de știință șef în IA la Meta și considerat unul dintre părinții învățării profunde (machine learning), își făcea teza de doctorat la Universitatea Sorbona din Paris, el a fost profesor universitar invitat acolo și i-a predat un curs. Acest inginer electrician, informatician și fizician catalan este fondatorul Institutului de Cercetare în Inteligență Artificială al Centrului Superior de Cercetări Științifice (CSIC), organism cu care încă mai colaborează ca profesor de cercetare emerit. Tocmai și-a prezentat la Madrid ultima sa carte, 100 de lucruri pe care trebuie să le știi despre inteligența artificială (Lectio Ediciones), în care oferă o călătorie foarte pedagogică prin istoria acestei discipline, reușind să explice într-un mod simplu idei care nu sunt atât de simple. IA generativă, cea care se află în spatele instrumentelor precum ChatGPT sau Copilot, îi dedică doar epilogul, deoarece a apărut când manuscrisul era gata de publicare.
Mai multe informații
Demis Hassabis, premiul Nobel pentru Chimie: „Vom avea nevoie de o mână de progrese majore înainte de a ajunge la o inteligență artificială generală”
Întrebare. Care a fost, în opinia dumneavoastră, impactul IA generative asupra disciplinei?
Răspuns. Din punct de vedere științific, eu îi văd un interes mai degrabă scăzut. Dacă ne limităm la IA modernă, marea întrebare științifică este dacă este posibil să existe inteligență în ceva care nu este biologic. Eu cred că, pentru a înțelege cu adevărat lumea, este necesar să ai conștiință. Acesta este obiectivul științific încă de pe vremea pionierilor din anii cincizeci și șaizeci: să facem mașini care să fie la fel de inteligente sau mai inteligente decât oamenii în toate sensurile. Opinia mea, și a altora precum Yann LeCun sau Demis Hassabis [director general al Google DeepMind], este că IA generativă nu numai că nu ne face să avansăm către acea IA puternică, dar, așa cum spune LeCun, ne abate de la calea de a o realiza. Argumentul este că nu pot înțelege lumea pentru că nu au un corp cu care să interacționeze în această lume. Eu merg puțin mai departe: a avea un corp permite probabil învățarea legilor fizice de bază și a relațiilor cauză-efect cele mai elementare pe care le cunoaște chiar și un bebeluș, cum ar fi că, dacă dai drumul unui măr, acesta cade la pământ. Dar asta nu implică faptul că o IA are conștiință.
P. Cu toate acestea, IA generativă a provocat fascinație în întreaga lume. Primul avertisment a fost atunci când inginerul Google Blake Lemoine a crezut că discută pe chat cu o IA care avea conștiință. De ce avem tendința de a antropomorfiza?
R. Este ceva inerent ființei umane. Imediat proiectăm subiecți în obiecte care nu au calități umane. Așa a fost dintotdeauna. Dar trebuie să recunoaștem că, în acest caz, rezultatul este impresionant. Întrebi ceva ChatGPT și răspunsurile sunt de o precizie uluitoare, gramatical perfecte, persuasive și cu un discurs bine făcut, deși uneori scoate falsități. Înțeleg că oamenii pot ajunge să creadă că în spatele acestuia se află cu adevărat o inteligență chiar mai puternică decât a lor. Dar, în realitate, te afli în fața unui program de calculator care detectează și recombina tipare în mod repetat și regurgitează rezultatele.
Ramon López de Mántaras pozează pe o stradă din Madrid.INMA FLORES
P. Unii consideră că IA este deja la fel de inteligentă ca oamenii sau chiar conștientă. Este posibil ca o mașină să dobândească conștiință?
R. Cel care afirmă că mașina este inteligentă și conștientă, acela este cel care trebuie să demonstreze acest lucru. Eu sunt dintre cei care cred că a fi conștient, a înțelege lumea și a fi inteligent în sensul uman al termenului este profund înrădăcinat în faptul că suntem ființe vii. În faptul că substratul nostru este chimia carbonului, nu cea a siliciului. Suntem atât de diferiți de mașini, cu hardware-ul și software-ul lor... Fizica din spatele computerelor se bazează pe tranzistori care conduc sau nu electricitatea, unitățile și zerourile, în timp ce simbolurile noastre fizice sunt procesările pe care le facem cu neuronii, care sunt mult mai complexe decât limbajul binar. Avem activitate electrică, dar și chimică. În fine, este atât de incomparabilă și atât de diferită natura creierului și a corpului uman față de o mașină încât, în opinia mea, conștiința și inteligența se pot da doar în ființe vii. Altceva este că, într-o zi foarte îndepărtată, bioingineria va evolua în așa fel încât replicanții din Blade Runner să fie fezabili. Dacă se întâmplă asta, aș începe să admit că este posibil ca mașinile să poată ajunge să fie conștiente și inteligente.
P. În carte spuneți că una dintre provocările fundamentale ale IA este să reușească să aibă bun simț. Cât se poate avansa în acest sens?
R. Ei bine, deocamdată văd că în fiecare zi apare o companie de tehnologie care spune că noul său model lingvistic are cu mult mai mulți trilioane de parametri decât cel anterior. Dar toate aceste modele sunt, în esență, același lucru. Se bazează pe conceptul de Transformer, care este arhitectura neuronală care se află în spatele marilor modele lingvistice (LLM), care evaluează ce cuvânt este cel mai probabil să urmeze unei secvențe determinate de cuvinte. Acolo, din punct de vedere științific, nu văd progrese. Acum, însă, există deja mari companii de tehnologie, precum Google DeepMind, care dau un corp robotic modelelor lor. Pe acolo putem vedea lucruri interesante. Deoarece datele cu care sunt antrenate modelele de IA generativă se epuizează, Hassabis sau LeCun susțin că calea este să le facem corporale pentru ca acestea să poată înțelege lumea, lucru pe care îl spun eu de 20 de ani în conferințele mele. Ceea ce trebuie făcut este să generăm hibrizi, să integrăm rețelele neuronale cu arhitecturi cognitive și IA simbolică bazată pe logică. Iar rezultatul acestuia, să îl dotăm cu un corp.
P. Fără a dota IA cu un corp, nu vor exista progrese mari?
R. IA nu are întotdeauna nevoie să aibă cunoștințe despre lume pentru a funcționa bine. AlphaFold, care i-a adus Premiul Nobel pentru Chimie lui Hassabis, are 32 de algoritmi diferiți. Există rețele neuronale, machine learning și IA de cauzalitate care lucrează în mod integrat. Pentru a prezice modul în care se pliază proteinele nu este nevoie să ai un model al lumii și, prin urmare, nu este nevoie să ai un corp.
P. Vă plângeți în carte că IA generativă este implementată într-un mod foarte grăbit și precipitat. Cum ar trebui făcut? Ce tip de reglementare ar trebui să avem?
R. Ne aflăm într-un fel de cursă înarmărilor. Primul model de ChatGPT l-au lansat cu ideea că vor primi feedback de la sutele de milioane de oameni care îl vor folosi. Această dinamică de a da drumul la monstru și de a aștepta să vedem ce se întâmplă este fatală din punct de vedere etic și chiar legal. Nu se pot face experimente sociale la scară largă, cred că trebuie să fim mai prudenți. Eu mă îngrijorez, pentru că am văzut deja, din câte se știe, vreo două sinucideri în Belgia și Statele Unite. Emily Bender, Timnit Gebru și Margaret Mitchell au avertizat deja într-un articol despre consecințele lansării unei tehnologii care i-ar face pe oameni să creadă că interacționează cu un om.
P. Vi se pare corect modul în care UE abordează problema?
R. Uniunea Europeană merge în direcția bună, deși nu este o reglementare cu care sunt 100% de acord. Cred că implică o sarcină birocratică foarte mare, care va face dificilă respectarea legii de către companiile de bună credință. Cum vei cere transparență algoritmică dacă chiar și proiectanții de software nu știu ce se întâmplă cu adevărat în interiorul cutiei negre care este machine learning? Un alt lucru pe care îl critic este că nu menționează nici măcar o singură dată aplicațiile de arme letale autonome.
Dar, cu aceste rezerve, cred că ideea de bază a reglementării este bună. Trebuie reglementate aplicațiile periculoase ale IA. Nu vorbim despre faptul că ar putea domina omenirea, ci despre pericole reale: manipularea informațiilor, dezinformarea, influența asupra rezultatelor electorale, prejudecăți, discriminare, consum energetic absolut nesustenabil, etc. Avem deja o listă lungă de probleme reale. Se pare că cei care se concentrează asupra riscurilor existențiale ale IA o fac pentru a acoperi cu un văl gros ceea ce se întâmplă deja.