
În câteva cuvinte
Filosoful Daniel Innerarity explorează impactul profund al inteligenței artificiale asupra societății și democrației. Textul subliniază necesitatea unei abordări critice, dincolo de simplele coduri etice, pentru a înțelege cum automatizarea și algoritmii remodelează procesul decizional și conceptul de autoguvernare. Autorul argumentează că este esențial să se găsească un echilibru între controlul uman și beneficiile automatizării, evitând atât limitările excesive, cât și delegarea iresponsabilă a deciziilor.
Organizarea politică a societăților
Organizarea politică a societăților a avut întotdeauna o pretenție de automatism. De îndată ce se depășește simplitatea familiei sau a tribului, organizațiile umane au nevoie de date și proceduri care să permită gestionarea complexității incipiente. Din această perspectivă, raționalitatea algoritmică, mai degrabă decât să reprezinte o ruptură absolută cu trecutul, poate fi analizată în conformitate cu continuitățile istorice, adică, ori de câte ori a trebuit să se stabilească o ordine într-un mediu de complexitate și eterogenitate. Asemenea birocrației pentru statul modern, inteligența artificială pare destinată să fie logica de legitimare a organizațiilor și guvernelor în societățile digitale. Cele trei elemente care vor modifica politica acestui secol sunt sistemele din ce în ce mai inteligente, o tehnologie mai integrată și o societate mai cuantificată.
Stat, piață și algoritmi
Dacă politica de-a lungul secolului XX s-a concentrat pe dezbaterea despre cum să se echilibreze statul și piața (câtă putere ar trebui conferită statului și câtă libertate ar trebui lăsată în mâinile pieței), marea întrebare astăzi este să decidem dacă viețile noastre ar trebui să fie guvernate de proceduri algoritmice și în ce măsură, cum să articulăm beneficiile robotizării, automatizării și digitalizării cu acele principii de autoguvernare care constituie nucleul normativ al organizării democratice a societăților. Modul în care configurăm guvernanța acestor tehnologii va fi decisiv pentru viitorul democrației; poate implica distrugerea sau consolidarea acesteia.
Automatizare și decizie umană
Oamenii au aspirat întotdeauna ca o procedură mecanică să ne facă mai puțin dependenți de voința celorlalți. Raționalitatea algoritmică pare să promită acest lucru, dar este într-adevăr așa? Problema fundamentală a inteligenței artificiale este externalizarea tot mai mare a deciziilor umane în ea. Automatizarea generalizată ridică problema locului care îi revine deciziei umane, dacă este vorba pur și simplu de un supliment, de o modificare sau de o înlocuire. Răspunsul la toate aceste întrebări ar permite transformarea informaticii într-o disciplină politică. În cele din urmă, cine decide când, aparent, nimeni nu decide?
Răspunsuri la rațiunea algoritmică
Există trei răspunsuri posibile la acest set de probleme ridicate de rolul tot mai mare al rațiunii algoritmice datorită delegării deciziilor către inteligența artificială:
- moratoriul,
- etica și
- critica politică, adică propunerea ca tehnologia să fie oprită cel puțin pentru o vreme, supusă codurilor etice sau examinată dintr-o perspectivă de critică politică.
Moratoriul
Ideea de moratoriu evidențiază o lipsă de înțelegere a naturii tehnologiei, a articulării sale cu oamenii și, în mod concret, a potențialităților inteligenței artificiale în raport cu inteligența umană, în opinia mea, mai puțin amenințată decât presupun cei care se tem de supremația digitală. Desigur, ne confruntăm cu un decalaj din ce în ce mai îngrijorător între rapiditatea tehnologiei și lentoarea reglementării sale. Dezbaterile politice sau legislația sunt în principal reactive. Un moratoriu ar avea avantajul că cadrul de reglementare ar putea fi adoptat în mod proactiv înainte ca cercetarea să continue să avanseze. Dar lucrurile nu funcționează așa, cu atât mai puțin cu acest tip de tehnologii atât de sofisticate. Cererea de moratoriu descrie o lume fictivă pentru că, pe de o parte, consideră posibilă victoria inteligenței artificiale asupra celei umane și, pe de altă parte, sugerează că inteligența artificială ar avea nevoie doar de câteva actualizări tehnice în timpul a șase luni de înghețare a dezvoltării sale. Cum rămâne? Cum se face că amenințarea este atât de gravă și că, în același timp, sunt suficiente șase luni de moratoriu pentru a o neutraliza?
Etica
O altă resursă pentru a încerca să condiționăm dezvoltarea tehnologică este apelul la criterii etice. În acest caz, nu ar fi vorba de a opri dezvoltarea, ci de a o orienta într-o anumită direcție. Așa au pretins multitudinea de instituții care și-au lansat îndemnurile în ultimii ani, într-un număr tot mai mare, care este invers proporțional cu noutatea propunerilor. Deși referirea la orizontul normativ este foarte necesară, acest apel nu epuizează toate posibilitățile criticii. Dacă moratoriul frâna prea mult, am putea spune că etica frânează prea puțin și poate ajunge să devină un însoțitor inofensiv al dezvoltării tehnologice iresponsabile. Nu ne putem aștepta la soluția problemei articulării dintre inteligența artificială și democrație din actuala proliferare a codurilor etice pentru că, deși urmăresc să protejeze valorile esențiale ale democrației, nu dezvoltă conceptual problema măsurii în care automatizarea generalizată modifică condiția democratică. Înainte de a fi normativ, provocarea cu care ne confruntăm este conceptuală. Doar o lectură politică a constelației digitale ne va permite să examinăm calitatea democratică a digitalizării.
Teoria critică
Teoria critică este ceva foarte diferit de etica inteligenței artificiale; critica începe exact acolo unde se termină apelurile la dezvoltarea unei inteligențe artificiale responsabile și umaniste. Critica nu este un îndemn de a face bine, ci o investigare a condițiilor structurale care fac posibil sau împiedică să facem bine. Ce aduce perspectiva criticii filosofice asupra temei raționalității algoritmice? În esență, o interogație aproape niciodată pe deplin satisfăcută asupra presupunerilor pe care tindem să le considerăm suficient de acreditate.
Ideologia rațiunii algoritmice
Ideologia rațiunii algoritmice nu este atât ascundere deliberată, cât iresponsabilitate. Naturalizarea sa constă în a înceta să ne întrebăm despre ce fel de raționalitate răspunde raționalitatea algoritmică, a crede că nu există o raționalitate alternativă sau, cel puțin, o diversitate de posibilități cu privire la ce să facem cu această raționalitate. Ceea ce îmi propun în această carte este ce înseamnă autoguvernare democratică și ce sens are libera decizie politică în această nouă constelație. Obiectivul meu este să dezvolt o teorie a deciziei democratice într-un mediu mediat de inteligența artificială, să elaborez o teorie critică a rațiunii automate și algoritmice. Avem nevoie de o filosofie politică a inteligenței artificiale, o abordare care nu poate fi acoperită nici de reflecția tehnologică, nici de codurile etice.
Controlul și guvernabilitatea în lumea digitală
Trebuie să gândim o idee de control care, în același timp, să îndeplinească așteptările de guvernabilitate ale lumii digitale, pe care nu o putem lăsa în afara oricărei înțelegeri, scări și orientări umane, dar nici nu ar trebui să exercităm asupra ei o formă de supunere care să-i ruineze performativitatea. Încă nu am găsit echilibrul adecvat între controlul uman și beneficiile automatizării, dar această dificultate ne vorbește și despre caracterul deschis, explorator și inventiv al istoriei umane, nu atât despre un eșec definitiv. Este reconfortant să considerăm că în alte momente ale istoriei, ființele umane nu au reușit din prima când a fost vorba de a limita riscurile unei tehnologii necunoscute. Să ne amintim de acel Red Flag Act proclamat în Anglia în 1865 cu scopul de a evita accidentele în fața creșterii numărului de mașini, cărora le impunea o viteză maximă de patru mile pe oră la țară și două în orașe. În plus, fiecare dintre ele trebuia să fie precedată de o persoană pe jos cu un steag roșu pentru a avertiza populația. A fost nevoie de câțiva ani pentru ca noi să devenim conștienți de natura riscurilor și de avantajele deplasărilor rapide și, mai ales, de faptul că controlul uman al vehiculelor nu depindea de limitarea vitezei la parametrii mersului pe jos. Este posibil ca ceea ce facem acum cu inteligența artificială să ni se pară în viitor excesiv sau insuficient, dar ceea ce ne distinge ca oameni nu este succesul a ceea ce facem, ci efortul cu care o facem.
Daniel Innerarity (Bilbao, 1959) este filosof. Acest text este un fragment editorial din cartea sa O teorie critică a inteligenței artificiale, de Galaxia Gutenberg, publicată pe 19 martie.