Catalina Botero Marino: „Cum să trăim într-o lume în care nu putem avea încredere în simțurile noastre?” - Libertatea cuvântului în era digitală

Catalina Botero Marino: „Cum să trăim într-o lume în care nu putem avea încredere în simțurile noastre?” - Libertatea cuvântului în era digitală

În câteva cuvinte

În interviul său, Catalina Botero Marino vorbește despre complexitatea moderării conținutului pe internet, despre necesitatea controlului extern asupra platformelor și despre importanța protejării drepturilor omului în mediul digital. O atenție deosebită este acordată problemelor dezinformarii, deepfakes și influenței inteligenței artificiale asupra libertății de exprimare și a încrederii în societate. Se subliniază necesitatea unui echilibru între libertatea de exprimare și protecția împotriva abuzurilor și manipulărilor, precum și importanța dezvoltării cooperării internaționale pentru reglementarea platformelor digitale.

Acest interviu a fost publicat în revista anuală a proiectului «Tendințe» pentru anul 2024, înainte ca Meta să anunțe modificări substanțiale în politica sa de moderare a conținutului, motiv pentru care această problemă nu este abordată în articol.

Catalina Botero Marino (Bogota, 1965) a fost timp de patru ani una dintre vocile consiliului consultativ pentru conținut al Meta (fostul Facebook), cunoscut sub numele de «Super Curtea» Facebook. Juristă, fost raportor special pentru libertatea de exprimare al Comisiei Interamericane pentru Drepturile Omului (CIDH), își dedică viața studierii impactului platformelor tehnologice asupra drepturilor omului și nu are nicio rețea socială.

În timpul sărbătoririi a 45 de ani de la CIDH, ea a enumerat nouă provocări ale mediului digital pentru aceste drepturi și democrație, care vorbesc despre viitorul apropiat: printre ele – protecția datelor personale; libertatea de exprimare pe internet; neuro-drepturile; discriminarea algoritmică cu inteligență artificială (IA) și deepfake-urile – videoclipuri, imagini sau audio false, care se dau drept o persoană.

Întrebare: Care sunt cele mai mari lecții și întrebări noi pe care le-ați învățat din perioada petrecută în consiliul Meta?

Răspuns: A fost foarte util să înțeleg complexitatea moderării conținutului online și diferențele enorme față de modul în care sunt rezolvate cazurile de libertate de exprimare offline. În moderarea conținutului, din cauza vitezei și a amplorii, întrebarea despre un caz specific nu este care este cea mai justă decizie, și asta poate părea ciudat, ci cu ce eroare putem trăi. Am spus asta pentru prima dată acum aproximativ patru ani și astăzi mențin această opinie. Aceasta a fost, probabil, una dintre cele mai importante lecții.

Î: Există o alternativă?

R: Este imposibil să te oprești pentru a revizui echitatea fiecărui caz specific, deoarece platformele trebuie să facă acest lucru cu o viteză enormă și la o scară gigantică. Ceea ce trebuie făcut este să se adopte reguli care pot fi aplicate foarte repede și în care cu siguranță vor exista erori, dar alternativa, care constă în a avea un judecător constituțional pentru fiecare caz, este imposibilă. Sunt miliarde și nu poți avea o persoană care să verifice fiecare dintre ele.

Î: Consiliul consultativ a fost înțeles ca un punct de cotitură în auto-reglementare. Ce cere noua realitate?

R: Aceasta este a doua lecție. Platformele trebuie să aibă cu siguranță organisme externe și cu adevărat autonome, care să poată pătrunde în interiorul lor și să le verifice activitatea. În caz contrar, echipelor de drepturile omului din interiorul companiei le va fi foarte greu să câștige în fața echipelor financiare. Meta a făcut aceste eforturi, dar trebuie făcute și altele. Și există și alte platforme, precum X, care sunt mai în urmă. Practic, X este folosit de proprietarul său pentru propria agendă politică și cu o lipsă totală de transparență cu privire la modul în care se realizează moderarea conținutului. Fiind într-un consiliu de auto-reglementare ca acesta, înțelegi care sunt limitele autentice ale moderării la scară, precum și cele care pot fi depășite prin eforturile companiilor.

Î: Ce pot face aceste companii din punct de vedere structural?

R: Consiliul de supraveghere a dat Meta aproximativ 250 de recomandări. Una dintre ele, de exemplu, se referă la atenția deosebită pe care trebuie să o acorde la moderarea conținutului jurnaliștilor sau apărătorilor drepturilor omului, precum și vocilor opoziției, în special în țările cu un spațiu politic închis. Așa a recomandat în ceea ce privește cazul Cubei, de exemplu.

În țările autoritare, platformele trebuie să asigure protecție, în special exprimărilor critice, deoarece acesta este singurul spațiu în care oamenii își pot exprima opinia. De asemenea, i-a recomandat, în cazul situațiilor critice din domeniul sănătății publice, precum pandemia Covid-19, să lucreze cu alte sectoare, precum sănătatea și, în general, comunitatea științifică, pentru a determina ce tip de conținut poate provoca daune semnificative vieții reale a oamenilor și să ia măsuri transparente și proporționale, precum etichetarea sau, chiar, în cazurile în care este necesar, eliminarea.

Î: Multe dintre ele – nu sunt exprimări organice, ci conținut adăugat. Care este calea posibilă în ceea ce privește acest tip de informații malițioase?

R: Conținutul adăugat se referă la suma unei cantități semnificative de conținut care, individual, poate să nu provoace daune. Dacă o persoană îi spune alteia să bea înălbitor și are trei sau patru urmăritori, probabil că nu va provoca daune semnificative. Dar dacă ai sute de mii de oameni care îl recomandă, din cauza modului în care funcționează prejudecățile, ești predispus să crezi că este adevărat. De obicei, este vorba de informații create cu scopul de a dezinforma și promovate de subiecți care au interese speciale, folosind interacțiuni non-umane, boți și vizând o populație susceptibilă să creadă în acest tip de informații.

Î: În 2020 ați spus că «a fi nerecunoscător față de Facebook» – este datoria dumneavoastră...

R: Meta are cel puțin trei lucruri pe care nu le au alte platforme mari. Pe de o parte, o echipă de drepturile omului incredibil de puternică și tehnic foarte calificată și dedicată. A creat mecanisme precum acest consiliu și, în plus, a investit resurse în încercarea de a modera conținutul ținând cont de piețele locale. Dar există și dificultăți, cum ar fi faptul că această echipă de drepturile omului nu are neapărat aceeași pondere ca și cei care determină modelul de afaceri. Mai este un drum lung de parcurs până la ceea ce, în opinia mea, ar trebui să facă o platformă.

Î: Și ce ar trebui să facă?

R: Platformele au o responsabilitate în domeniul drepturilor omului și acest lucru ar trebui să le determine să ia în considerare, în fiecare dintre deciziile lor de proiectare, nu numai interesele lor economice, ci și interesele publice care pot fi afectate. Când vorbesc despre interesele publice, mă refer la dreptul internațional al drepturilor omului și, în general, la sistemul democratic. În Europa, platformele sunt obligate, de exemplu, să efectueze o evaluare a riscurilor deciziilor lor de proiectare. Acest lucru le va obliga să includă în ecuație interesele publice.

De asemenea, consider că diferitele platforme ar trebui să fie complet compatibile. Idealul unei piețe cu adevărat competitive, orientate către utilizatori, ar fi, de exemplu, ca, dacă un utilizator nu este dispus să accepte modul în care funcționează o platformă, să poată pleca cu abonații săi pe alta. Știu că acest lucru este tehnic foarte dificil, sunt unii care susțin că este imposibil și știu că este complet contrar modelului de afaceri, dar este important să ne gândim la măsuri care să permită utilizatorilor să aleagă între diferite oferte, fără costuri disproporționate, precum pierderea întregii comunități sau rețele pe care au construit-o. Și, pentru a avea grijă de impactul platformelor asupra drepturilor omului, este extrem de necesar să se exercite o supraveghere și un control mult mai strict asupra utilizării sistemelor de inteligență artificială.

Î: În consiliu ați luat decizii în cazuri complexe. Care se remarcă?

R: Cazurile șefilor de stat au fost foarte interesante. Se recunoaște nu numai importanța ca un șef de stat să poată vorbi și oamenii să asculte ceea ce spune, ci și faptul că au puterea și capacitatea de a crea imagini imaginare și de a genera violență mai mult decât orice alt utilizator. În cazul Cambodgiei, de exemplu, platformei i s-a recomandat să evalueze eliminarea contului prim-ministrului, deoarece îl folosea, literalmente, pentru a intimida membrii opoziției. Când o persoană care este un influent important datorită capacității sale de a influența comportamentul oamenilor incită la violență sau criminalizează opoziția, crește riscul pentru oamenii care îl critică și folosește platforma într-un mod care contravine regulilor platformei în sine.

Î: În acest timp ați primit cazuri referitoare la atacul asupra Congresului din Brazilia.

R: A fost identificat conținut care incita la comiterea unui act de violență, precum ocuparea autorităților de stat din Brazilia, pe baza informațiilor care nu aveau la bază nicio bază empirică, despre faptul că la alegeri a existat fraudă. Există țări în care alegerile sunt furate și există țări în care nu se întâmplă acest lucru. Diferența constă în dovezi. În Venezuela, în acest moment, există dovezi că guvernul a pierdut alegerile. În Brazilia, dimpotrivă, întregul sistem electoral funcționează. Cu toate acestea, au existat oameni care au susținut că alegerile au fost furate și că este necesar să se protesteze, chiar ocupând organele de stat. Am dat Meta o serie de recomandări cu privire la modul de control al dezinformării în contexte electorale, în special atunci când aceasta poate duce la violență, ca în Capitoliu în Statele Unite sau în Brasilia.

Avocata columbiană Catalina Botero în Sofitel Mexico City la 15 septembrie 2024. Aggi Garduño

Î: Cum se explică faptul că un anumit conținut trebuie distribuit, chiar dacă este ofensator?

R: Informațiile pot fi neplăcute, îngrijorătoare și ofensatoare, dar dacă reprezintă un interes public, atunci sunt mai importante pentru o societate democratică decât posibilele daune pe care le pot provoca informațiile. De exemplu, o investigație jurnalistică a crimelor de corupție poate provoca daune reputaționale politicienilor implicați, dar este atât de importantă pentru societățile democratice încât este protejată de dreptul la libertatea de exprimare. Dacă ulterior persoana implicată nu este de acord și, în plus, consideră că informațiile sunt false, poate cere o rectificare. Există multe modalități a posteriori de a restabili un drept eventual încălcat, dar trebuie protejată posibilitatea de a distribui informații.

Î: Cum se stabilesc granițele în acest context digital?

R: Contextul digital face dificilă stabilirea unei granițe. Cu toate acestea, nu toate informațiile pe care le distribuie o persoană au același efect. O persoană singură în deșertul Sahara poate striga orice și asta nu poate provoca daune. Dar dacă două milioane de oameni spun că într-o anumită casă, arătând locația acesteia, locuiește cineva care a săvârșit abuzuri sexuale asupra unor copii lipsiți de apărare, chiar dacă nu se știe dacă această informație este adevărată sau falsă, acest lucru poate provoca daune enorme în viața reală. Am văzut asta acum câteva săptămâni în Anglia. A fost complet disproporționat, chiar dacă știrea ar fi fost adevărată.

Î: Odată ați spus că lumea se împarte în două grupuri: curățătorii de internet și cei care cred că nu trebuie făcut nimic, așa cum pare în X.

R: Elon Musk se definește ca un mare apărător al libertății de exprimare. Dar, de fapt, el este un apărător al libertății de exprimare a oamenilor care gândesc la fel ca el. X a încetat să mai publice rapoarte despre transparență, dar cele care au fost publicate au permis să se vadă că a fost mult mai indulgentă cu cererile de eliminare a conținutului din partea guvernelor, precum India sau Turcia. Twitter s-a opus cerințelor pe care le prezentau guvernele cu o tendință mai autoritară; X – nu. Musk cedează în fața cerințelor guvernelor autoritare, dar pune la îndoială hotărârile judecătorești, care pot fi bune sau rele și au resurse interne în țările democratice. Nu aș pune X la extremă cu marii libertarieni. Altceva este Deep Web, unde circulă totul: pornografie, abuzuri asupra animalelor, violență asupra oamenilor, vânzare de arme, droguri. Apoi există centrul, care spune că informațiile nu pot fi eliminate, deoarece irită.

Î: Iar pe cealaltă parte a spectrului – curățătorii...

R: Unii oameni cred că este necesar să se modereze mai activ. Este dificil de simplificat, deoarece acolo există două curente: cei care vor ca pe internet să existe doar pisoi și căței, și, bineînțeles, acest lucru elimină toate mesajele despre corupție și încălcări ale drepturilor omului, cu care nu sunt de acord. Și există și oameni care fac acest lucru deoarece vor să elimine sau să curețe propriile informații, nu sunt interesați de răspândirea acestora, așa cum au încercat să facă câțiva politicieni din America Latină.

Î: Vedem în rețelele sociale spații pentru dispute între șefii de stat și proprietarii de platforme, așa cum tocmai s-a întâmplat cu Nicolas Maduro în Venezuela.

R: Pentru a bloca o platformă, este necesară existența unor motive democratice extrem de puternice, ceea ce în lege se numește «testul strict de proporționalitate». În cazul Venezuelei, nu există democrație, 500 de mijloace de comunicare în masă au fost închise și numai în perioada post-electorală 12 jurnaliști au fost închiși în închisoare. Nu există nicio posibilitate de a-ți exprima opinia decât prin intermediul rețelelor sociale. În regimul Maduro nu există un sistem judiciar independent, nici o procedură legală adecvată, prin urmare este imposibil să se garanteze această hotărâre judecătorească de proporționalitate.

Î: Pe de altă parte – blocarea X în Brazilia la ordinul unui judecător.

R: Brazilia, dimpotrivă, este un stat democratic cu un sistem judiciar independent, care respectă procedura legală adecvată, deși, ca în orice democrație, poate greși. Democrațiile nu garantează că judecătorii nu fac greșeli, ci că aplică anumite garanții. Elon Musk ar fi trebuit să apeleze la căile de atac care există pentru a contesta o decizie cu care nu este de acord. Twitter a fost rugat să ofere garanții pentru a preveni dezinformarea în masă în Brazilia. Platforma a acceptat-o, dar, când Musk a cumpărat-o, a început să ia decizii care încalcă propria politică și a restabilit conturile oamenilor care au incitat la violență și se ascund de justiție. I s-a dat o amendă și el a decis că nu o va plăti, intrând într-o neascultare continuă.

Î: Acest caz creează tensiuni între libertatea de exprimare și necesitatea ca companiile să respecte deciziile.

R: Această decizie are o origine care trebuie studiată și este neascultarea unei persoane care decide, deoarece are mulți bani, că poate să nu respecte legile țării. Acest lucru este greșit. În al doilea rând, această decizie este luată după ce au fost luate alte măsuri mai puțin împovărătoare și la sfârșitul unei proceduri. În al treilea rând, consider că această decizie este disproporționată, cel puțin în partea care interzice utilizatorilor să acceseze prin VPN [rețea privată virtuală] pentru a evita blocarea, deoarece acest lucru îi afectează pe oamenii care nu au fost supuși unei proceduri legale adecvate. Și, în cele din urmă, deoarece afectează milioane de utilizatori, este, de asemenea, disproporționată. Cea mai mare întrebare este ce poate face un stat democratic atunci când proprietarul unei platforme decide să intre într-o neascultare și să nu respecte regulile propriei rețele, precum și normele democratice ale țării.

Î: Aceasta este tocmai una dintre cele nouă probleme pe care le-ați menționat în fața CIDH.

R: Cea mai mare problemă este cum să creăm mecanisme de control asupra platformelor, astfel încât să nu devină instrumente de putere politică, așa cum face astăzi X în India, de exemplu; și pentru ca ele să nu fie, de asemenea, instrumente conduse exclusiv de modelul de afaceri sau de interesele reputaționale sau politice ale proprietarilor platformelor, ci de dreptul internațional al drepturilor omului.

Î: Cum se atinge acest obiectiv?

R: Europa a creat un sistem normativ foarte important pentru orientarea gestionării platformelor, care depășește Legea privind serviciile digitale. Unele țări au adoptat chiar măsuri pentru a limita puterea de piață a platformelor mari, pentru a proteja sursele de informații fiabile, precum presa profesională, și pentru a promova pluralismul. Cred că trebuie depuse eforturi importante pentru a spori compatibilitatea, transparența și garanțiile procedurii legale adecvate pentru utilizatori. Una dintre măsurile care pot da cele mai bune rezultate este crearea unor audituri externe din punct de vedere al drepturilor omului, capabile să evalueze impactul deciziilor de proiectare asupra drepturilor oamenilor, de exemplu, asupra sănătății mintale a fetelor și băieților, asupra persoanelor cu tulburări de comportament alimentar sau chiar asupra sistemului democratic în sine.

Î: De fapt, ați menționat și alte probleme, care vorbesc despre un impact specific asupra drepturilor omului. Ce considerați că este cel mai urgent?

R: Trebuie regândită protecția datelor. Ce date colectează platformele? Cine le folosește? Pentru ce și cum le folosește? Acest lucru trebuie să fie transparent. Trebuie să ne întoarcem la discuția despre dreptul la viață privată. Cu cantitatea enormă de informații pe care o oferim platformelor, nu numai în rețelele sociale, ci și în domeniul sănătății, transportului sau colaborării, ele pot alcătui profiluri, investiga sau spiona oamenii. Cine controlează aceste date? Cum sunt gestionate? Cum sunt administrate?

Î: Acum, când toți vorbim despre IA, apar întrebări despre reglementare, crearea de deepfake-uri, prejudecăți...

R: Sistemele de inteligență artificială sunt capabile să creeze un text care arată ca cel mai fiabil text științific, videoclipuri sau audio care par să reflecte cu exactitate ceva ce s-a întâmplat. Marea problemă constă în faptul că aceste sisteme, care distorsionează realitatea pe baza datelor reale fragmentate și manipulate, au cel puțin două efecte. Primul constă în faptul că pot face ca oamenii să nu mai creadă în nimic și să se adăpostească în propria prejudecată de confirmare, ceea ce și urmăresc marile campanii de dezinformare. Deoarece tot ce este în exterior – este o minciună, nimic nu este adevărat și toate dovezile sunt suspecte, oamenii se adăpostesc în propriile prejudecăți și se distruge încrederea, nu numai în alții, ci și în autorități și surse tradiționale.

Încrederea – este ceea ce creează coeziunea socială, care ne permite să cooperăm pentru a merge mai departe ca societate. Când încrederea este încălcată, societățile pot intra în crize democratice enorme. Acest lucru nu înseamnă că nu pot avea îndoieli sau adresa întrebări. Acest lucru înseamnă că, dacă există campanii mari de dezinformare, alimentate de sisteme IA, care fac imposibilă distincția între ceea ce este adevăr sau minciună, atunci nu vorbim despre dezbateri cu întrebări raționale, ci despre fapte și realități paralele. Pentru democrație, aceasta este o grenadă.

Î: Și angoasa existențială de a nu mai crede în ceea ce vedem...

R: Aceste sisteme se dezvoltă mai repede decât suntem capabili ca specie. Cum putem trăi într-o lume în care nu putem avea încredere în ceea ce vedem sau percepem prin organele de simț? Criza existențială pe care o poate provoca este enormă. Este extrem de important să se eticheteze toate informațiile create de inteligența artificială și să se identifice cele care pot să nu corespundă realității.

Î: Acesta este prezentul, dar vorbește despre problemele viitorului, precum neuro-drepturile.

R: Acesta este un alt domeniu de dezvoltare, care poate înregistra reacții emoționale, date despre activitatea mentală a omului și poate influența din ce în ce mai puternic procesele cognitive. Cu viteza cu care se dezvoltă această tehnologie, se recomandă ca să existe forumuri pentru colaborarea între diferite discipline, pentru a elabora în comun mijloace de control asupra acestor noi dezvoltări tehnologice.

«Tendințe» – este un proiect Джерело новини, cu ajutorul căruia ziarul urmărește să deschidă o conversație permanentă despre marile probleme ale viitorului cu care se confruntă societatea noastră. Inițiativa este sponsorizată de Abertis, Enagás, EY, GroupM, Iberdrola, Iberia, Mapfre, Organizația Ibero-Americană a Statelor (OEI), Redeia și Santander, iar partenerul strategic este Oliver Wyman.

Vă puteți abona aici, pentru a primi newsletter-ul săptămânal Джерело новини Tendencias, în fiecare marți, din mâinile jurnalistului Javier Sampiedro.

Read in other languages

Про автора

Ana-Maria este o jurnalistă de investigație experimentată, specializată în corupție și scandaluri politice. Articolele ei se remarcă prin analize aprofundate și atenție la detalii.