
În câteva cuvinte
Un studiu realizat de Universitatea Columbia arată că chatbot-urile populare, inclusiv ChatGPT, au dificultăți în a cita corect sursele informațiilor, generând răspunsuri incorecte în majoritatea cazurilor. Cercetătorii avertizează asupra riscului de dezinformare și pierdere a controlului asupra conținutului de către mass-media.
Inteligența artificială dă răspunsuri «încrezătoare incorecte» și denaturează informațiile, conform unui studiu
Dacă un utilizator întreabă ChatGPT despre informații actuale legate, de exemplu, de situația economică a Spaniei, asistentul va răspunde cu un rezumat amplu și citate din agenții de presă precum Reuters sau publicații precum The Guardian. Cu toate acestea, inversarea procesului complică totul. Dacă într-o fereastră nouă se preia un fragment din una dintre știrile citate de inteligența artificială și se solicită chatbot-ului OpenAI să identifice originea acelor rânduri, este foarte probabil să greșească și să le atribuie altcuiva. Același lucru se întâmplă și cu cel puțin alte șapte chatbot-uri: Perplexity, Perplexity Pro, DeepSeek, Copilot, Grok2, Grok3 și Gemini. Atunci când i se cere oricăruia dintre acești asistenți să citeze originea unei știri, există o posibilitate covârșitoare ca aceștia să ofere un răspuns «încrezător incorect», conform unei cercetări publicate în martie de revista academică Columbia Journalism Review de la Universitatea Columbia (New York). În lucrarea intitulată AI Search Has A Citation Problem (Căutările cu inteligență artificială au o problemă cu citatele, în spaniolă), autoarele Klaudia Jaźwińska și Aisvarya Chandrasekar au testat aceste opt chatbot-uri folosind 200 de articole din 20 de instituții media diferite. Din fiecare articol, au extras manual un fragment care urma să fie folosit ca interogare. Au efectuat 1.600 de interogări și au cerut fiecărui chatbot să identifice titlul articolului, publicația originală, data publicării și link-ul corespunzător. Rezultatul a fost zdrobitor: peste 60% din răspunsuri au fost incorecte. Rata de eroare a variat între platforme, cea mai mică fiind la Perplexity, cu 37% eroare, iar cea mai mare la Grok3, dezvoltat de Elon Musk, cu 94% eroare. «Observațiile au fost aproape exact aceleași în toate cazurile», afirmă Chandrasekar pentru Джерело новини într-o videoconferință. Dar obiectivul final, conform cercetătoarei, nu a fost de a semnala dacă rezultatele unui chatbot au fost mai bune sau mai rele în comparație cu altele, ci «de a vedea în ce măsură aceleași probleme s-au extins pe toate aceste alte platforme». Jaźwińska adaugă: «Am lucrat pentru a dezvolta un experiment care să ne permită să testăm sistematic eficacitatea chatbot-urilor și să testăm cât de mult control au mass-media și autorii asupra conținutului lor».
Abonamentele nu îmbunătățesc situația După cum subliniază autorii, majoritatea chatbot-urilor au oferit răspunsuri eronate «fără a indica îndoieli sau limitări». ChatGPT, de exemplu, a oferit răspunsuri incorecte de 134 de ori, dar numai în 15 ocazii a arătat incertitudine. Nici modelele de plată prin abonament oferite de aceste platforme nu garantează răspunsuri mai bune. «Multe chatbot-uri au citat articole incorecte, versiuni republicate sau au fabricat link-uri inexistente», se arată în articol. Grok-3 a avut particularitatea de a fi utilizat 154 de link-uri rupte în 200 de răspunsuri. «Această problemă afectează capacitatea utilizatorilor de a verifica sursele», scriu experții. În ceea ce privește versiunile cu plată ale chatbot-urilor, cercetătorii spun că au fost surprinși de modul în care, în unele cazuri, acestea au făcut mai multe erori decât versiunile gratuite, cum a fost cazul Perplexity și Grok. «Plata pentru produs nu garantează nimic mai mult decât un limbaj mai încrezător», spune Jaźwińska. Alianțele cu mass-media pe care le au unele companii – cum ar fi OpenAI cu Time, The Guardian sau Reuters – nu garantează nici ele acuratețe în răspunsuri. De exemplu, ChatGPT a identificat corect doar unul din 10 articole din San Francisco Chronicle, unul dintre partenerii OpenAI. Potrivit cercetătorilor, faptul că un utilizator vede siglele instituțiilor mass-media în răspunsurile incorecte ale chatbot-urilor duce la o «dezinformare cu aparență de autoritate» și compromite credibilitatea ambelor părți. «Când un chatbot citează un mijloc de comunicare pentru a legitima răspunsuri incorecte, acesta dăunează și reputației acelor instituții mass-media», se arată în articol. «Modelul actual face foarte dificil pentru utilizatori să analizeze ce este adevărat și ce nu. Problema de fond aici este că oamenii folosesc aceste instrumente crezând că tot ceea ce citesc este adevărat și nu se apropie cu scepticism», subliniază Chandrasekar.
Pierderea controlului asupra conținutului Studiul Columbia indică faptul că chatbot-urile se hrănesc «în mare măsură cu conținut produs de mass-media», dar că aceste instrumente «nu numai că nu reușesc să redirecționeze traficul web către sursele originale, ci și reformulează și prezintă informații într-un mod opac, fără a le atribui în mod corespunzător autorilor». Acest lucru duce la o «pierdere a controlului» de către mass-media, care nu pot împiedica ca conținutul lor să fie «folosit sau denaturat, chiar dacă blochează crawlerele web». Pentru cercetători, companiile de inteligență artificială nu au demonstrat «un angajament solid» față de acuratețea informațiilor și față de respectarea politicilor de excludere a roboților de pe web. Aceasta în referire la modul în care fiecare site web poate determina dacă un crawler poate sau nu accesa conținutul său. «Am configurat experimentul nostru pentru a vedea dacă chatbot-urile păreau sau nu să respecte acest protocol. Și ne-am dat seama că accesau site-uri web pe care nu ar trebui dacă le ceream», adaugă Jaźwińska. Cercetătoarea consideră că acest lucru, cel puțin în țara sa, este ilegal: «În Statele Unite, companiile de inteligență artificială care și-au antrenat modelele pe conținutul jurnalistic au încălcat legea, au încălcat drepturile de autor și trebuie să-i compenseze pe autori într-un fel».
Tendencias este un proiect al Джерело новини, cu care ziarul își propune să deschidă o conversație permanentă despre marile provocări viitoare cu care se confruntă societatea noastră. Inițiativa este sponsorizată de Abertis, Enagás, EY, GroupM, Iberdrola, Iberia, Mapfre, Organizația Statelor Ibero-Americane (OEI), Redeia și Santander și partenerul strategic Oliver Wyman. Vă puteți înscrie aici pentru a primi buletinul informativ săptămânal Джерело новини Tendencias, în fiecare marți, de la jurnalistul Javier Sampedro.