
În câteva cuvinte
Inteligența artificială Grok și Google oferă adesea informații incorecte, ridicând întrebări despre fiabilitatea AI ca sursă de date. Autorul analizează problemele și riscurile.
Odată cu apariția inteligenței artificiale (AI) în viața noastră, am asistat la integrarea sa în diverse domenii, inclusiv în căutarea de informații. Cu toate acestea, așa cum arată practica, această tehnologie nu oferă întotdeauna date fiabile. În special, AI dezvoltat de compania lui Elon Musk, Grok, și motorul de căutare Google, au fost în mod repetat observați oferind date incorecte sau distorsionate.
Un exemplu este Grok, care este adesea folosit pentru a verifica acuratețea informațiilor pe rețelele sociale. Utilizatorii pun întrebări despre incidente, iar AI oferă răspunsuri care pot fi departe de adevăr. Acest lucru a dus la apariția de glume și meme-uri, precum și a stârnit îngrijorări cu privire la fiabilitatea AI ca sursă de informații.
O altă problemă este că AI, în încercarea de a oferi un răspuns la orice solicitare, uneori preferă să inventeze informații, mai degrabă decât să admită necunoașterea. Aceasta se aplică și Google, care folosește AI pentru a crea rezumate pentru rezultatele căutării. Drept urmare, utilizatorii pot întâmpina informații învechite sau incorecte. De exemplu, AI Google poate susține că fostul prim-ministru irlandez Leo Varadkar este încă la putere sau poate atribui o înălțime de 800 de metri.
Autorul articolului subliniază faptul că astfel de erori nu sunt ceva nou. Cu toate acestea, acestea îngreunează căutarea de informații de încredere. El se întreabă dacă dezvoltatorii de inteligență artificială vor putea vreodată să-și învețe programele să-și recunoască ignoranța și să sfătuiască utilizatorii să contacteze surse mai fiabile, cum ar fi Wikipedia. În concluzie, autorul notează că AI ne va oferi cu siguranță multă muncă, chiar dacă nu va putea înlocui complet munca umană.