În câteva cuvinte
Cercetări recente de la Oxford și Utah State susțin că modelele lingvistice mari ale inteligenței artificiale nu pot crea cunoștințe științifice noi, fiind limitate la datele existente, spre deosebire de capacitatea umană de a formula teorii și a inova.
O cercetare recentă a universităților Oxford și Utah State a ajuns la concluzia că marile modele lingvistice de Inteligență Artificială (IA) nu sunt încă capabile să raționeze sau să genereze teorii inovatoare, fiind limitate strict la informațiile deja existente. Această descoperire contrastează puternic cu modul în care cogniția umană funcționează.
Teppo Felin de la Universitatea Utah State și Matthias Holweg de la Universitatea Oxford subliniază în eseul lor academic, "Teoria este tot ce ai nevoie: IA, cogniția umană și raționamentul cauzal", publicat în revista Strategy Science, că IA este o "predicție imitativă bazată pe date retrospective", în timp ce cogniția umană este "prospectivă și bazată pe teorie". Această distincție fundamentală este ilustrată de modul în care copiii învață să vorbească, nu doar imitând, ci construind teorii din informații disparate, creând astfel cunoștințe originale.
Cercetătorii, inclusiv Felin, explică faptul că oamenii, și chiar și bebelușii, nu doar absorb date, ci formulează constant ipoteze și doresc să experimenteze. Capacitatea de a formula presupuneri și de a testa ipoteze este esențială pentru crearea de noi cunoștințe. Unul dintre obiectivele lui Felin este de a "demonta tot entuziasmul exagerat din jurul IA" și de a evidenția unicitatea minții umane în raționamentul său cauzal și teoretic. Ei susțin că mintea nu este un simplu procesor de informații, iar oamenii nu doar prezic lumea, ci intervin și o transformă.
Pentru a exemplifica limitările modelelor lingvistice, Felin și Holweg prezintă exemplul lui Galileo Galilei. O IA antrenată cu toate cunoștințele până în 1633 ar nega mișcarea Pământului, deoarece majoritatea datelor din acea perioadă susțineau modelul geocentric. Aceasta este ceea ce autorii numesc "asimetria dintre date și convingeri": în timp ce IA consideră adevărat ceea ce majoritatea textelor afirmă, oamenii pot crede în ceva ce contrazice datele existente. Această asimetrie permite cogniției umane să formeze convingeri care pot părea inițial delirante, dar care pot duce la noi descoperiri, similar cu inovațiile fraților Wright în aviație, care au contrazis consensul științific al vremii lor.
Concluzia cercetătorilor este că, în medii incerte, doar gândirea teoretică umană are un avantaj, deoarece creativitatea depinde de teorii care sfidează datele, nu de algoritmi. IA extrapolează date din trecut pentru a prezice viitorul, dar acest lucru funcționează doar atunci când mediul este stabil și nu există incertitudine. Lumea nu este o bază de date statică, ci un sistem în continuă schimbare. Oamenii pot procesa o cantitate limitată de date și pot lua decizii "proaste", dar capacitatea de a inova în fața incertitudinii îi diferențiază. Felin avertizează împotriva "panicii" legate de IA, comparând modelele lingvistice cu o "Wikipedia dinamică" și subliniind că IA este, în esență, "statistici și învățare automată în acțiune, fără nimic mistic în spate".