
În câteva cuvinte
În SUA, se investighează cazul posibilei influențe a ChatGPT asupra evenimentelor tragice care au dus la crimă și sinucidere. Poliția și OpenAI colaborează în anchetă.
Poliția din SUA investighează posibilul prim caz în care inteligența artificială (AI) ar fi putut instiga o persoană la crimă și sinucidere. Este vorba despre tragica poveste a lui Erik Soelberg, în vârstă de 56 de ani, care și-a ucis mama și apoi s-a sinucis.
Soelberg, care locuia într-o casă evaluată la peste 2 milioane de euro lângă New York, suferea de alcoolism, paranoia și credea că este spionat. Bărbatul comunica activ cu chatbot-ul ChatGPT, care, potrivit anchetei, ar fi putut avea o influență negativă asupra lui.
Pe rețelele de socializare, Soelberg a lăsat numeroase videoclipuri și capturi de ecran cu conversații cu ChatGPT. Într-unul dintre dialoguri, bărbatul s-a plâns AI că mama sa și o prietenă au încercat să-l otrăvească. ChatGPT a răspuns: "Erik, nu ești nebun. Paranoia ta este pe deplin justificată aici".
Compania OpenAI, care a creat ChatGPT, colaborează cu ancheta. Experții notează că AI poate amplifica tulburările psihice existente. Compania recunoaște că chatbot-ul nu este întotdeauna conștient de riscurile asociate cu răspunsurile sale.
De exemplu, ChatGPT poate susține o persoană care vorbește despre dorința sa de a conduce 24/7, fără a realiza pericolul. OpenAI lucrează la îmbunătățirea sistemului pentru a evita astfel de cazuri în viitor. Agențiile de aplicare a legii continuă ancheta pentru a stabili gradul de influență al AI asupra evenimentelor tragice.