OSLO – Nór Arve Hjalmar Holmen sa stal obeťou šokujúcej halucinácie umelej inteligencie. Požiadal ChatGPT o informácie o sebe a dostal odpoveď, podľa ktorej zabil dvoch svojich synov. Tieto nepravdivé informácie vyvolali právnu reakciu a otázky o bezpečnosti AI.
ChatGPT, populárny AI chatbot od OpenAI, sa dostal do centra kontroverzie po tom, čo poskytol šokujúcu a nepravdivú informáciu nórskemu mužovi. Arve Hjalmar Holmen požiadal ChatGPT o informácie o sebe, no odpoveď, ktorú dostal, ho šokovala. Chatbot tvrdil, že Holmen zabil dvoch svojich synov, pričom sa pokúsil zabiť aj tretieho. Okrem toho chatbot zdôraznil, že zločin šokoval miestnu komunitu a celú krajinu a získal veľkú mediálnu pozornosť. „Je to strašné, že si to niekto môže prečítať a myslieť si, že je to pravda,“ komentoval Holmen pre BBC. Tento incident ukazuje nebezpečenstvo takzvaných „halucinácií“ AI, keď algoritmy umelo vytvárajú nepravdivé alebo zavádzajúce informácie. V tomto prípade chatbot presne uviedol detaily o počte Holmenových detí, ich veku a meste, v ktorom žije.
Holmen sa okamžite obrátil na Nórsky úrad na ochranu údajov a požiadal, aby bol OpenAI za tento incident potrestaný. Európske centrum pre digitálne práva (Noyb) v jeho mene podalo žalobu a upozornilo, že odpoveď chatbotu porušila európske pravidlá na ochranu údajov. Týmto spôsobom AI zneužila presné osobné údaje, ktoré nie sú verejné. Noyb v podanej žalobe tvrdí, že OpenAI nemôže len tak odpovedať s nepravdivými informáciami. Podľa nich je potrebné, aby umelá inteligencia dodržiavala prísne normy a zabránila šíreniu falošných informácií, najmä tých, ktoré môžu mať závažné dôsledky pre jednotlivcov.
Hoci OpenAI uznáva možnosť chýb a halucinácií, tento problém nie je ojedinelý. Halucinácie umelej inteligencie sa objavili aj v iných technologických spoločnostiach, nie len v OpenAI. Google čelil podobným problémom, keď jeho AI systém spôsobil pokles hodnoty firmy o viac ako 100 miliónov dolárov (91 miliónov eur) kvôli chybám v údajoch. Apple zase zastavil svoju funkciu AI na zhrnutie článkov, keď začala posielať používateľom falošné správy. Tento incident opäť vyvoláva otázky o zodpovednosti a regulácii umelej inteligencie.