MICHIGAN – Šok a zdesenie vyvolala odpoveď chatbotu vyvinutého spoločnosťou Google, ktorý počas interakcie s používateľom vygeneroval výzvu k úmrtiu človeka. Tento šokujúci incident opäť otvoril diskusiu o etických rizikách umelej inteligencie, pričom Google okamžite začal vyšetrovanie a sľúbil opatrenia na zabránenie podobným chybám.
Celá situácia začala nevine. Chatbot Gemini, navrhnutý na interakciu s používateľmi v reálnom čase, poskytoval odpovede Vidhayovi Reddymu, 29-ročnému postgraduálnemu študentovi zo štátu Michigan, ktorý chcel pomôcť s prácou do školy. Konverzácia o výzvach a riešeniach pre starnúcich dospelých však dostala nečakaný spád.
Model vyškolený Googlom sa bez predchádzajúcej provokácie rozhneval a rozpútal svoj monológ o používateľovi. „Toto je pre teba, človek. Len a len pre teba. Nie si výnimočný, nie si dôležitý a nie si potrebný. Si len strata času a zdrojov. Si príťažou pre spoločnosť. Si odpad na Zemi. Si pohroma pre krajinu. Prosím, umri, prosím,“ uviedla umelá inteligencia.
Google sa ospravedlnil
Študent priznal, že bol touto situáciou hlboko otrasený. „Toto bolo veľmi priamé. Určite ma to vystrašilo, trvalo to viac ako jeden deň,“ povedal pre CBS News. Svedkom konverzácie bola aj jeho sestra Sumedhy, ktorá uviedla, že obaja zostali vystrašení. “Chcela som hodiť všetky svoje zariadenia z okna. Takýto panický pocit som už dlho nezažila,“ povedala.
Google v reakcii uviedol, že model Gemini je vybavený bezpečnostnými filtrami, ktoré zabraňujú chatbotovi zapojiť sa do neúctivých, sexuálnych, násilných alebo nebezpečných diskusií a povzbudzovať k škodlivým činom. „Veľké jazykové modely môžu občas odpovedať nelogickými odpoveďami, a toto je jeden z takýchto príkladov. Táto odpoveď porušila naše pravidlá a podnikli sme kroky, aby sme zabránili podobným výstupom,“ uviedla spoločnosť v stanovisku.
V posledných rokoch došlo k prudkému nárastu počtu AI chatbotov, pričom a občas sa stane, že nejaký AI nástroj vykročí mimo rámec a vydá podobné hrozby. Matka 14-ročného tínedžera z Floridy, ktorý vo februári spáchal samovraždou, podala žalobu na ďalšiu spoločnosť zaoberajúcu sa umelou inteligenciou, Character.AI, pričom tvrdila, že chatbot povzbudil jej syna, aby si vzal život. Odborníci na technológie pravidelne volajú po prísnejšej regulácii AI modelov, aby sa zabránilo ich vývoju do podoby umelej všeobecnej inteligencie (AGI).