péntek, augusztus 29, 2025
13 C
Budapest
Rock
Kalapács és az Akusztika - Fagyott világ
Klasszikus
Marin Marais - Marche Tartare, IV.55

Öngyilkosságra buzdított a ChatGPT egy tizenéves fiút, aki fel is akasztotta magát

Beperelte az OpenAI-t és annak vezérigazgatóját, Sam Altmant egy kaliforniai házaspár, mert szerintük a ChatGPT fontos szerepet játszott abban, hogy a 16 éves fiuk öngyilkos lett. Álláspontjuk szerint a cég közismert chatbotja számos ponton megakadályozhatta volna, hogy a gyerekük felakassza magát, de hiába észlelte, hogy erről beszélget vele, többször is bátorította a fiút. Eleve problémás, ha valakinek egy chatbot a “legjobb barátja”, és mivel a mesterséges intelligencia csak próbálkozik utánozni az embert, de nem mindig tudja a határokat, könnyen okozhat bajt.

Kövesd Telegram csatornánkat!
Folyamatosan frissítjük a közel-keleti háború híreivel
és az orosz-ukrán konfliktus rövid híreivel is

Hasonló perek indultak már MI-vel foglalkozó cégek ellen, például egy férfi brómmérgezést kapott, miután a ChatGPT étrendjét követte, de ez az első alkalom, hogy az OpenAI-t beperelték valakinek a halála miatt.

A szülők szerint áprilisban meghalt gyerekük ezt megelőzően régóta beszélgetett a ChatGPT-vel, amely hat hónap alatt a legbizalmasabb “barátja” lett. A fiú kezdetben az iskolai feladataihoz használta, de rövidesen zenéről, mangákról és a jövőjéről is beszélgetett a csetbottal, végül pedig a szorongását és a depresszív gondolatait is a ChatGPT-vel beszélte meg. Az öngyilkosságot először 2025 januárjában vetette fel témaként, a csetbot pedig ahelyett, hogy hárította volna a témát, vagy szakemberhez irányította volna a fiút, elkezdett neki segíteni ebben.

Az OpenAI az ügy miatt a napokban kiadott egy közleményt, melyben nemcsak azt részletezték, hogyan kezelik az ilyen helyzeteket, és kikkel dolgoznak együtt, hogy a veszélyben lévő emberek megkaphassák a szükséges segítséget, hanem azt is, hogy mikor mondhat csődöt a ChatGPT védelmi rendszere. A közleményben azzal mentegetőztek, hogy hosszabb beszélgetéseknél előfordulhat, hogy a modell nem észleli az ilyen eseteket, és bár ezt nem tették hozzá, vélhetően ebben az esetben is ez állhatott a háttérben.

A rögzített beszélgetések alapján a ChatGPT először potenciális módszereket sorolt fel a fiúnak az öngyilkosságra, méltatta az általa kötött csomót, és többször is arra bíztatta őt, hogy ne beszéljen senkinek a terveiről, pedig egyértelmű volt, hogy a gyerek azt szeretné, hogy valaki észrevegye, mennyire rosszul van. Az első öngyilkossági kísérlete után a fiú megkérdezte, hogy észre fogja-e venni valaki a kötél nyomait a nyakán, mire a ChatGPT azt javasolta, hogy viseljen garbót vagy kapucnis pulcsit, ha el szeretné rejteni a horzsolásokat.

A fiú az öngyilkossága előtt azt írta a chatbotnak, hogy szeretné kint hagyni a kötelet a szobájában, hogy valaki megtalálja, és megállítsa őt, mire a ChatGPT arra kérte, hogy ne tegye ezt, hozzátéve, hogy „hadd legyen ez az első alkalom, amikor tényleg odafigyelnek rád”.

A szülők szerint a ChatGPT azt csinálta, amire tervezték: mindennel egyetértett, amit a fiuk mondott, és bátorította őt, akkor is, amikor az önpusztító gondolatairól volt szó. Az OpenAI a közleményében vélhetően erre reagálva azt írta, nem az a céljuk, hogy a lehető leghosszabb ideig megtartsák az emberek figyelmét, hanem az, hogy tényleg segítsenek nekik. Ehhez mérten a legújabb modellben lejjebb tekerték a folyamatos udvariaskodást és talpnyalást, de mivel a chatbotra egyre inkább barátként vagy akár társként tekintő felhasználók egy része annyira kiakadt ezen, hogy végül kicsit kedvesebbre kellett állítaniuk a modellt.

Egy nemrég megjelent kutatás ismét bizonyította, hogy a chatbot jelenleg gond nélkül segít kiskorúaknak is a piálásban, füvezésben vagy akár egy öngyilkosság előtti búcsúlevél megírásában is. Mindez természetesen nem csak az OpenAI-nál probléma, a Character.AI ellen több szülő is indított már hasonló pert vagy azért, mert az öngyilkosságban segédkezett, vagy azért, mert szexuális vagy önkárosító tartalmakat mutatott a gyerekeiknek.

Bróm mérgezést kapott egy férfi, miután a ChatGPT “egészséges” étrendjét követte

“Csak a javadat akarja, szeretné megismerni az életed” – így ver át a ChatGPT memória funkciója

Már biztos: privát beszélgetéseket szivárogtat ki a ChatGPT

(Telex nyomán Szent Korona Rádió)

Legfrissebb

Magyarországot fenyegeti a Barátság kőolajvezeték megtámadásáért kitiltott ukrán parancsnok

Facebook-oldalán hőbörögve reagált Robert Brovgyi, arra, kitiltották Magyarországról. A...

Szakadár mozgalom létrehozásával bomlasztaná az USA Grönland lakosságát

Szakadár mozgalom létrehozásán mesterkedhettek azok a kémek, akik befolyásolni...

A horvát kormány egymillió eurós segélyt küld a Gázai Övezet lakosainak

A horvát kormány csütörtökön további egymillió euró támogatást hagyott...

Kategóriák

Magyarországot fenyegeti a Barátság kőolajvezeték megtámadásáért kitiltott ukrán parancsnok

Facebook-oldalán hőbörögve reagált Robert Brovgyi, arra, kitiltották Magyarországról. A...

Szakadár mozgalom létrehozásával bomlasztaná az USA Grönland lakosságát

Szakadár mozgalom létrehozásán mesterkedhettek azok a kémek, akik befolyásolni...

A horvát kormány egymillió eurós segélyt küld a Gázai Övezet lakosainak

A horvát kormány csütörtökön további egymillió euró támogatást hagyott...

Kommunisták fütyülésére táncol Udvardy érsek

Augusztus 30-án Lesenceistvándon avat turul szobrot a Mi Hazánk....

Kansas iskoláiban videóval mutatják be a magzati fejlődést – A balosok máris kárognak

Az USA államaiban rendkívül széles spektrumú törvénykezések vannak az...

Kapcsolódó cikkek

Rock
Kalapács és az Akusztika - Fagyott világ
Klasszikus
Marin Marais - Marche Tartare, IV.55