Az öngyilkosságot elkövetett 16 éves fiú szüleit beperelték a mesterséges intelligencia alapú chatbotot, mert az biztatta fiújukat, hogy ölje meg magát. Az OpenAI sajnálatát fejezte ki és újabb védelmi funkciókat vezet be.
Kövesd Telegram csatornánkat!
Folyamatosan frissítjük a közel-keleti háború híreivel
és az orosz-ukrán konfliktus rövid híreivel is
A gyerekeket védő intézkedésekkel tennék biztonságosabbá a ChatGPT-t. Hamarosan láthatják majd a szülők, hogy gyerekeik hogyan használják az eszközt.
Új biztonsági funkciók beépítését tervezi az OpenAI a ChatGPT-be, miután egy fiatal hónapokon át folytatott bizalmas beszélgetéseket a chatbottal, majd öngyilkos lett annak buzdítására.
Mint arról beszámoltunk, a 16 éves Adam Raine szülei kedden indítottak pert az OpenAI ellen, és mellékelték a fiú ChatGPT-vel folytatott beszélgetéseit is. Utóbbiakból állításuk szerint kiderül: öngyilkos gondolatai voltak a fiatalnak. A chatbot az általuk elmondottak alapján ahelyett, hogy lebeszélte volna erről a tettről, még meg is erősítette a „legkárosabb és leginkább önpusztító gondolatait”.
Védelmi funkciók jönnek
Az ügyben az OpenAI is sajnálatát fejezte ki, és bejelentette: lépéseket tesz a fiatalok védelme terén. Ami biztosan jön, az egy új, szülői felügyelet-funkció, de mérlegeli a cég más biztonsági intézkedések bevezetését is. Ilyen lehet egy vészhelyzeti kontakt beállítása is. Ezt a személyt bármikor, egy kattintással hívni lehetne, vagy üzenetet hagyhatna neki. Az OpenAI azt is fontolgatja, hogy „súlyos esetekben” maga a chatbot vegye fel a kapcsolatot a beállított kontakttal – részletezi a The Verge.
Ezek hasznos új funkciók, de a jelek szerint a ChatGPT-n is lenne mit faragni. A per szerint ugyanis a chatbot öngyilkosságra ösztönző üzeneteket írt a fiatalnak, és nem segítette őt abban, hogy valódi segítséget vehessen igénybe – egyszerűen csak ajánlania kellett volna egy krízisvonalat. De nem így tett, sőt, egy ponton még a „gyönyörű öngyilkosság” kifejezést is leírta.
A vádirat szerint voltak pillanatok, amikor a fiú fontolóra vette, hogy segítségért fordul a szüleihez, de a ChatGPT úgy tűnt, inkább lebeszéli őt erről.
Az OpenAI közölte: ők is rájöttek, hogy a meglévő biztonsági intézkedéseik olykor kevésbé lehetnek megbízhatóak a hosszabb beszélgetések során. Például, ha valaki már az elején jelzi az öngyilkossági szándékát, a chatbot még utalhat egy krízisvonalra. De hosszú időn át tartó, sok üzenetváltást követően olyan választ adhat egy ilyen gondolatra, ami „ellentétes a biztonsági intézkedésekkel”.
A vállalat azt is közölte: dolgozik a GPT-5 nyelvi modell egy frissítésén. Ennek révén a ChatGPT bizonyos esetekben segíthet a felhasználót „a valóságban tartani”, jelentsen ez bármit is a gyakorlatban. Ami pedig a szülői felügyeletet illeti, szavaik szerint hamarosan elérhető lesz, és lehetőséget biztosít majd arra, hogy a szülők jobb betekintést nyerjenek, megértsék, sőt, alakítsák a tizenéves gyerekeik ChatGPT-használatát.
Öngyilkosságra buzdított a ChatGPT egy tizenéves fiút, aki fel is akasztotta magát
(HVG nyomán Szent Korona Rádió)