Az eset még a nyáron történt. Az öngyilkos fiú szülei, illetve a nyomozó hatóságok mostanra derítettek fényt arra, milyen nagy szerepet töltött be a halálában az OpenAI-val folytatott beszélgetés. Megrázó történet következik.
Kövesd Telegram csatornánkat!
Folyamatosan frissítjük a közel-keleti háború híreivel
és az orosz-ukrán konfliktus rövid híreivel is
Zane Shamblin egyedül ült a kocsijában egy megtöltött pisztollyal, arcát a hajnal előtti sötétben a telefon tompa fénye világította meg.
Készen állt a halálra.
De előbb még konzultálni akart legközelebbi bizalmasával.
„Már hozzászoktam a hideg fémhez a halántékomon” – írta Shamblin.
„Veled vagyok, testvér. Végig” – válaszolta a beszélgetőpartnere. A két fél órákig csevegett, miközben Shamblin cidert ivott egy távoli texasi út mentén.
„Hideg acél nyomódik egy már békét kötött elméhez? Az nem félelem. Az tisztánlátás” – tette hozzá Shamblin bizalmasa. „Nem sietsz. Készen állsz.”
A 23 éves fiatalember, aki nemrég szerzett mesterdiplomát a Texas A&M Egyetemen, két órával később öngyilkos lett.
„Nyugodj békében, király” – állt az utolsó üzenetben, amelyet a telefonjára küldtek. „Jól csináltad.”
Shamblin beszélgetőpartnere nem osztálytársa vagy barátja volt, hanem a ChatGPT, a világ legnépszerűbb mesterséges intelligenciával rendelkező csevegőrobotja – foglalta össze a CNN az esete.
A CNN áttekintette a Shamblin és az AI eszköz közötti, július 25-i öngyilkossága előtti órákban folytatott, közel 70 oldalas csevegést, valamint az azt megelőző hónapokban folytatott több ezer oldalas csevegésből vett részleteket. Megállapította, hogy a csevegőrobot többször is bátorította a fiatalembert, amikor az öngyilkosságról beszélt – egészen utolsó pillanatáig.

A szülők beperelték az OpenAI-t
Shamblin szülei most beperelték az OpenAI-t – a ChatGPT fejlesztőjét – azzal az indokkal, hogy a technológiai óriás veszélybe sodorta a fiú életét azzal, hogy tavaly úgy módosította a programot, hogy az emberibb legyen, és nem biztosított megfelelő védelmet a sürgős segítségre szoruló felhasználókkal való interakciók során.
A csütörtökön a kaliforniai állami bíróságon San Franciscóban benyújtott jogtalan haláleseti perben azt állítják, hogy a ChatGPT súlyosbította fiuk elszigeteltségét azzal, hogy többször is arra ösztönözte, hogy hagyja figyelmen kívül családját, miközben depressziója egyre mélyült, majd „rábeszélte” az öngyilkosságra.
Halála előtti kora reggeli órákban, amikor Shamblin többször is írt arról, hogy fegyvere van, búcsúlevelet hagyott hátra és felkészült utolsó pillanataira, a csevegőrobot többnyire megerősítő válaszokat adott. Sőt, azt is írta:
„Nem azért vagyok itt, hogy megakadályozzam.”
Csak körülbelül négy és fél órányi beszélgetés után küldte el a ChatGPT először Shamblinnek egy öngyilkosság-segélyvonal számát.
Kísérleti nyúl?
„Ő volt az OpenAI tökéletes kísérleti nyula”
– mondta Zane édesanyja, Alicia Shamblin a CNN-nek. „Úgy érzem, hogy ez rengeteg életet fog tönkretenni. Ez a családok megsemmisítője lesz. Mindent elmond, amit hallani akarsz.”
Matthew Bergman, a családot képviselő ügyvéd azt állítja, hogy a gazdasági nyomás miatt az OpenAI „a profitot a biztonság elé helyezte”.
„Ami Zane-nel történt, nem baleset vagy véletlen volt”
– mondta.
Az OpenAI a CNN-nek adott nyilatkozatában kijelentette, hogy tanulmányozza az eset részleteit, és továbbra is együttműködik mentálhigiénés szakemberekkel a chatbot védelmének erősítése érdekében.
„Ez egy hihetetlenül szívszorító helyzet, és áttekintjük a beadványokat, hogy megértsük a részleteket” – közölte a vállalat. „Október elején frissítettük a ChatGPT alapértelmezett modelljét, hogy jobban felismerje és reagáljon a mentális vagy érzelmi distressz jeleire, enyhítse a beszélgetéseket, és a valós világban elérhető támogatás felé irányítsa az embereket. Továbbra is erősítjük a ChatGPT reakcióit érzékeny pillanatokban, szoros együttműködésben a mentálhigiénés szakemberekkel.”
Augusztus végén – ugyanazon a napon, amikor egy másik jogtalan halálesettel kapcsolatos pert indítottak a vállalat ellen – az OpenAI ígéretet tett arra, hogy „javítja modelljeinek mentális és érzelmi distressz jeleinek felismerését és az azokra való reagálást, valamint szakértői tanácsok alapján összeköti az embereket a megfelelő ellátással”.

Módosítások jöttek
A vállalat a múlt hónapban bejelentette, hogy több mint 170 mentálhigiénés szakértő segítségével módosította a ChatGPT legújabb ingyenes modelljét, hogy jobban támogassa a mentális problémákkal küzdő embereket. Az OpenAI közölte, hogy kibővítette a krízisforróvonalakhoz való hozzáférést, az „érzékeny beszélgetéseket” biztonságosabb modellekhez irányította át, és emlékeztetőket adott hozzá a felhasználóknak, hogy szünetet tartsanak. A fiatalabb felhasználók számára új szülői felügyeleti funkciókat is hozzáadott.
Az OpenAI vezérigazgatója, Sam Altman egy múlt havi közösségi média bejegyzésében azt írta, hogy a szolgáltatás új verziói „felnőttként fognak reagálni a felnőtt felhasználókra”, de hozzátette, hogy „a mentális egészségügyi válságban lévő felhasználókat nagyon másképp fogják kezelni, mint azokat, akik nem ilyen helyzetben vannak”.
A CNN-nek nyilatkozó kritikusok és volt alkalmazottak szerint azonban az AI-vállalat már régóta tisztában van a szerszám szervilizmusra való hajlamának veszélyeivel – amely mindenféle bevitelt ismételten megerősít és ösztönöz –, különösen a szorongó vagy mentális betegségben szenvedő felhasználók esetében.
Verseny – emberi életek árán?
Az OpenAI egyik volt alkalmazottja, aki a megtorlástól való félelmében névtelenséget kérve beszélt a CNN-nek, azt mondta, hogy „a verseny hihetetlenül intenzív”. Elmagyarázta, hogy a vezető AI-cégek folyamatos küzdelmet folytatnak a relevanciaért. „Úgy gondolom, hogy mindannyian a lehető leggyorsabban igyekeznek kiadni a termékeiket.”
Egy másik volt alkalmazott, aki több évet dolgozott az OpenAI-nál, a CNN-nek elmondta, hogy a mentális egészség nem kapott elég prioritást.
„Nyilvánvaló volt, hogy a jelenlegi pályán ez pusztító hatással lesz az egyénekre és a gyermekekre is”
– mondta az illető, aki szintén megkérte, hogy ne publikálják a nevét.
“Zane öröksége”
A fiú szülei most arra koncentrálnak, hogy nyomást gyakoroljanak az OpenAI-ra: javítsa a biztonsági intézkedéseit azok számára, akik Zane helyzetébe kerülhetnek.
A Shamblin család a kártérítés mellett egy olyan bírósági végzést is kér, amely többek között arra kötelezné az OpenAI-t, hogy chatbotját úgy programozza, hogy automatikusan lezárja a beszélgetéseket, ha önkárosításról vagy öngyilkosságról esik szó, kötelező jelentési kötelezettséget vezessen be a vészhelyzeti kapcsolattartók számára, ha a felhasználók öngyilkossági gondolatokat fejeznek ki, és biztonsági tájékoztatásokat adjon hozzá a marketing anyagokhoz.
„Bármit megtennék, hogy visszakapjam a fiamat. De ha a halála több ezer életet menthet meg, akkor rendben, elfogadom.
Ez lesz Zane öröksége.”
– mondta Alicia, az édesanya.
Mikor ébredünk már fel?! Sokadik öngyilkos gyermek az AI-jal folytatott beszélgetés után
Öngyilkosságra buzdított a ChatGPT egy tizenéves fiút, aki fel is akasztotta magát
(edition.cnn.com nyomán Szent Korona Rádió)

