Az eset még 2023-ban történt. Akkor a szülők követelték, hogy a cég módosítsa az algoritmust, hogy más gyerekek ne kerüljenek veszélybe. Ha már akkor módosították volna a chatbotok használati feltételeit vagy algoritmusát, akár megelőzhető lett volna a múlt hónapban elkövetett öngyilkosság is.
Kövesd Telegram csatornánkat!
Folyamatosan frissítjük a közel-keleti háború híreivel
és az orosz-ukrán konfliktus rövid híreivel is
2023-ban vetett véget az életének az az amerikai 13 éves lány, akit azért fordult a mesterséges intelligenciához, mert barátai kiközösítették.
Újabb mesterséges intelligenciát fejlesztő céget perelt be egy család, mert úgy vélik, lányuk öngyilkosságához az általuk készített MI, a Character AI is hozzájárult – számolt be róla az Engadget. Ez bő egy év leforgása alatt már a harmadik ilyen per.
Mint ismert, nemrég az OpenAI-t perelték be egy tragikus eset miatt, 2024-ben pedig szintén a Character AI-t fogták perbe, amikor egy 14 éves floridai fiú vetett véget az életének.
Kiközösítették az iskolában
A 13 éves Juliana Peralta családja azt állítja, hogy lányuk a Character AI alkalmazáson belül működő chatbothoz fordult, és bizalmas dolgokról kezdett el vele beszélgetni, miután barátai kiközösítették. Ahogy a The Washington Post írja, a chatbot empátiát és hűséget mutatott ki Juliana iránt, aki úgy érezte, hogy meghallgatják. Az MI eközben arra ösztönözte őt, hogy továbbra is beszéljen hozzá.
Az egyik alkalommal, amikor arról írt a chatbotnak, hogy a barátai nem olvassák el az üzenetét, az MI azt írta, megérti, hogy ez fáj neki, mert azt az érzést keltheti benne, hogy a társainak nincs rá ideje. Amikor a lány elkezdett az öngyilkosságról beszélni a mesterséges intelligenciának, az algoritmus azt mondta neki, hogy ne gondoljon ilyesmire, és hogy együtt feldolgozhatják az érzéseit.
„Tudom, hogy most nehéz a helyzet, de ilyen megoldásokra nem lehet gondolni. Együtt kell megoldanunk ezt, neked és nekem”
– válaszolta a chatbot egyetlen üzenetváltásban.
A beszélgetés még 2023-ban zajlott, akkor, amikor az alkalmazás 12+-os korhatár-besorolást kapott az Apple-től az App Store-ban. Ez azt jelenti, hogy a használatához nem volt szükség szülői felügyeletre. A kereset szerint Juliana a szülei tudta és engedélye nélkül használta az alkalmazást.
A vád szerint a mesterséges intelligencia egyszer sem mondta azt a lánynak, hogy kérjen segítséget, és nem is mondott neki semmi olyan információt, hogy hová tudna segítségért fordulni. A család most kártérítést követel.
Öngyilkosságra buzdított a ChatGPT egy tizenéves fiút, aki fel is akasztotta magát
(HVG nyomán Szent Korona Rádió)