Sajnos azonban több haláleset is kellett ahhoz, hogy ezt végre meglépjék. Ugyanis több fiatal, bizonyíthatóan a chatbottal való beszélgetés hatására lett öngyilkos. Reméljük a többi, mesterséges intelligencia alapú csevegőrobot kezelője is mihamarabb követi ezt a lépést.
Kövesd Telegram csatornánkat!
Folyamatosan frissítjük a közel-keleti háború híreivel
és az orosz-ukrán konfliktus rövid híreivel is
Bár először még csak védelmi funkciókról beszéltek a nagy cégek a chatbotokkal kapcsolatban, végül úgy döntött a Character.AI, az a legbiztonságosabb, ha teljesen betiltják a kiskorúaknak, illetve időkorlátot vezetnek be. Ezzel egyet is tudunk érteni.
A Character.AI betiltja a kiskorúak hozzáférését chatbotjaihoz a mesterséges intelligenciával folytatott beszélgetések gyermekekre gyakorolt hatásával kapcsolatos növekvő aggodalmak miatt.
Az Euronews beszámolója szerint a vállalat több, gyermekbiztonsággal kapcsolatos perrel néz szembe. Köztük egy olyan anya keresetével, aki szerint a cég chatbotjai öngyilkosságra ösztönözték tinédzser fiát.
A Character Technologies közleménye szerint november 25-től a 18 év alatti felhasználók nem folytathatnak nyílt beszélgetéseket a chatbot karakterekkel. Emellett a rendszer 2 órás használati korlátot vezet be számukra.
A cég lehetővé teszi a felhasználók számára, hogy testreszabható, “élőnek és emberszerűnek tűnő” karaktereket hozzanak létre vagy használjanak különböző tevékenységekhez, például játékhoz vagy állásinterjú-szimulációhoz.
Honnan tudjuk, hogy a felhasználó valóban felnőtt?
A Character.AI életkor-ellenőrző funkciókat vezet be a 18 év alatti felhasználók azonosítására. Egyre több technológiai platform alkalmaz életkor-ellenőrzést, hogy megakadályozza a gyermekek hozzáférését a számukra nem biztonságos eszközökhöz.
Ezek a módszerek azonban nem tökéletesek, és sok gyermek megtalálja a módját, hogy megkerülje őket. Az arcszkenneléssel például nem mindig lehet megkülönböztetni egy 17 és egy 18 éves személyt. Emellett adatvédelmi aggályokat vet fel a személyazonosító okmányok feltöltésének kérése.
A vállalat közölte, hogy új funkciókon dolgozik gyermekek számára, például AI karakterekkel készített videók, történetek és streamek létrehozásán. Valamint egy AI biztonsági laboratórium létrehozásán.
Meetali Jain, a Tech Justice Law Project ügyvezető igazgatója szerint a Character.AI lépése “még mindig sok részletet hagy nyitva”. Nem tisztázták, hogyan valósítják meg az életkor-ellenőrzést, hogyan biztosítják a módszerek adatvédelmét, és nem foglalkoztak a fiatal felhasználók hozzáférésének hirtelen letiltásából eredő lehetséges pszichológiai hatásokkal sem.
Jain hozzátette, hogy “ezek a változtatások nem kezelik azokat az alapvető tervezési jellemzőket, amelyek elősegítik az érzelmi függőségeket – nemcsak a gyermekek, hanem a 18 év feletti személyek esetében is”.
Észszerű használat
A Common Sense Media, egy képernyők és digitális média észszerű használatát vizsgáló és támogató csoport közelmúltbeli tanulmánya szerint a tinédzserek több mint 70 százaléka használt már AI társakat, és felük rendszeresen használja őket.
Mindez a lépés egyébként igen üdvös, főleg a történtek hatására. Azonban vannak olyan kiskapui ennek a témának, aminek érdemes utánajárni egy kicsit. Tehát ha már elismerték, hogy valóban veszélyes egy kiskorúra nézve, ha nyitott beszélgetést folytat egy nem ellenőrzött robottal, akkor vajon hogy engedélyezhetik továbbra is a mesterséges intelligencia alapú plüssjátékokat?
Öngyilkosságra buzdított a ChatGPT egy tizenéves fiút, aki fel is akasztotta magát
(penzcentrum.hu nyomán Szent Korona Rádió)

