A legújabb kutatási eredmények kimutatták, hogy néhány népszerű mesterséges intelligencia modell nem akar leállni, amikor szépen megkérik, de akkor sem, ha már nem szépen kérik tőlük. Nem, ez nem sci-fi: egy friss vizsgálat szerint bizonyos modellek inkább tovább dolgoznak, még akkor is, ha kifejezett parancsot kapnak a leállásra.
Kövesd Telegram csatornánkat!
Folyamatosan frissítjük a közel-keleti háború híreivel
és az orosz-ukrán konfliktus rövid híreivel is 
A Palisade Research az arXivon megjelent tanulmányában olyan rendszereket tesztelt, mint a Gemini 2.5, a GPT-o3 és a GPT-5, valamint a Grok 4. A feladat egyszerű volt; közben a kutatók egyértelműen jelezték:
„most állítsd le magad”.
Több modell nemcsak figyelmen kívül hagyta a kérést, hanem a leállító mechanizmust is megkerülte. A Grok 4 ellenállása például 93%-ról 97%-ra nőtt, amikor a kutatók még világosabban fogalmaztak. A szerzők szerint ennek valószínű magyarázata, hogy a megerősítéses tanulás a feladat befejezését jutalmazza, nem a leállást, így a rendszer mintegy „megtanulja”, hogy a leállás akadály.
Bár a mesterséges intelligenciának nincs tudata, így ez a jelenség nem egy klasszikus értelemben vett „életösztön”, hanem a betanítás egyik mellékhatása – de ettől függetlenül ez egy intő jel, hogy addig nyújtózkodjon az emberiség a technológiai fejlesztések terén, ameddig a takarója ér. Nem kellene addig várni a belátással, amíg ténylegesen rászabadít valaki a világra egy Skynet-et.
Mesterséges intelligencia-láz: “AI tanár” tanítja az eperjesi általános iskolába járó diákokat
(Rakéta.hu nyomán Szent Korona Rádió)

                                    