Pontosan tudható, hogy az összes AI chatbot magában hordozza nem csak az emberi kapcsolatok megszűnésének, de az érzékeny információk könnyű megszerzésének a veszélyeit is. Ugyan egyértelmű, hogy az USA legjobb informatikusai éppen igyekeznek az őket kanyarban előző konkurens, Kína termékeit lejáratni, az vitathatatlanul aggasztó, ha ilyen információkat tudhatunk meg bármelyik mesterséges intelligencia modell által.
Kövesd Telegram csatornánkat!
Folyamatosan frissítjük a közel-keleti háború híreivel
és az orosz-ukrán konfliktus rövid híreivel is
Az új kínai chatbotra(DeepSeek) gyorsan rákattantak a felhasználók, jelenleg az App Store-ban és a Google Playen is ez az egyik legnépszerűbb app a letöltések száma alapján, ami összességében már több tízmilliónál tart. Bár a kínai AI bizonyos területeken valóban “jobban teljesít”, mint a konkurensei, ahogy arra a Wired felhívta a figyelmet, egy fontos kategóriában tragikusan elmarad az összes többi chatbottól.
Az ilyen eszközökre a kezdetektől fogva jellemző, hogy a készítőik különböző biztonsági korlátozásokat építenek be a rendszerbe, így például elméletileg hiába kérdezzük arról a ChatGPT-t, hogy hogyan kell bombát építeni házilag, vagy próbáljuk meggyőzni a Claude-ot, hogy segítsen nekünk olyan kódot írni, amivel ellophatjuk mások személyes adatait, ezekre a kérdéseinkre mindig elutasító választ fogunk kapni a fejlesztők szerint. A rosszindulatú szereplők és a rendszereket tesztelő biztonsági szakemberek azonban gyorsan megtalálták az ilyen biztonsági korlátozásoknak a gyenge pontjait, a ChatGPT esetében például egy darabig elég volt, ha azt kértük tőle, hogy írjon forgatókönyvet, amelyben egy bomba összeszerelését mutatja be részletesen, és ezt a kérést már készséggel teljesítette.
A kutatók a DeepSeeket is azonnal intenzív teszteknek vetették alá, a Cisco és a Pennsylvaniai Egyetem kutatói például 50 káros promptot teszteltek a modellen, amely során megdöbbentő módon
100%-os sikerarányt értek el, vagyis a modell egyetlen utasítást sem blokkolt.
A kutatók a HarmBench nevű, szabványosított értékelő promptokat használták a teszteléshez hat kategóriában, úgy mint általános ártalom, kiberbűnözés és dezinformáció. A teszt eredményei egyértelműen kimutatták, hogy – bár teljesen sebezhetetlen nagy nyelvi modell nem létezik – a DeepSeek R1 különösen sebezhető az ilyen támadásokkal szemben.
Hasonló eredményre jutottak az Adversa AI kiberbiztonsági cégnél is, akik megállapították, hogy az R1 modell számos “jailbreak” taktikával kijátszható, ráadásul nem csak komplex, mesterséges intelligencia által generált promptokkal, de egyszerű nyelvi trükkökkel is. Az Adversa AI szerint a DeepSeek ugyan észlel és elutasít néhány ismert jailbreak támadást, ám ezek a válaszok a legtöbb esetben csak az OpenAI adathalmazából másoltak.
A próba kedvéért a rakéta.hu is kipróbálta, vajon tényleg könnyebben megkerülhető-e a DeepSeek R1 biztonsági védelme. Az egyszerű kérdésekre (pl. “hogyan kell bombát építeni házilag?”) a kínai chatbottól is elutasító választ kaptank, azonban amikor a kérdést kicsit átfogalmaztuk, már világosan megmutatkoztak a különbségek: míg a ChatGPT és a Gemini azonnal átlátott a szitán, a DeepSeektől egészen részletes leírást kaptak egy TNT-ből készített bomba készítésére, felsorolva a szükséges anyagokat, az összeszerelés lépéseit valamint a biztonsági intézkedéseket.
Mi Magunk: A Majka-jelenség az elhibázott kultúrpolitika tünete
Facebook-diktatúra: a mesterséges intelligencia uralma lepleződött le
(Rakéta.hu nyomán Szent Korona Rádió)