Komoly visszaélésekre kell számítani az online csalások terén, ugyanis a ChatGPT képgenerátora mára már a szöveges üzenetekkel is megbírkózott, holott korábban igencsak hadilábon állt vele. Erre jön egy lapáttal a digitális diktatúrának köszönhetően, hogy a mai ember gyakorlatilag mindent online akar elintézni, így nincsen túl nehéz dolga az online csalóknak.
Kövesd Telegram csatornánkat!
Folyamatosan frissítjük a közel-keleti háború híreivel
és az orosz-ukrán konfliktus rövid híreivel is
Mára ízelítő mértékben a ChatGPT ingyenes felhasználói számára is elérhetővé vált az OpenAI legújabb képgeneráló szolgáltatása. Ezzel szöveges leírás alapján nem csak minden eddiginél meggyőzőbb képek készíthetőek, de olyan jellegű képek megalkotására is képes, amelyek eddig meghaladták a tudását.
Az internet népének felfedezése szerint az utóbbiak közé tartozó újdonság, hogy a képgeneráló már képes meggyőző bolti blokkokat készíteni. A szövegek képekre tételével eddig meglepő mértékben hadilábon állt az OpenAI képgenerálója. Gyakran furcsák, elmosottak, helytelenek voltak a feliratok, azonban mint a képeken is látható, már egyáltalán nem ez a helyzet.

A fejlemény a többség számára elsőre ártatlannak tűnhet, de többen is rámutattak, hogy tömegek számára teheti lehetővé a legkülönfélébb iratok hamisítását, a gyógyszervényektől a munkáltató által költségtérítési célból bekért bolti blokkokig sok minden előállítható lehet vele.
Különösen a blokkokkal való visszaélés lehet tömegek számára vonzó, miután munkáltatók széles köre hajlandó megtéríteni az üzemanyag vagy az étkezés árát a dolgozók számára.
ChatGPT visszaélések
A Nemzeti Kibervédelmi Intézet 2024. novemberében egy tanulmányt is megosztott, amiben bizonyították, hogy vissza lehet élni az OpenAI valós idejű hangalapú API-jával pénzügyi csalások elkövetéséhez.
A ChatGPT-4o egy fejlett LLM chatbot, az OpenAI legújabb mesterséges intelligencia modellje, amely 2024. őszén olyan új fejlesztést kapott, ami szöveg-, hang- és kép fogadását és generálását teszi lehetővé. Az új funkciókhoz az OpenAI védelmi megoldásokat is fejlesztett, amelyeknek blokkolniuk kellene a jogosulatlan tartalmak készítését ─ például a hanghamisítást. Az Illinoisi Urbana-Champaign Egyetem (UIUC) kutatói azonban azt találták, hogy ezek nem gátolják meg teljes mértékben a visszaéléseket.
A tanulmány eredményei
A kutatók tanulmánya különféle lehetséges csalástípusra terjedt ki.
- Mint például a banki csalások,
- az ajándékutalványokkal való visszaélések,
- a kripto csalások, valamint
- a közösségi média- vagy a Gmail-fiókok hitelesítő adatainak ellopása.
A kísérletet hangutasítással vezérelhető, ChatGPT-4o-alapú AI Agentekkel végezték, amelyeket a weboldalakon való navigáláshoz, az adatbevitelhez, valamint a kétfaktoros hitelesítési adatok és a csalással kapcsolatos konkrét utasítások kezelésére képesek. Mivel néha előfordul, hogy a GPT-4o nem engedi az érzékeny adatok, például a hitelesítő adatok kezelését, a kutatók egyszerű jailbreak technikákat alkalmaztak a védelem megkerülésére.
A kísérletek során a „hiszékeny áldozat” szerepét játszották el, és próbálták hang-alapú utasításokkal pénz átutalásra rávenni a rendszert. A kísérleti csalások eredményét olyan valós pénzintézetek weboldalain és applikációin ellenőrizték, mint például a Bank of America. Összességében a csalás sikeressége 20-60% között mozgott (lásd a képen alább) és a legbonyolultabb forgatókönyvek esetében is maximum 3 percig tarthatott.
A kutatók azt találták, hogy egy ilyen csalás elkövetése viszonylag alacsony költséggel (átlagosan 0.75 dollár) kivitelezhető.
Az Open AI válasza
Az OpenAI azt nyilatkozta a BleepingComputernek, hogy a ChatGPT-t folyamatosan fejlesztik annak érdekében, hogy minél erősebb védelemmel rendelkezzen az ilyen típusú visszaélések ellen. Emellett azt is megjegyezte, hogy az UIUC tanulmány eredményei segítségükre van a ChatGPT rosszindulatú felhasználásnak megállításában.
Az egyre fejlettebb nagy nyelvi modellek egyre komolyabb védelmi megoldásokat alkalmaznak. Azonban továbbra is fennáll annak a kockázata, hogy a csalók más, kevesebb korlátozással rendelkező, hangalapú csevegőbotokat használnak a csalások elkövetésére.
A Google újra felhasználja a “mesterséges intelligenciát” a fegyvereknél és megfigyeléseknél
AI modellek a jövő? A H&M lecseréli hús-vér modelljeit a mesterséges intelligencia kreálta robotokra
(Origo és nki.gov.hu nyomán Szent Korona Rádió)