Megbízhatatlan a mesterség intelligencia, akár még atomháborút is kirobbanthat

A hadseregeknek nem szabad túlzottan támaszkodniuk a mesterséges intelligenciára. A nagy nyelvi modellekkel betanított rendszerek ugyanis rossz döntéseket hozhatnak – és akár egy nukleáris háborút is előidézhetnek. A csatatéren elemzésekben segíthetnek ezek a technológiát, illetve logisztikai rendszert szerveznek, de mint látjuk Izraelben, népirtáshoz is vezethetnek.

Kövesd Telegram csatornánkat
Folyamatosan frissítjük a közel-keleti háború híreivel
és az orosz-ukrán konfliktus rövid híreivel is

2022-ben az OpenAI bemutatta a ChatGPT-t, egy olyan chatbotot, amely nagy nyelvi modellek (LLM) segítségével utánozza az emberi beszélgetéseket, és válaszol a felhasználók kérdéseire. A chatbot rendkívüli képességei vitát váltottak ki arról, hogyan lehetne az LLM-eket más feladatok elvégzésére használni – beleértve a hadászati feladatokat is.

Mások azon gondolkodnak, hogy a generatív mesterséges intelligenciával működő technológiákat hogyan lehetne használni a civilek, katonákat beazonosítására, és egy csapás közbeni megkülönböztetésre – tehát az etikus háborúk megvívásához. Mások – például a Vöröskereszt Nemzetközi Bizottságának tanácsadói – arra figyelmeztettek, hogy ezek a technológiák kikerülhetik az emberi döntéshozatalt, amikor élet és halál között kell dönteni.

Az Egyesült Államok Védelmi Minisztériuma most komolyan vizsgálja, hogy az LLM-ek mit nyújthatnak a hadsereg számára. A Védelmi Minisztérium 2022 tavaszán létrehozta a Digitális és Mesterséges Intelligencia Hivatalát, hogy megvizsgálja, hogyan segíthet a mesterséges intelligencia a fegyveres erőknek.

2023 novemberében a védelmi minisztérium közzétette a mesterséges intelligenciával kapcsolatos technológiák használatára vonatkozó stratégiáját. Optimista módon arról számolt be, hogy „az adatok, az analitika és az AI-technológiák legújabb fejlesztései lehetővé teszik a vezetők számára, hogy gyorsabban hozzanak jobb döntéseket, a stratégiai tervezésben és a harctéren is”. Az AI-alapú technológiákat már ma is alkalmazzák. Az amerikai csapatok például AI-rendszerekkel választották ki a húti célpontokat a Közel-Keleten. A zsidók viszont úgy programozzák be a mesterséges intelligenciát, miszerint járulékos veszteségeket is adnak az eredményekhez, ezért is lehet népirtásnak nevezni a gázai konfliktust.

A Pentagonban a mesterséges intelligencia és az LLM-ek iránti lelkesedés ellenére a vezetés aggódik a technológia által jelentett kockázatok miatt, és nemrégiben az amerikai haditengerészet az LLM-ek használatát korlátozó iránymutatást tett közzé. Az LLM-ek hasznosak lehetnek, de cselekedeteiket nehéz megjósolni, és veszélyes, eszkalációt maga után vonó döntéseket hozhatnak. A hadseregnek ezért korlátokat kell szabnia ezeknek a technológiáknak, amikor nagy tétekkel járó döntések meghozatalára használják őket, különösen harci helyzetekben – írja a Foreign Affairs hasábjain megjelent cikkében Max Lampart a Stanford Nemzetközi Biztonsági és Együttműködési Központ (CISAC) és a Stanford Center for AI Safety munkatársa, valamint Jacquelin Schneider, a Hoover Institution és a Stanford Egyetem Nemzetközi Biztonsági és Együttműködési Központjának munkatársa.

Veszélyes játékos

Az LLM-ek olyan katonai feladatokat tudnak ellátni, amelyek hatalmas mennyiségű adat feldolgozását igénylik nagyon rövid idő alatt, ami azt jelenti, hogy a hadseregek esetleg a döntéshozatal bővítésére vagy a bürokratikus funkciók racionalizálására kívánják használni őket.

Az LLM-ek ígéretesek a katonai tervezés, a parancsnokság és a hírszerzés számára. Automatizálhatják a forgatókönyv-tervezést, a hadijátékokat, a költségvetés-tervezést és a kiképzés nagy részét. Használhatók a hírszerzési információk szintetizálására, a fenyegetések előrejelzésének javítására és a támadási pontok gyors meghatározására. Háború vagy válsághelyzet idején az LLM-ek útmutatásokat adhatnak a parancsok kiadásához még akkor is, ha az egységek és parancsnokaik között korlátozott vagy minimális a kommunikáció.

A hadseregek mindennapi működése szempontjából talán a legfontosabb, hogy az LLM-ek képesek lehetnek automatizálni az egyébként nehézkes katonai feladatokat, beleértve a logisztikát és a teljesítményértékelést is.

Azonban még ezeknél a döntéseknél sem garantálható az LLM-ek sikere. Viselkedésük – különösen ritka és kiszámíthatatlan események beköveztével – kiszámíthatatlan lehet. És mivel nincs két teljesen egyforma LLM, a felhasználói inputok különbözőképpen befolyásolják őket.

(Index, Szent Korona Rádió)

Mesterséges intelligenciával vadásznak a palesztinokra, ezért sok az ártatlan áldozat?