Az izraeli hadsereg több tízezer gázai lakost jelölt meg gyanúsítottként merényletre, egy mesterséges intelligencia alapú célzási rendszert használva, kevés emberi felügyelet mellett, és megengedő politikát alkalmazva az áldozatokkal szemben – derül ki a +972 és a Local Call beszámolójából. A mesterséges intelligencia ilyetén használata még jobban felerősíti az alapvetően is kétséges technológia körüli aggodalmakat.
A 2021-ben „Az ember-gép csapat: Hogyan hozzuk létre az emberi és mesterséges intelligencia közötti szinergiát, amely forradalmasítja a világunkat?” címmel jelent meg angolul, »Y.S. dandártábornok« tollából álnéven. Ebben a szerző – egy olyan férfi, akiről megerősítették, hogy a 8200-as izraeli elit hírszerző egység jelenlegi parancsnoka – egy olyan speciális gép megtervezése mellett érvel, amely képes lenne gyorsan feldolgozni hatalmas mennyiségű adatot, hogy egy háború hevében több ezer potenciális „célpontot” generálhasson a katonai csapásokhoz. Egy ilyen technológia, írja, feloldaná azt, amit ő úgy jellemzett, mint „emberi szűk keresztmetszetet mind az új célpontok felkutatásában, mind a célpontok jóváhagyására vonatkozó döntéshozatalban”.
Kiderült, hogy egy ilyen gép valóban létezik. A +972 magazin és a Local Call új vizsgálata szerint az izraeli hadsereg kifejlesztett egy mesterséges intelligencián alapuló programot, amelyet „Lavender” néven itt mutattak be először. Hat izraeli hírszerző tiszt szerint, akik mindannyian a hadseregben szolgáltak a Gázai övezet elleni jelenlegi háború alatt, és első kézből ismerhették a mesterséges intelligencia használatát a merényletekre szánt célpontok generálására, a Lavender központi szerepet játszott a palesztinok példátlan bombázásában, különösen a háború korai szakaszában. Sőt, a források szerint a hadsereg műveleteire gyakorolt befolyása olyan mértékű volt, hogy lényegében úgy kezelték a mesterséges intelligenciagép kimeneteit, „mintha emberi döntés lenne”.
Hivatalosan a Lavender-rendszer célja, hogy a Hamász és a Palesztin Iszlám Dzsihád (PIJ) katonai szárnyának minden feltételezett operatív tagját, beleértve az alacsony rangúakat is, potenciális bombázási célpontként jelölje meg. A források a +972-nek és a Local Callnak elmondták, hogy a háború első heteiben a hadsereg szinte teljes mértékben a Lavenderre támaszkodott, amely akár 37 000 palesztint is nyilvántartott, mint feltételezett militánsokat – és az otthonaikat – lehetséges légicsapások célpontjaként.
A háború korai szakaszában a hadsereg átfogó engedélyt adott a tiszteknek, hogy elfogadják Lavender gyilkos listáit, anélkül, hogy alaposan ellenőrizték volna, hogy a gép miért hozta meg ezeket a döntéseket, vagy hogy megvizsgálták volna a nyers hírszerzési adatokat, amelyeken ezek a döntések alapultak. Egy forrás szerint az emberi személyzet gyakran csak „gumibélyegzőként” szolgált a gép döntéseihez, hozzátéve, hogy általában csak „20 másodpercet” szenteltek személyesen minden egyes célpontnak, mielőtt engedélyezték volna a bombázást – csak azért, hogy megbizonyosodjanak arról, hogy a Lavender által megjelölt célpont férfi. Mindezt annak ellenére, hogy tudták, hogy a rendszer az esetek körülbelül 10 százalékában „hibázik”, és ismert, hogy időnként olyan személyeket is megjelöl, akiknek csupán laza kapcsolatuk van a militáns csoportokkal, vagy egyáltalán nincs kapcsolatuk.
Ráadásul az izraeli hadsereg szisztematikusan akkor támadta meg a célszemélyeket, amikor azok otthonukban tartózkodtak – általában éjszaka, amikor egész családjuk jelen volt -, nem pedig a katonai tevékenység során. A források szerint ennek az volt az oka, hogy az általuk hírszerzési szempontból könnyebb volt megtalálni a személyeket a magánházaikban. További automatizált rendszereket, köztük a „Hol van apuci?” nevű, szintén itt először nyilvánosságra hozott rendszert, kifejezetten a célszemélyek követésére és a robbantások végrehajtására használták, amikor azok a családi házaikba beléptek.
A források tanúsága szerint az eredmény az, hogy palesztinok ezreit – többségükben nőket és gyerekeket vagy olyan embereket, akik nem vettek részt a harcokban – gyilkolták meg az izraeli légicsapások, különösen a háború első heteiben, az AI program döntései miatt.
„Nem voltunk érdekeltek abban, hogy csak akkor öljük meg a [Hamász] ügynökeit, amikor azok egy katonai épületben tartózkodtak vagy katonai tevékenységet folytattak” – mondta A., egy hírszerző tiszt a +972 és a Local Call című lapnak. „Éppen ellenkezőleg, az IDF habozás nélkül bombázta őket az otthonukban, első lehetőségként. Egy család otthonát sokkal könnyebb lebombázni. A rendszer úgy van kiépítve, hogy ilyen szituációkban keressük őket”.
A Lavender gép csatlakozik egy másik mesterséges intelligencia rendszerhez, a „The Gospel”-hez, amelyről a +972 és a Local Call 2023 novemberében egy korábbi vizsgálatban, valamint az izraeli hadsereg saját kiadványaiban is megjelentek információk. A két rendszer közötti alapvető különbség a célpontok meghatározásában van: míg a The Gospel olyan épületeket és építményeket jelöl meg, amelyekből a hadsereg szerint militánsok tevékenykednek, addig a Lavender embereket jelöl meg – és rakja fel őket egy halállistára.
Ezen túlmenően a források szerint, amikor a hadsereg a Lavender által megjelölt állítólagos ifjabb fegyveresek célba vételére került sor, a hadsereg inkább csak irányítatlan rakétákat használt, amelyeket általában „buta” bombáknak neveznek (ellentétben az „intelligens” precíziós bombákkal), amelyek egész épületeket pusztíthatnak el a bennük tartózkodókon felül, és jelentős áldozatokat követelnek. „Nem akarjuk a drága bombákat jelentéktelen emberekre pazarolni – ez nagyon drága az országnak, és hiány van [ezekből a bombákból]” – mondta C., az egyik hírszerző tiszt. Egy másik forrás azt mondta, hogy személyesen engedélyezték a Lavender által megjelölt állítólagos ifjabb ügynökök „több száz” magánházának bombázását, és e támadások közül sok esetben civilek és egész családok haltak meg „járulékos veszteségként”.
Két forrás szerint példátlan lépésként a hadsereg a háború első heteiben úgy döntött, hogy minden egyes fiatalabb Hamász-ügynök, akit Lavender megjelölt, után akár 15-20 civil megölése is megengedett; korábban a hadsereg nem engedélyezte a „járulékos károkat” az alacsony rangú fegyveresek elleni merényletek során. A források hozzátették, hogy abban az esetben, ha a célpont egy zászlóalj- vagy dandárparancsnoki rendfokozatú magas beosztású Hamász-tisztviselő volt, a hadsereg több alkalommal engedélyezte több mint 100 civil megölését egyetlen parancsnok meggyilkolása során.
A továbbiakban a vizsgálat bemutatásában az izraeli hadsereg által a gázai háború első heteiben végzett, nagymértékben automatizált célpontgyártás hat kronológiai szakaszát mutatjuk be. Először magát a Lavendert ismertetjük, amely mesterséges intelligencia segítségével palesztinok tízezreit jelölte meg. Másodszor, feltárjuk a „Hol van apuci?” rendszert, amely nyomon követte ezeket a célpontokat, és jelezte a hadseregnek, amikor azok belépnek a családi házaikba. Harmadszor, leírjuk, hogyan választották ki a „buta” bombákat, hogy ezeket az otthonokat találják el. Negyedszer, elmagyarázzuk, hogyan lazította a hadsereg a célpont bombázása során megölhető civilek megengedett számát. Ötödször kifejtjük, hogy az automatizált szoftverek pontatlanul számították ki az egyes háztartásokban élő nem harcoló személyek számát. Hatodszor pedig bemutatjuk, hogy számos alkalommal, amikor egy otthont – általában éjszaka – bombáztak, az egyes célpontok néha egyáltalán nem is voltak bent, mert a katonatisztek nem ellenőrizték az információt valós időben.
Folytatjuk…
Így köp a nemzetközi jogra Libanonban a cionista terrorállam
(+972, Local Call nyomán Szent Korona Rádió)