csütörtök, október 30, 2025
13 C
Budapest
Rock
Kalapács és az Akusztika - Fagyott világ
Klasszikus
Marin Marais - Marche Tartare, IV.55

AI alapú megfigyelés: Mi célzott reklámokat, a palesztinok rakétákat kapnak

A Gázai háború során Izrael csúcsra járatta az AI alapú megfigyelést. Ezek a z eszközök békeidőben minket figyelnek, hogy célzott hirdetéseket kapjunk, Izrael viszont a Hamász tagjait figyeli, hogy sikeres rakétacsapást tudjon ellenük végrehajtani. Az izraeli hadsereg AI mániájáról ITT, ITT, ITT és ITT írtunk.

Kövesd Telegram csatornánkat!
Folyamatosan frissítjük a közel-keleti háború híreivel
és az orosz-ukrán konfliktus rövid híreivel is

Szeptember végén a Microsoft bejelentette, hogy a továbbiakban nem nyújt hozzáférést Izrael számára az Azure nevű, felhőalapú szolgáltatásához, és több, mesterséges intelligencián (AI) alapuló eszközéhez. Ez volt ugyanis az első alkalom, hogy egy nagy amerikai techcég megtiltotta, hogy Izrael a palesztinok ellen vesse be egy technológiáját.

A cég azután hozta meg a döntést, hogy a Guardian két helyi újsággal együttműködve kinyomozta, hogy az IDF hírhedt hírszerzői, a 8200-as egység, arra használták ezeket a megoldásokat, hogy naponta több millió telefonhíváson keresztül figyeljék meg a palesztinokat Gázában és Ciszjordániában.

A Microsoft esetében nem most merült fel először, hogy kiterjedt megfigyelésre használják az AI-hoz kapcsolódó technológiáit, és nem is ők az ilyesmivel szóba hozott egyetlen cég. A velük szoros kapcsolatban lévő OpenAI, a Google és az Amazon neve is előkerült már, arról pedig már az izraeli–palesztin konfliktus kitörése után lehetett olvasni, hogy már a mesterséges intelligencia célozza az izraeli hadsereg csapásait.

Utóbbi azért érdekes, mert a két dolog között nyilván van összefüggés: az izraeli hadsereg a rengeteg begyűjtött és feldolgozott adatból jut el odáig, hogy mekkora az esélye annak, hogy valaki a Hamász tagja, és kire kell csapást mérni.

Bár Gázában időközben létrejött a tűzszünet, ezeket az eszközöket a mindennapokban is használni fogják, sőt már használják is szerte a világon. Csak a lebombázandó célpontok helyett például azt próbálják velük eldönteni, hogy ki lehet jogosult szociális bérlakásra, vagy hol lehet épp valaki a kocsija rendszáma alapján – inkább kevesebb, mint több sikerrel. Ez mutatja meg a legjobban, hogy miért is veszélyes a teljes digitalizáció. Ugyanaz az eszközt egyszer arra használják, hogy célzott hirdetéseket kapjon az ember, máskor pedig ez azonosítja a rakéta célpontját. A folyamat ugyanaz, csak a végkifejlet más.


Hogyan használták az AI-t Gázában?

Azt, hogy Izrael, főleg a méretéhez képest, milyen fejlett technológiailag, valószínűleg senkinek nem kell bemutatni. Az izraeli kémszoftverek például messze a legjobbak a világon, amivel Magyarországon is mindenki tisztában lehet a Pegasus-botrány óta, vagy a Candiru nevű cég miatt, aminek az eszközét szintén használta a magyar kormány is, és ami még idén is aktív lehetett nálunk. Izrael globálisan is élen jár az úgynevezett deep techben, egy friss izraeli jelentés szerint 2019 és 2025 között az Egyesült Államok nagy techközpontjait leszámítva sehol nem folyt annyi pénz a szektorba, mint itt.

Ennek az egyik nagy katalizátora az AI volt, aminek a fejlődését jelentősen megdobta, hogy az ország az elmúlt két évben zajló háború miatt szédületes tempóban hozott létre új, főként a harctérre tervezett, de korántsem csak ott bevethető AI-eszközöket. A háború kitörése után bevetettek arcfelismerő rendszereket, és az izraeli +972 cikke szerint létrehoztak egy arab nyelvű nagy nyelvi modellt (LLM) is az évtizedek alatt összegyűjtött szöveges és hangüzenetekre alapozva, amit aztán egy, a ChatGPT-hez hasonló csetbotként tudtak használni, például arra, hogy kielemezzék az arab világból érkező reakciókat olyasmikre, mint a Hezbollah-vezér Haszán Naszrallah elleni csapás.

Emellett olyan rendszereket is alkottak, amik a célpontok megtalálásában segítettek nekik. Az egyik ilyen Gospel néven fut, és már a háború kitörése előtt is létezett, 2021 óta lehetett szélesebb körben is ismerni. Ennek lényege, hogy rengeteg adatot fésül össze, és azok alapján ajánl olyan épületeket, amelyekben harcosok tartózkodhattak. Egy másik rendszer, a Lavender, ugyancsak gépi tanulással szűri le az izraeli hírszerzés adatbázisait a megadott kritériumok szerint, és ezzel szűkíti a lehetséges célpontok, köztük emberek listáját.

Az AP-nek nemrég egy korábban ezzel dolgozó hírszerző tiszt azt mondta, a rendszer egy 0-tól 100-ig terjedő skálán pontozta, hogy mekkora eséllyel lehet valaki a Hamász harcosa, például a felmenői korábbi tevékenysége alapján, de lehallgatott telefonbeszélgetéseket is alapul vett. A kockázatosnak ítélt emberek a +972 korábbi nyomozása alapján egy listára kerültek, a listán lévők nevét pedig végül olyan, folyamatos megfigyelést lehetővé tevő rendszerekbe táplálták be, mint a Where’s Daddy?, ami értesítette az izraeli hadsereget arról, ha az illető belépett az otthonába, amire így egyből mehetett is a csapás.

A +972 forrásai szerint ezeket a csapásokat hagyományos bombákkal végezték, azaz mindenkit lebombáztak, aki éppen ott tartózkodott. Ez a lap szerint olykor több családot is jelentett, és azt írták, olyan is előfordult, amikor úgy mértek csapást egy épületre, hogy a valódi célpont ott sem volt, mert a Where’s Daddy? nem mindig értesítette azonnal az erről döntő tiszteket. Egy, az AP-nek nyilatkozó tiszt ugyanakkor ragaszkodott ahhoz, hogy az AI-t mindig csak többkörös emberi felülvizsgálattal alkalmazták, sosem áldozták fel a pontosságot a hatékonyság oltárán, és szerinte gyakran pont emiatt sikerült megakadályozniuk, hogy civilek haljanak meg.

Azt természetesen lehetetlen megmondani, hogy az AI pontosan hány esetben vezethetett hibákhoz. Többek közt azért is, mert abban minden forrás egyetértett, hogy a hírszerzésben használt AI mellett számtalan egyéb módszert is használtak, így nem lehet szétszálazni őket. Az viszont biztos, hogy az AI más módszerekkel, például emberi felülvizsgálattal együtt is tud hibázni a harctéren is. Az AP a cikkében egy konkrét esetről is beszámolt, amikor több bennfentes és egy hivatalos forrás szerint is tévedésből mértek csapást egy autóra, amiben egy palesztin férfi utazott a három lányával és az anyjával – a találatot csak a férfi élte túl.

Hogy működtek ebben közre a nagy techcégek?

Először is érdemes megnézni, hogy melyik nagy techcégekkel turbózta fel az izraeli hadsereg az AI-használatát, mert ezekből elég sok van. A két legfontosabb közülük a Microsoft és a vele szoros partnerségben működő OpenAI, az ő AI-megoldásaik használatát szédületes tempóban pörgették fel a Hamász 2023. október 7-i támadása után. A Google és az Amazon a 2021 óta létező Nimbus projekt keretében nyújt főleg felhőalapú szolgáltatásokat Izraelnek, de ebbe is beletartoznak bizonyos AI-szolgáltatások. Emellett az ország szoros kapcsolatban van

  • a Palantirral (AI-eszközök);
  • a Ciscóval és a Dell-lel (szerverek és adatközpontok); valamit
  • az IBM függetlenül működő leányvállalatával, a Red Hattel is (felhőalapú megoldások).

A Microsoft évtizedek óta jó kapcsolatot ápol Izraellel, kutatás-fejlesztési központjuk és campusuk is van az ott, és rögtön a konfliktus kitörése után látszott is, hogy ez mennyire fontos volt az országnak. A háború miatt Izraelnek hatalmas szüksége volt minden külső szerverkapacitásra, amire csak rá tudta tenni a kezét, a Microsoft pedig kiszivárgott dokumentumok alapján nemcsak papíron tartotta kiemelt ügyfélnek az izraeli hadsereget, hanem a gyakorlatban is. Két héttel az október 7-i támadás után például egy olyan kérés érkezett be a céghez a 8200-as egységtől, hogy az év végéig ne hajtsák végre a tervezett, leállással járó karbantartásokat az Azure-ben, mert egy minimális leállás is közvetlen hatással lehet az „életmentő szolgáltatásokra”.

Az Azure ügyfelekkel foglalkozó munkatársai a háború első tíz hónapjában további 130 hasonló, közvetlen kérésre reagáltak az izraeli hadseregtől, és a tanácsadóik is szorosan együttműködtek velük. Konkrétan Izraelben pedig egy kilencfős csoport dolgozott együtt a hadsereggel, köztük egy olyan emberrel, aki korábban 14 évet töltött el a 8200-as egységnél, valamint egy olyannal, aki korábban a katonai hírszerzésben volt vezető informatikus. A kiszivárgott dokumentumok alapján a Microsoft az Azure mellett biztosított egy, a palesztinok követését segítő, Rolling Stone nevű rendszert, a kommunikációs platformjaikat pedig a légierő egyik egysége használta a potenciális célpontok adatbázisának kezeléséhez.

Ezek közül az Azure volt a legérdekesebb. Egyrészt mert Izraelben elsősorban ezt használták arra, hogy tárolják és rendszerezzék a palesztinok lehallgatásával és megfigyelésével szerzett adatokat, másrészt pedig mert ezen keresztül úgy is hozzá tudtak férni az OpenAI különféle modelljeihez, hogy a cég korábban nem volt hajlandó közvetlen hozzáférést adni azokhoz – ezért is született meg végül az izraeliek saját LLM-je és csetbotja. Ezeket a modelleket amúgy gyakran használták fordításra is, ami nem mindig működött jól, a kétértelmű szavakkal például gyakran meggyűlt a baja, ami olykor téves azonosításokhoz vezetett, amiket az embereknek kellett azonosítaniuk és javítaniuk.

Arra, hogy az Azure-t lényegében harctéri akciókhoz használják fel, már januárban rámutatott a Guardian, a +972 és a velük szorosan együttműködő Local Call közös nyomozása. A Microsoft el is rendelt egy vizsgálatot emiatt, de májusban végül azt közölték, hogy nem találtak bizonyítékot arra, hogy az Azure-t ártó szándékkal használnák az izraeliek. A három lap viszont augusztusban újabb cikket közölt, melyben arról írtak, hogy az Azure segítségével Izraelben olyan megfigyelőrendszert építettek ki, ami naponta több millió palesztin telefonhívásainak lehallgatását, tárolását és elemzését teszi lehetővé, és

egyes források szerint nyolcezer terabyte-nyi adatot gyűjtöttek össze, amiket egy hollandiai adatközpontban tároltak.

A Microsoft a cikk után újabb vizsgálatot rendelt el, és végül szeptember végén bejelentette, hogy megtiltotta az Azure használatát az izraeli hadseregnek. Brad Smith, a cég alelnöke akkor azt mondta, a Microsoft évtizedek óta kitart amellett, hogy nem biztosít technológiát civilek tömeges megfigyeléséhez, és a Guardian cikke szerint a cég egyik képviselője az izraeli hadseregnek azt mondta, a vizsgálódásuk közben arra jutottak, hogy itt márpedig valóban erről van szó. A döntéssel a Microsoft nem vonult ki az országból, és az IDF-fel sem szakított meg minden kapcsolatot, de így is fontos lépés volt, mert most először tiltotta le egy amerikai techcég az izraeli hadsereget egy technológia használatáról.

Korábban egyébként a Google mellett a Microsoft is rúgott ki alkalmazottakat a palesztinkérdés miatt, ők azért váltak meg két embertől, mert azok előzetes bejelentés nélkül szerveztek palesztinok melletti kiállást a munkahelyükön. A két kirúgott alkalmazott tagja volt a cégen belül létrejött No Azure for Apartheid nevű koalíciónak, ami ellenezte, hogy a cég elérhetővé teszi a szolgáltatást Izraelnek.

Miért fontos ez a háború után is?

Az tehát jól látszik, hogy Izrael a háború miatt nagyon felpörgette az AI-alapú rendszerei fejlesztését, és olyan képességekre tett szert, amikkel lényegében egész Gázát és Ciszjordániát képes volt megfigyelni. Annak ellenére pedig, hogy a hivatalos reakciójuk mindig az volt, hogy ezeket a rendszereket nem önmagukban használták, és nem csak ezek alapján jósolták meg, hogy valaki “terrorista”-e, vagy sem, többször is felmerült aggályként, hogy az eleve nem tökéletes AI még emberi felülvizsgálattal is veszélyes. Egyrészt mert ráerősíthet a meglévő előítéleteikre (hiszen emberek által létrehozott adatokból tanul), másrészt pedig mert bár papíron az IDF sem adott lejjebb a pontosságból, az már például az orvoslásban is kiderült, hogy az AI-használat ronthat az emberek szakmai képességein, egy korábbi, általánosabb kutatás alapján pedig a kritikus gondolkodáson is.

Ez azért fontos, mert ugyanezeket a rendszereket nem csak arra lehet használni, hogy megmondják, ki “terrorista”, vagy mikor kell csapást mérni egy házra, az élet minden területén bevethetők – és több esetben már be is vetették őket.

A Lighthouse Reports például két éve a Wireddel közösen közölt cikksorozatot arról, hogy milyen hatásaik vannak a gépi tanulást használó prediktív algoritmusoknak. Ebből pedig kiderült egyebek mellett az is, hogy Rotterdamban az ilyen megoldás, a szociális juttatásokkal való visszaélés ellen kialakított rengeteg paraméter ellenére, alig teljesített jobban, mint ha véletlenszerűen válogatták volna ki az ezer legkockázatosabb embert.

Az Európai Unióban a mesterséges intelligencia szabályozására létrehozott rendelet, az AI Act értelmében idén február óta tilos valós idejű biometrikus adatgyűjtéshez, prediktív profilozáshoz és érzelemfelismerő rendszerekhez használni az AI-t. Közben viszont például Magyarországon is előfordult azóta, hogy arcfelismerő kamerákat használt a rendőrség egy rendezvényen, konkrétan a júniusi Pride-on. Akkor fel is merült, hogy ez uniós jogot sérthet, de a TASZ jogásza azt mondta, ez attól is függ, hogy utólag elemzik a képeket, vagy valós időben ismeri fel a rendszer az embereket. A valós idejű azonosítás sértené az uniós AI-rendeletet, míg az utólagos arcfelismerés nem, mert a rendelet erre vonatkozó részei még nem léptek hatályba. A Pride-ra kilátogatók ellen végül nem indult eljárás, de a Pride-ot betiltó törvény elméletben továbbra is lehetőséget ad egy ilyen rendszer használatára.

Egyébként nem kizárólag magyar kérdésről van szó: a Statewatch idei jelentése szerint a rendőrségek az AI-t szabályozó uniós rendelet ellenére egész Európában egyre gyakrabban nyúlnak az AI által hajtott profilozáshoz.

Olyan adatbázisok is léteznek, mint amilyet a 8200-as egység használt a palesztinok megfigyelésére. A Guardian nemrég részletesen írt arról, hogy a Palantir hogyan segítette 2014 és 2022 között egy gigantikus, kereshető szuperadatbázissal az amerikai belbiztonsági minisztérium nyomozóinak munkáját. Ez önmagában is érdekes, de miután kitömték az amerikai idegenrendészetet (ICE), ami az utóbbi hónapokban így fel is pörgette a tevékenységét, beleértve ebbe a deportálásokat is, különösen fontos lehet ez az együttműködés, hiszen mindezt kihasználva a szervezet még az eddiginél is magasabb fokozatra kapcsolhatna.

Ez azért is tűnik reális veszélynek, mert a 404 Media nemrég az általa megszerzett dokumentumok alapján azt írta, az ICE olyan eszközöket vásárolt, amikkel több százmillió mobiltelefon helyadataihoz férhetnek hozzá. A beszállító a Penlink nevű cég, a két említett eszköz pedig a Tangles és a Webloc. A Forbes korábban arról írt, hogy az ICE az elmúlt négy évben több mint ötmillió dollárt költött a volt izraeli hírszerzők által alapított Cobwebs eszközeire, amiket 2021-ben amúgy a Meta letiltott a saját platformjairól. Ez úgy kapcsolódik ide, hogy a Tangles és a Webloc is az ő termékük, a cég 2023-ban olvadt be a Penlinkbe.

Az, hogy telefonokból kinyert helyadatokkal figyeljenek meg embereket, az amerikai hírszerzésnek sem idegen, sőt igazából bárki meg tudja tenni ezt, ha nagyon akarja, mert számos alkalmazást fejlesztettek már erre.

Így alapvetően az sem meglepő, hogy az ICE ilyen alkalmazásokat vesz, hiszen ahogy azt a szervezet szóvivője a Forbesnak mondta, mindenki ezt csinálja, és amúgy tiszteletben tartottak minden előírást.

Mindebből jól látható, hogy, bár úgy néz ki, a gázai háborúnak lassan vége, az ott tökéletesített és csúcsra járatott technológiák lassan máshol is a mindennapok részévé válnak, a gázaihoz hasonló etikai és jogi kérdéseket vonva maguk után. Hiába használják az elején látszólag jó célokra a megfigyelést, onnan már csak néhány kattintás az, hogy ennek a segítségével tartóztassanak le embereket politikai okokból, mint Kínában, vagy likvidáljanak, mint Izraelben.

A két sátáni összefog: Népirtás Gázában – 100 civil is lehetett járulékos veszteség (IV. rész)

Saját mesterséges intelligencia alapú megfigyelési rendszerrel mészárolná tovább a palesztinokat Izrael

(Telex nyomán Szent Korona Rádió)

Legfrissebb

Kína egy gombnyomással megbéníthatná Európa egyes országainak tömegközlekedését?

Milyen meglepő: Kína távolról hozzáfér az általuk gyártott elektromos...

Bement a templomba, ellopta a keresztet Budapesten

Megint egy drogos, akinek jó ötletnek tűnt betörni egy...

Közszolgálati TV-ben közvetítették az LMBTQP “misét” Németországban

Miközben a Vatikán nem tesz túl erőteljes lépéseket a...

Kommunista vamzerek miatt tiltották a HVIM Facebook-oldalát

Mivel a hazai szélsőbaloldal harmatgyenge, ezért az antifasiszta ellenállás...

Kihallgatták a betiltott pécsi homoszexuális vonaglás főszervezőjét

Kihallgatta a rendőrség a mai napon a betiltott, illegális...

Kategóriák

Kína egy gombnyomással megbéníthatná Európa egyes országainak tömegközlekedését?

Milyen meglepő: Kína távolról hozzáfér az általuk gyártott elektromos...

Bement a templomba, ellopta a keresztet Budapesten

Megint egy drogos, akinek jó ötletnek tűnt betörni egy...

Közszolgálati TV-ben közvetítették az LMBTQP “misét” Németországban

Miközben a Vatikán nem tesz túl erőteljes lépéseket a...

Kommunista vamzerek miatt tiltották a HVIM Facebook-oldalát

Mivel a hazai szélsőbaloldal harmatgyenge, ezért az antifasiszta ellenállás...

Kihallgatták a betiltott pécsi homoszexuális vonaglás főszervezőjét

Kihallgatta a rendőrség a mai napon a betiltott, illegális...

A HVIM ellentüntetőit bírságolták meg a Pécs Pride kapcsán

Miközben a Pécs Pride főszervezőjét a Pécsi Rendőrkapitányságon gyanúsítottként...

Kapcsolódó cikkek

Rock
Kalapács és az Akusztika - Fagyott világ
Klasszikus
Marin Marais - Marche Tartare, IV.55