International
Israelul s-a folosit de instrumente de Inteligență Artificială, pentru a ataca 37.000 de ținte Hamas, inclusiv civili!
autor
Armata israeliană s-ar fi folosit pentru campania de bombardamente din Fâșia Gaza pe un sistem cu Inteligenţă Artificială, denumit „Lavender” (Lavanda), o bază de date dezvăluită în premieră, care la un moment identificase 37.000 de potenţiale ţinte pe baza legăturilor lor aparente cu organizația islamistă Hamas, potrivit unor surse din cadrul serviciilor secrete, implicate în război. Dezvăluirea a fost făcută miercuri, 3 aprilie, în The Guardian.
În plus față de discuția privind implementarea sistemului de Inteligență Artificială Lavender, sursele au indicat că oficialii militari israelieni au permis uciderea unui număr mare de civili palestinieni, în special în primele săptămâni şi luni de la începerea conflictului.
Mărturiile lor neobișnuit de sincere oferă o perspectivă rară asupra experienței directe a oficialilor israelieni din cadrul serviciilor de informații, care au beneficiat de sisteme de învățare automată pentru a contribui la identificarea țintelor pe parcursul celor șase luni de conflict, precizează sursa britanică.
Folosirea de către Israel a unor sisteme puternice de Inteligenţă Artificială în războiul împotriva Hamas reprezintă un teritoriu încă neexplorat al războiului avansat, care ridică o serie de întrebări juridice şi morale şi transformând relaţia dintre personalul militar şi maşini, mai scrie The Guardian.
„Acest lucru este fără precedent, din câte îmi amintesc”, a declarat un ofiţer de informaţii care a folosit Lavender, mărturisind că au avut mai multă încredere într-un „mecanism statistic” decât într-un soldat îndurerat.
„Toţi cei de acolo, inclusiv eu, au pierdut oameni pe 7 octombrie. Maşina a făcut (selecţia, n.r.) fără sentimente. Şi asta a făcut să fie mai uşor”, a explicat ofiţerul de informaţii.
Un alt utilizator al sistemului Lavender a confirmat că rolul oamenilor în procesul de selecţie este nesemnificativ.
„Investesc 20 de secunde pentru fiecare ţintă în acest stadiu şi fac zeci de astfel de selecţii în fiecare zi. Am zero valoare adăugată ca om, în afară de a fi o ştampilă de aprobare. Economiseşte foarte mult timp”, a mărturisit el.
Civili uciși pe baza „cotelor”: „Țintele nu se termină niciodată”
Șase ofiţeri de informaţii, toţi implicaţi în utilizarea sistemelor de Inteligenţă Artificială pentru a identifica ţinte Hamas şi din Jihadul Islamic Palestinian (PIJ) în timpul războiului, i-au mărturisit aceste lucruri jurnalistului Yuval Abraham pentru publicaţia israeliano-palestiniană +972 Magazine şi publicaţia de limbă ebraică Local Call. Mărturisirile lor au fost împărtăşite The Guardian înainte de publicare.
Toţi cei şase au declarat că Lavender a jucat un rol central în război, procesând volume mari de date pentru a identifica rapid potenţiali agenţi „juniori” pe care să-i vizeze. Patru dintre surse au declarat că, la un moment dat, la începutul războiului, Lavender a listat până la 37.000 de bărbaţi palestinieni pe care sistemul AI i-a legat de Hamas sau PIJ.
Lavender a fost dezvoltat de divizia de elită a serviciilor de informaţii a Forţelor de Apărare israeliene, Unitatea 8200, comparabilă cu Agenţia Naţională de Securitate a SUA sau cu GCHQ din Marea Britanie.
Mai multe surse au descris modul în care, pentru anumite categorii de ţinte, armata israeliană a aplicat cote preautorizate pentru numărul estimat de civili care ar putea fi ucişi înainte de a fi autorizată o lovitură. Două surse au declarat că, în primele săptămâni de război, li s-a permis să ucidă 15 sau 20 de civili în atacurile aeriene asupra militanţilor de rang inferior. Atacurile asupra unor astfel de ţinte au fost efectuate de obicei cu ajutorul unor muniţii neghidate, cunoscute sub numele de „bombe stupide”, care au permis să fie distruse case întregi şi să-i ucidă pe toţi ocupanţii acestora, au declarat sursele.
„Nu vrei să iroseşti bombe scumpe pe oameni neimportanţi – este foarte costisitor pentru ţară şi există o lipsă (de astfel de bombe)”, a declarat un ofiţer de informaţii. Un alt ofiţer a spus că principala întrebare cu care s-au confruntat a fost dacă „daunele colaterale” asupra civililor permiteau un atac. „Chiar dacă un atac este evitat, nu-ţi pasă – treci imediat la următoarea ţintă. Din cauza sistemului, ţintele nu se termină niciodată. Mai ai încă 36.000 care te aşteaptă”, a declarat un ofiţer.
Potrivit experţilor în conflicte, dacă Israelul a folosit bombe stupide pentru a arunca în aer casele a mii de palestinieni care erau legaţi, cu ajutorul IA, de grupările militante din Gaza, acest lucru ar putea ajuta la explicarea numărului şocant de mare de morţi în război. Ministerul Sănătăţii din teritoriul condus de Hamas afirmă că 32.000 de palestinieni au fost ucişi în conflict în ultimele şase luni. Datele ONU arată că, numai în prima lună de război, 1.340 de familii au suferit pierderi multiple, 312 familii pierzând mai mult de 10 membri.
Armata israeliană susține că respectă dreptul internațional Răspunzând la publicarea mărturiilor în +972 şi Local Call, armata israeliană (IDF) a transmis, într-un comunicat, că operaţiunile sale au fost efectuate în conformitate cu normele de proporţionalitate prevăzute de dreptul internaţional. Acesta a precizat că bombele stupide sunt un „armament standard” care sunt folosite de piloţii săi într-o manieră ce asigură „un nivel ridicat de precizie”. Comunicatul armatei a descris Lavender ca fiind o bază de date utilizată „pentru a încrucişa sursele de informaţii, în scopul de a produce straturi actualizate de informaţii despre agenţii militari ai organizaţiilor teroriste”.
„IDF nu utilizează un sistem de inteligenţă artificială care identifică agenţi terorişti sau încearcă să prezică dacă o persoană este terorist”, susţine armata israeliană. „Sistemele informatice sunt doar instrumente pentru analişti în procesul de identificare a ţintelor”, a adăugat IDF.
„Ni s-a spus: «Bombardați orice puteți»”
În operaţiunile militare anterioare desfăşurate de IDF, identificarea ţintelor umane era adesea un proces care necesita mai multă muncă. Decizia de a „incrimina” o persoană sau de a o identifica drept ţintă legitimă era discutată şi apoi semnată de un consilier juridic.
În săptămânile şi lunile de după 7 octombrie 2023, acest model de aprobare a loviturilor asupra ţintelor umane a fost accelerat în mod dramatic, potrivit surselor. Pe măsură ce bombardamentele IDF asupra Gaza se intensificau, au spus acestea, comandanţii au cerut un flux continuu de ţinte. „Am fost presaţi în mod constant: Aduceţi-ne mai multe ţinte. Chiar ţipau la noi”, a declarat un ofiţer de informaţii. „Ni s-a spus: «Acum trebuie să dăm în cap Hamas, indiferent de costuri. Bombardaţi orice puteți»”, a mai declarat sursa.
Pentru a satisface această cerere, IDF a ajuns să se bazeze foarte mult pe sistemul Lavender pentru a genera o bază de date cu persoanele considerate a avea caracteristicile unui militant PIJ sau Hamas.
Detaliile privind tipurile specifice de date utilizate pentru a antrena algoritmul lui Lavender sau modul în care programul a ajuns la concluziile sale nu sunt incluse în relatările publicate de +972 sau Local Call. Cu toate acestea, sursele au declarat că, în timpul primelor săptămâni de război, Unitatea 8200 a perfecţionat algoritmul Lavender şi a ajustat parametrii de căutare.
După eşantionarea aleatorie şi verificarea încrucişată a predicţiilor sale, unitatea a concluzionat că Lavender a atins o rată de acurateţe de 90%, au declarat sursele, ceea ce a determinat IDF să aprobe utilizarea sa generalizată ca instrument de recomandare a ţintelor.
Câți oameni sunt în sistemul Lavander
Lavender a creat o bază de date cu zeci de mii de persoane care au fost marcate ca fiind predominant membri de rang inferior ai aripii militare a Hamas. Aceasta a fost utilizată alături de un alt sistem de sprijin decizional bazat pe inteligenţă artificială, numit Gospel, care recomanda clădiri şi structuri ca ţinte, mai degrabă decât persoane.
Relatările includ mărturii credibile despre modul în care ofiţerii de informaţii lucrau cu Lavender şi despre cum putea fi ajustată raza de acţiune a reţelei sale.
„La apogeu, sistemul a reuşit să genereze 37.000 de persoane ca potenţiale ţinte umane”, a declarat una dintre surse. „Dar cifrele se schimbau tot timpul, pentru că depinde unde stabileşti ştacheta a ceea ce înseamnă un agent Hamas”, a explicat sursa.
„Au fost momente în care un agent Hamas era definit mai larg, iar apoi maşinăria a început să ne aducă tot felul de membri ai apărării civile, ofiţeri de poliţie, asupra cărora ar fi păcat să irosim bombe. Aceştia ajută guvernul Hamas, dar nu pun cu adevărat în pericol soldaţii”, a relatat sursa.
Înainte de război, SUA şi Israelul estimau numărul membrilor aripii militare a Hamas la aproximativ 25.000-30.000 de persoane.
Una din surse a povestit că, după atacurile din 7 octombrie ale Hamas, atmosfera în IDF era „dureroasă şi răzbunătoare”. „A existat o disonanţă: pe de o parte, oamenii de aici erau frustraţi că nu atacăm suficient. Pe de altă parte, vedeţi la sfârşitul zilei că încă o mie de locuitori din Gaza au murit, majoritatea civili”, a spus sursa.
Indiferent de justificarea legală sau morală a strategiei de bombardament a Israelului, unii dintre ofiţerii săi de informaţii par să pună acum la îndoială abordarea stabilită de comandanţii lor, notează The Guardian.