In un recente rapporto congiunto, +972 Magazine e Local Call hanno rivelato che l’esercito israeliano sta utilizzando un sistema di intelligenza artificiale denominato “Habsora” per selezionare deliberatamente ed in modo automatizzato obiettivi civili e massimizzare le morti palestinesi nella sua campagna militare nella Striscia di Gaza. L’indagine rivela che l’impiego massiccio di questa tecnologia è risultato nell’aumento significativo dei danni a infrastrutture civili e delle morti civili sollevando ulteriori gravi preoccupazioni riguardo al genocidio in atto a Gaza. L’utilizzo di questa IA è accompagnato da politiche di ingaggio estremamente rilassate, come dettaglia l’indagine, con ufficiali israeliani che hanno ammesso che non è raro bombardare un’area ampia basandosi su una localizzazione cellulare generale dell’obiettivo, con un conseguente alto numero di vittime civili. Questa pratica è adottata per risparmiare tempo, evitando di conseguenza un lavoro più dettagliato ai fini di una localizzazione più precisa e confermando dunque ulteriormente l’accusa di bombardamenti indiscriminati avanzata da analisti dall’inizio del conflitto.
L’indagine ha rivelato che il sistema Habsora è stato istituito nel 2019 come parte di un’unità militare israeliana dedicata a accelerare la generazione di obiettivi mediante l’utilizzo dell’intelligenza artificiale. Secondo fonti dell’intelligence citate nel rapporto, Habsora agisce come una “fabbrica di killeraggi di massa”, generando automaticamente obiettivi a un ritmo senza precedenti.
Il sistema, come descritto dall’ex capo dell’esercito israeliano Aviv Kochavi, è in grado di processare enormi quantità di dati in modo più veloce ed efficiente di qualsiasi essere umano, trasformandoli in obiettivi di attacco. Da quando è stato impiegato nell’Operazione Guardians of the Walls nel 2021, Habsora avrebbe generato 100 nuovi obiettivi ogni giorno, superando di gran lunga il record precedente di 50 obiettivi all’anno nella Striscia di Gaza.
Secondo l’indagine, un altro motivo del gran numero di obiettivi e dei danni estesi alla vita civile a Gaza è l’uso diffuso di un sistema chiamato “Habsora” (“Il Vangelo”), che si basa in gran parte sull’intelligenza artificiale e possono “generare” obiettivi quasi automaticamente a una velocità che supera di gran lunga quanto era possibile in precedenza. Questo sistema di intelligenza artificiale, come descritto da un ex ufficiale dell’intelligence, facilita essenzialmente una “fabbrica di omicidi di massa”. (+972 mag)
Uno degli aspetti più allarmanti del sistema è la sua capacità di fornire suggerimenti automatici per attaccare residenze private in cui si sospetta che vivano individui legati a Hamas o alla Jihad islamica. Ciò ha portato a operazioni di assassinio massiccio con pesanti bombardamenti su queste abitazioni, causando un elevato numero di vittime civili.
Secondo fonti dell’intelligence, Habsora è in grado di elaborare “vaste quantità di dati che decine di migliaia di ufficiali dell’intelligence non potrebbero gestire” e suggerisce obiettivi di attacco in tempo reale. Questa capacità, combinata con la velocità dell’operazione, è stata paragonata a una “fabbrica” in cui l’efficacia è valutata in base al numero di obiettivi prodotti.
Un’altra fonte ha affermato che un alto funzionario dell’intelligence ha detto ai suoi ufficiali dopo il 7 ottobre che l’obiettivo era “uccidere quanti più agenti di Hamas possibile”, per cui i criteri relativi al danno ai civili palestinesi erano significativamente allentati. Pertanto, ci sono “casi in cui bombardiamo sulla base di un’ampia localizzazione cellulare di dove si trova l’obiettivo, uccidendo civili. Questo viene spesso fatto per risparmiare tempo, invece di fare un po’ più di lavoro per ottenere una localizzazione più accurata”, ha detto la fonte. (+972 mag)
Il rapporto afferma che la tecnologia viene utilizzata per localizzare e attaccare le case di membri di Hamas, anche quando alti funzionari si rifugiano in tunnel sotterranei. Questo approccio ha contribuito in modo significativo al crescente numero di vittime civili durante l’attuale conflitto.
L’uso diffuso di Habsora solleva gravi preoccupazioni sulle violazioni dei diritti umani e sulla sproporzionalità dell’azione militare israeliana nella Striscia di Gaza che è risultata in un genocidio che ad oggi conta 20.000 morti, di cui un terzo bambini. L’impiego dell’intelligenza artificiale per selezionare obiettivi civili sta aumentando il rischio di gravi danni collaterali e solleva interrogativi etici sull’uso di questa tecnologia in situazioni di conflitto.