Le nuove frontiere dell’intelligenza artificiale applicate per scopi bellici: Gaza diventa terreno di prova per le nuove tecnologie militari 

L’esercito israeliano utilizza i sistemi AI avanzati per l’individuazione di target militari, tra cui il sistema “Lavender” e “Where’s Daddy?”, e firma accordi con Google e Amazon per portare avanti il genocidio del popolo palestinese.

Da quando ha lanciato la sua offensiva militare lo scorso ottobre, Israele ha ucciso più di 37.000 palestinesi, principalmente donne e bambini, e distrutto vaste aree dell’enclave palestinese. Il Paese ha giustificato i bombardamenti affermando di voler colpire i combattenti di Hamas che hanno compiuto l’attacco del 7 ottobre.  Una nuova inchiesta di +972 Magazine e Local Call rivela che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come “Lavender”. Secondo sei ufficiali dell’intelligence israeliana, che hanno prestato servizio nell’esercito durante l’attuale guerra contro la Striscia di Gaza e sono stati coinvolti in prima persona nell’uso dell’AI per individuare obiettivi strategici, Lavender ha svolto un ruolo centrale nei bombardamenti contro i palestinesi, soprattutto durante le prime fasi della guerra. Infatti, secondo le fonti, la sua influenza sulle operazioni militari è stata tale da indurre i militari a trattare i risultati dell’AI “come se si trattasse di una decisione umana”. 

Formalmente, il sistema Lavender è progettato per contrassegnare tutti i sospetti membri di Hamas e della Jihad islamica palestinese (PIJ) come potenziali obiettivi di bombardamento, anche quelli di basso rango. Le fonti hanno riferito a +972 e Local Call che, durante le prime settimane di guerra, l’esercito si è affidato quasi completamente a Lavender, che ha registrato ben 37.000 palestinesi come sospetti soldati di Hamas – e le loro case – per possibili attacchi aerei. Purtroppo, le applicazioni dell’AI per l’individuazione di target militari hanno quindi avuto delle conseguenze disastrose per il popolo palestinese. Il margine di errore dell’algoritmo è altissimo, e la popolazione di Gaza ne è stata succube per gli ultimi otto mesi. 

Durante le prime fasi della guerra, l’IDF ha dato ampia approvazione agli ufficiali per l’adozione delle liste di target di Lavender, senza alcun obbligo di esaminare i dati di intelligence grezzi su cui si basavano. Una fonte ha dichiarato che il personale umano veniva spesso assunto per approvare alla cieca le decisioni della macchina, aggiungendo che, di solito, dedicava personalmente solo “20 secondi” a ciascun obiettivo prima di autorizzare un bombardamento – solo per assicurarsi che l’obiettivo contrassegnato da Lavender fosse di sesso maschile. Questo nonostante si sappia che il sistema commette quelli che vengono “errori” in circa il 10% dei casi, e che è noto per contrassegnare occasionalmente individui che hanno solo un legame debole con i gruppi militanti, o nessun legame. 

Inoltre, l’esercito israeliano ha sistematicamente attaccato le persone individuate dal sistema AI mentre si trovavano nelle loro case – di solito di notte, davanti alla loro famiglia – piuttosto che durante le attività militari. Secondo le fonti, questo avveniva perché, da quello che consideravano un punto di vista di intelligence, era più facile localizzare gli individui nelle loro dimore. Altri sistemi automatizzati, tra cui uno chiamato “Where’s daddy?” (Dov’è papà?) sono stati utilizzati specificamente per rintracciare i target ed attaccare quando erano entrati nelle loro residenze familiari. Il risultato, come testimoniato dalle fonti, è che migliaia di palestinesi – la maggior parte dei quali donne e bambini o persone non coinvolte nei combattimenti – sono stati spazzati via dagli attacchi aerei israeliani, soprattutto nelle prime settimane di guerra, a causa delle decisioni del programma AI. A Lavender si aggiunge a un altro sistema di intelligenza artificial, “The Gospel“, che contrassegna gli edifici e le strutture da cui, secondo l’esercito, opera Hamas.

Inoltre, il governo israeliano avrebbe stipulato degli accordi con Google e Amazon per lo sviluppo di software per l’intelligenza artificiale da impiegare nella collezione di dati dei cittadini palestinesi. Denominato Project Nimbus, il contratto congiunto tra Google e Amazon e Stato di Israele, firmato nel 2021, mira a fornire infrastrutture di cloud computing, intelligenza artificiale (AI) e altri servizi tecnologici al governo israeliano e alle sue forze armate.  In poche parole, questo significa che a Gaza un drone pilotato da un’intelligenza artificiale può decidere autonomamente se ucciderti o meno anche in base ai contenuti del tuo cellulare. La scoperta è stata scioccante per i programmatori dei colossi delle piattaforme, che hanno organizzato negli scorsi mesi una serie di scioperi e manifestazioni contro il Project Nimbus, guidati dall’organizzazione sindacale No Tech For Apartheid, che dal 2021 organizza i dipendenti di Google contro il progetto. I dipendenti si oppongono ai legami del loro datore di lavoro con Israele, che sta tutt’ora affrontando un’accusa di genocidio per la sua guerra a Gaza presso la Corte internazionale di giustizia.

I lavoratori del settore tecnologico chiedono di avere il diritto di sapere come verrà utilizzato il loro lavoro. Con poca chiarezza sul progetto, temono che la tecnologia possa essere usata per il genocidio in corso. Attivisti e accademici sono stati allarmati dall’uso dell’intelligenza artificiale da parte di Israele per colpire i palestinesi, mentre gli studiosi di diritto affermano che l’uso dell’intelligenza artificiale in guerra viola le leggi internazionali. I sistemi IA, uno dei punti chiave all’ordine del giorno dell’ultimo G7, sono il futuro del mondo della tecnologia, ma se non vengono regolamentati, in particolar modo nell’ambito del diritto internazionale per quanto concerne le loro applicazioni nell’industria bellica, le conseguenze rischiano di essere disastrose. 

Chiara Caria

Chiara Caria è una laureanda in Global Cultures (laurea magistrale, Università di Bologna) e Comunicazione Giornalistica, Pubblica e D’Impresa (laurea magistrale, Università di Bologna), laureata in Mediazione Linguistica Interculturale per Interpreti e Traduttori (laurea triennale, Università di Bologna). Interessata a questioni di geopolitica, conflitti globali e diritti umani, collabora con Social News e altre riviste. 

Rispondi