Quale ruolo per i sistemi di AI nella guerra a Gaza?

 

da Guerre di Rete – newsletter di notizie cyber a cura di Carola Frediani

Dopo l’attacco di Hamas del 7 ottobre e l’inizio della guerra a Gaza, l’individuazione di obiettivi da colpire da parte dall’esercito israeliano (IDF) ha subito una forte accelerazione. Per soddisfare la richiesta di nuovi target da colpire – sostiene un lungo reportage del Guardian, basato in larga parte su un’inchiesta pubblicata su due media israeliani critici del loro attuale governo, Local Call e +972 Magazine – l’IDF avrebbe fatto affidamento su Lavender, un sistema che genera un database di individui che avrebbero le caratteristiche di un militante di Hamas o della PIJ (Palestinian Islamic Jihad).

Lavender avrebbe svolto un ruolo centrale nei bombardamenti sui palestinesi, soprattutto durante le prime fasi della guerra, afferma l’inchiesta. E la sua influenza sulle operazioni militari sarebbe stata tale da indurre i militari a trattare i risultati del sistema di AI “come se si trattasse di una decisione umana”, sostiene +972 Magazine. Autore dell’inchiesta è Yuval Abraham, già coautore del documentario No Other Land (premiato al Festival del cinema di Berlino, qui un pezzo di Valigia Blu che lo racconta).

“Nelle prime settimane di guerra, l’esercito si è affidato quasi completamente a Lavender, che ha individuato ben 37.000 palestinesi come sospetti militanti – e le loro case – per possibili attacchi aerei”, scrive ancora +972 Magazine, aggiungendo che l’esercito avrebbe autorizzato gli ufficiali ad adottare le liste di target identificate da Lavender, senza alcun obbligo di verificare a fondo il motivo per cui il sistema aveva fatto quelle scelte o di esaminare i dati di intelligence grezzi su cui si basavano.

Il sistema Lavender si aggiunge a un altro sistema di intelligenza artificiale, noto sui media come “Habsora/Gospel”, di cui si era già parlato in passato. Ma una differenza fondamentale tra i due sistemi è nella definizione del bersaglio: mentre Gospel contrassegna gli edifici e le strutture da cui opererebbero i militanti, Lavender individua persone – e le inserisce in una kill list, una lista di persone da uccidere. L’inchiesta sostiene anche che ci sia un ulteriore sistema per individuare e colpire il target quando sta rientrando a casa.

In risposta a questa inchiesta, riporta ancora il Guardian, l’IDF ha dichiarato in un comunicato che le sue operazioni sono state condotte in conformità alle regole di proporzionalità del diritto internazionale. Che Lavender sarebbe solo un database utilizzato “per incrociare le fonti di intelligence” e non sarebbe “un elenco di operativi militari confermati”. E ha affermato di non utilizzare un “sistema di intelligenza artificiale che identifica gli operativi terroristici o cerca di prevedere se una persona è un terrorista”.
Inoltre l’IDF respinge categoricamente l’affermazione dell’esistenza di qualsiasi policy di uccisione di decine di migliaia di persone nelle loro case.

Ma questa inchiesta, se confermata nei dettagli, apre interrogativi enormi e inquietanti sul ruolo che i sistemi di AI stanno assumendo o potranno assumere in guerra, sistemi che tendono già a essere delle scatole nere per come sono progettati e funzionano, e che specie in scenari di conflitto diventano ancora più opachi, privi di controlli o audit esterni. Sappiamo che storicamente le affermazioni sull’accuratezza di questi sistemi sono state smentite più e più volte non appena qualcuno ha potuto verificarli. Senza contare che la loro accuratezza, in molti casi, semplicemente si rivela per quello che è col loro utilizzo, e resta sotto gli occhi di chiunque voglia davvero guardare.

Tutto questo ha colpito e smosso una parte della comunità tech presente online. Tra chi fa un appello a concentrarci subito sull’uso dell’AI in ambito militare. Chi vuole sapere quali processi di revisione siano adottati da IDF in questi sistemi. Chi, come Brian Merchant, commenta che “l’AI è terrificante non perché è troppo potente, ma perché permette agli operatori di scaricare le responsabilità sul sistema e ai leader di usarla per giustificare quasi tutti i livelli di violenza”.

“L’AI come pretesto per una violenza mortale”, ha commentato pure la linguista e critica dell’hype sull’intelligenza artificiale Emily Bender. Anche Claudio Agosti, della no profit AI Forensics, mette in guardia dal rischio di cadere nella narrazione che è “la tecnologia che sta facendo il lavoro, non è colpa tua”. Anche per Meredith Whittaker (Signal), “​​dobbiamo assicurarci che l’AI non sia usata per facilitare la fuga computazionale dalle colpe”.

“L’uso della tecnologia AI  – commenta un’analisi del WashPost al riguardo – è ancora solo una piccola parte di ciò che angoscia gli attivisti per i diritti umani riguardo alla condotta di Israele a Gaza. Ma indica un futuro più oscuro”.

Mona Shtaya, una non resident fellow al Tahrir Institute for Middle East Policy, ha dichiarato a The Verge che “il sistema Lavender è un’estensione dell’uso di tecnologie di sorveglianza da parte di Israele sui palestinesi sia nella Striscia di Gaza che in Cisgiordania. Shtaya, che risiede in Cisgiordania, ha dichiarato a The Verge che questi strumenti sono particolarmente preoccupanti alla luce delle notizie secondo le quali le startup israeliane della difesa sperano di esportare all’estero la loro tecnologia testata in battaglia”.

La coalizione Stop Killer Robots (che chiede una legge internazionale sui sistemi d’arma autonomi e che vuole far mantenere il controllo umano sull’uso della forza) ha pubblicato un commento in cui dice di “trovare profondamente preoccupanti, da un punto di vista legale, morale e umanitario, le notizie sull’uso da parte di Israele di sistemi di raccomandazione dei bersagli nella Striscia di Gaza. Sebbene il sistema Lavender, come il sistema Habsora/Gospel, non sia un’arma autonoma, entrambi sollevano serie preoccupazioni sull’uso crescente dell’intelligenza artificiale nei conflitti, sui pregiudizi dell’automazione (automation bias), sulla disumanizzazione digitale e sulla perdita del controllo umano nell’uso della forza”.

 

Login

Benvenuto! Accedi al tuo account

Ricordami Hai perso la password?

Lost Password

My Agile Privacy
Questo sito utilizza cookie tecnici e di profilazione. Cliccando su accetta si autorizzano tutti i cookie di profilazione. Cliccando su rifiuta o la X si rifiutano tutti i cookie di profilazione. Cliccando su personalizza è possibile selezionare quali cookie di profilazione attivare. Inoltre, questo sito installa Google Analytics nella versione 4 (GA4) con trasmissione di dati anonimi tramite proxy. Prestando il consenso, l'invio dei dati sarà effettuato in maniera anonima, tutelando così la tua privacy.
Attenzione: alcune funzionalità di questa pagina potrebbero essere bloccate a seguito delle tue scelte privacy: