La guerra del futuro

La guerra degli algoritmi, o di come l’intelligenza artificiale sta scalando le gerarchie militari

Non solo armi autonome: da Israele alla Cina, passando per l’Ucraina, i sistemi automatici stanno conquistando un ruolo sempre più strategico. E inquietante
Illustrazione di un soldato con armamenti tecnologicamente avanzati
Illustrazione di un soldato con armamenti tecnologicamente avanzati.shock/Getty Images

Per lungo tempo abbiamo immaginato il futuro tecnologico della guerra come una sorta di scenario alla Terminator: dominato da intelligenze artificiali, soldati robot, droni volanti armati di tutto punto e da carri armati corazzati che si spostano autonomamente nel campo di battaglia.

Per certi versi, le cose stanno andando proprio in questa direzione: le armi autonome (in grado quindi di muoversi da sole, individuare il bersaglio e potenzialmente anche fare fuoco senza bisogno dell’intervento umano) sono diventate realtà, sotto forma principalmente di droni, ma anche di torrette da pattugliamento dotate di mitragliatrice o di veicoli autonomi e armati (come il Rex MK II impiegato dall’esercito israeliano).

Abbiamo insomma sempre pensato che i “robot killer” rappresentassero la nuova fanteria. Che l’intelligenza artificiale sarebbe stata principalmente impiegata per sostituire – o più probabilmente affiancare – i soldati sul terreno. E invece la situazione si sta sviluppando in una direzione molto differente e, se possibile, ancora più inquietante.

Gli algoritmi di deep learning – i sistemi ormai sinonimo di intelligenza artificiale – stanno infatti diventando sempre più simili a ufficiali in grado di prendere decisioni strategiche, scegliere quali (e quanti) obiettivi colpire e addirittura di individuare i punti deboli dell’esercito nemico. In poche parole, l’intelligenza artificiale sta scalando le gerarchie militari.

Il caso di Israele

L’esempio più noto è quello soprannominato Progetto Lavender e impiegato dall’esercito israeliano (Israeli Defence Force, Idf) per individuare e colpire il maggior numero possibile di bersagli nel corso del conflitto a Gaza. Un sistema che la testata israeliana +972 – che ne ha rivelato l’esistenza lo scorso aprile – ha definito “una fabbrica di omicidi di massa”.

Lavender non è un’arma. È semmai più simile a un software gestionale basato su intelligenza artificiale, che analizza l’enorme mole di dati che gli viene fornita dall’esercito: i nomi e le caratteristiche di ogni persona che vive a Gaza (ottenuti tramite una sorveglianza di massa operata sulla popolazione), filmati ricevuti dai droni, intercettazioni di messaggi, analisi dei social media e altro ancora. Incrociando tutte queste informazioni, Lavender valuta la possibilità che un individuo faccia o meno parte di Hamas o di altri gruppi armati palestinesi, determina in quale luogo e in quale momento c’è la maggiore probabilità di colpirlo e passa tutte queste informazioni all’esercito, che nella maggior parte dei casi ordina un attacco aereo per uccidere il bersaglio.

Secondo l’ex capo dell’Idf Aviv Kochavi, questo sistema è in grado di individuare fino a 100 bersagli al giorno: “Per dare una prospettiva”, ha spiegato Kochavi al Guardian, “in passato ottenevamo 50 obiettivi all’anno”. Considerato il numero di bersagli ottenuti, non stupisce che – come segnala una testata tutt’altro che pro-palestinese come Foreign Policy“la maggior parte di questi attacchi è stata fin qui diretta nei confronti dei ranghi inferiori di Hamas, che sono visti come obiettivi legittimi in quanto combattenti, ma di scarso significato strategico”.

Come scrive Alice Civitella sul sito della Società italiana di diritto internazionale, “Lavender analizza le informazioni preventivamente raccolte da un sistema di sorveglianza di massa sui cittadini palestinesi, per poi attribuire loro un punteggio da 1 a 100 in base alla probabilità che essi siano militanti di Hamas o della Jihad islamica”.

Affidarsi in questo modo a un sistema informatico solleva parecchi aspetti problematici, prima di tutto – spiega sempre Civitella – a causa della genericità dei dati forniti al sistema in fase di addestramento, Lavender ha commesso parecchi errori nell’identificazione delle persone, confondendo poliziotti e operatori della protezione civile con militanti di Hamas oppure indicando bersagli errati a causa di una banale omonimia.

Errori, in realtà, solo in parte attribuibili al sistema: quando segnala gli obiettivi da colpire, Lavender indica qual è la soglia di accuratezza della sua previsione. È poi l’esercito israeliano a decidere quale sia il tasso di errore che è disposto ad accettare: più questo è elevato, più aumenta il rischio di colpire innocenti.

Sempre secondo quanto riporta Foreign Policy, il tasso d’errore tollerato dall’esercito è stato fissato al 10%. Gli obiettivi che superano questa percentuale vengono invece rapidamente verificati da un team di analisti umani. L’enorme numero di obiettivi individuati, il fatto che vengano nella maggior parte dei casi colpiti quando si trovano nelle loro abitazioni e che per portare a termine gli omicidi vengano spesso impiegati attacchi aerei ha un’ovvia e tragica conseguenza: l’enorme numero di vittime civili.

Secondo le fonti sentite da +972, l’esercito israeliano considera accettabile uccidere fino a 15 civili per ogni combattente di Hamas appartenente ai ranghi inferiori. Quota che arriva anche a 100 nel caso di comandanti o altri esponenti di primo piano dei miliziani palestinesi.

Dal momento che i bersagli selezionati da Lavender sono dei (presunti) combattenti, questa modalità sembrerebbe rispettare il diritto internazionale e in particolare – spiega Foreign Policy – la “dottrina del doppio effetto”, che “consente un danno collaterale prevedibile, ma non intenzionale, purché il raggiungimento dell’obiettivo non dipenda dal fatto che questo danno collaterale si verifichi, com’è il caso di un attacco aereo contro un obiettivo legittimo che si verificherebbe comunque, in presenza o meno di civili”.

L’esercito israeliano seguirebbe insomma, nelle sue azioni, la cosiddetta “logica operativa degli assassini mirati”, anche se – a causa dell’enorme numero di obiettivi segnalati dal sistema Lavender – le sue azioni assomigliano spesso a un bombardamento a tappeto, vietato dal diritto internazionale.

Dilemmi etici e legali

Da una parte, quindi, l’utilizzo di questi sistema rischia di provocare il cosiddetto “automation bias”: la tendenza degli esseri umani ad accettare le indicazioni della macchina – considerata un sistema oggettivo, in quanto agisce su base statistica – anche in circostanze in cui avrebbero altrimenti agito in modo diverso (per esempio, ignorando il rischio di uno scambio di persona). Dall’altra, l’utilizzo di software come Lavender deresponsabilizza almeno in parte gli ufficiali che a essi si affidano.

Come si legge sul sito di Rete Pace Disarmo – che fa parte della campagna internazionale Stop Killer Robots, che promuove la messa al bando delle armi autonome – l’impiego di questi sistemi solleva “serie preoccupazioni sull’uso crescente dell’intelligenza artificiale nei conflitti, sui pregiudizi insiti nelle forme di automazione, sulla disumanizzazione digitale e sulla perdita del controllo umano nell’uso della forza”.

Inoltre, spiega sempre il sito, “sono preoccupanti i resoconti di un’approvazione generalizzata da parte degli ufficiali per l’adozione delle liste di uccisioni di Lavender, senza alcun obbligo di controllare a fondo il motivo per cui la macchina ha fatto quelle scelte o di esaminare i dati di intelligence grezzi su cui si basavano”.

Ancor più preoccupante è il fatto che l’esercito israeliano non è l’unico che utilizza software di questo tipo, che – al contrario – si stanno rapidamente diffondendo. Al di là del noto caso della Cina, che da tempo impiega sistemi di intelligenza artificiale nella provincia dello Xinjiang per identificare e trovare membri della minoranza uigura sospettati di attività eversive, altri strumenti di intelligenza artificiale di tipo Dss (Decision Support System, che supportano quindi il processo decisionale dell’operatore umano) vengono impiegati nei teatri di guerra anche in Occidente.

L’azienda protagonista dalle nostre parti è Palantir, la società statunitense di data analysis fondata da Peter Thiel e che sta svolgendo un ruolo importante nel conflitto tra Russia e Ucraina. Come si legge sul Time, la piattaforma sviluppata da Palantir e impiegata dalle forze ucraine “è in grado di integrare dati provenienti da molteplici e diverse fonti – satelliti, droni e intelligence – riuscendo poi a incrociarli per fornire all’esercito informazioni rilevanti. [...] L’algoritmo di Palantir può per esempio essere straordinariamente abile a identificare un centro di comando nemico.

Palantir non rivela ufficialmente come vengano utilizzati i suoi software sul campo di battaglia, ma si pensa che l’esercito ucraino impieghi i sistemi di intelligenza artificiale, per esempio, per identificare vulnerabilità lungo le linee del fronte russo o per massimizzare i danni. Parlando con il Time, un comandante ucraino ha fatto un esempio di come l’esercito utilizza i sistemi sviluppati da Palantir: “Quando lanciamo numerosi attacchi lungo tutta la linea del fronte, la Russia è costretta a portare le forze di riserva allo scoperto, che possiamo monitorare in tempo reale utilizzando immagini satellitari e di droni, oltre ad algoritmi di riconoscimento immagini, per colpirle con una velocità e una precisione senza precedenti.

Un altro sistema, chiamato Kropyva, permette all’esercito russo di inserire le coordinate dell’obiettivo su un tablet, dopodiché il software calcola automaticamente la distanza e la direzione verso cui dirigere il fuoco. Contestualmente, la piattaforma di Palantir suggerisce all’operatore umano quali armi utilizzare per portare a termine l’incarico e valuta infine il danno compiuto, i cui risultati vengono poi analizzati dall’algoritmo al fine di migliorare ulteriormente la propria efficienza. Dal momento in cui l’algoritmo individua gli obiettivi a quello in cui questi vengono colpiti passano al massimo due o tre minuti, laddove prima, spiega sempre il Time, erano necessarie anche sei ore.

Indipendentemente che vengano utilizzate da forze alleate o nemiche dell’Europa, da chi si sta difendendo da un’invasione o da chi invece la sta perpetrando, il fatto che questi software di supporto decisionale permettano di colpire un’enorme quantità di obiettivi in un tempo ridottissimo significa soltanto una cosa: più scontri, più bombardamenti e quindi più morti, tra i soldati e tra i civili.

Se un tempo si pensava che avrebbe addirittura portato alla pace universale, adesso sappiamo che – tra armi autonome e sistemi di supporto decisionale – l’intelligenza artificiale sta semmai rendendo la guerra ancora più letale.