Armi autonome e IA nelle guerre in Medio Oriente

L'uso di sistemi d'arma autonomi nelle guerre in MO apre scenari che sollevano interrogativi sul piano etico, strategico e giuridico

Il conflitto che si è esteso da Gaza all'Iran sta segnando una svolta epocale nella storia della guerra: per la prima volta, sistemi di intelligenza artificiale e armi autonome giocano un ruolo centrale nella selezione e nell'eliminazione dei bersagli, sollevando interrogativi profondi sul ruolo dell'uomo nelle decisioni di vita o di morte.

La nuova guerra non è più solo una questione di droni o di bombe intelligenti. Quella che è iniziata come un'operazione di difesa si è trasformata in un laboratorio tecnologico a cielo aperto. Secondo esperti e organizzazioni internazionali, l'esercito israeliano (Idf) ha utilizzato la guerra di Gaza come test sul campo, per poi trasferire questo know-how e queste tecnologie, ormai "battle–tested", su larga scala, anche contro l'Iran.

Definizione e localizzazione dei bersagli

Il cuore di questa rivoluzione tecnologica risiede nel software di supporto decisionale come "Lavender" e "Where's Daddy?". Il primo è un algoritmo in grado di incrociare enormi quantità di dati, raccolti da social network, chat, sorveglianza e immagini satellitari, per assegnare un punteggio a ogni individuo, segnalando automaticamente come potenziali bersagli coloro che superano una certa soglia. Il secondo, invece, monitora la posizione dei cellulari per determinare il momento più opportuno per un attacco.

Stop Killer Robots

Il problema, denunciano organizzazioni come Stop Killer Robots, è che la revisione umana di questi bersagli è spesso ridotta a pochi secondi, rendendo di fatto l'algoritmo l'unico vero decisore. Stop Killer Robots è un ente composto da oltre 180 organizzazioni non governative internazionali, regionali e nazionali e da partner accademici che lavorano in 66 Paesi. Essa chiede l'introduzione di nuove norme internazionali per garantire il mantenimento di un significativo controllo umano sull'uso della forza.

«Ridurre le persone a semplici dati significa disumanizzarle, e questo rende più facile prenderle di mira e ucciderle», ha dichiarato Nicole van Rooijen, direttrice di Stop Killer Robots, che chiede una regolamentazione internazionale. L'onda d'urto di questa nuova dottrina bellica si è presto estesa all'Iran. Secondo Trita Parsi, analista del Quincy Institute (Istituzione US di ispirazione pacifista), le similitudini tra i bombardamenti su Gaza e quelli su Teheran sono sempre più forti. «In entrambi i casi, sembra che Israele stia usando l'IA senza alcuna supervisione umana significativa», ha affermato.

L'uso di queste tecnologie, che secondo l'Idf mira a ridurre i rischi per i propri militari, ha però un impatto devastante sulla popolazione civile. La rapidità e la natura imprevedibile degli attacchi algoritmici aumentano esponenzialmente la distruzione e il panico, intrappolando i civili in un conflitto dove la decisione di uccidere è sempre più delegata alla macchina.

Facilità di accesso ma con maggiori rischi operativi

Rispetto alle armi tradizionali, comprese quelle nucleari, le tecnologie basate sull'intelligenza artificiale sono più accessibili, più replicabili e potenzialmente più difficili da controllare. Uno dei principali pericoli legati alle armi autonome riguarda la capacità di distinguere correttamente i bersagli. In contesti complessi come i teatri di guerra urbani, la differenza tra un combattente e un civile può essere estremamente sottile. Un sistema automatizzato potrebbe essere in grado di riconoscere un'arma, ma non necessariamente il contesto in cui essa viene utilizzata.

Il problema non è semplicemente la possibilità di errore, ma la scala e la velocità con cui tali errori possono propagarsi. A differenza degli uomini, che operano con limiti cognitivi e temporali, un algoritmo può prendere decisioni in frazioni di secondo e replicarle un numero indefinito di volte. Numerosi esempi provenienti dal settore civile mostrano come anche i sistemi più avanzati possano generare risultati distorti.

Il rischio di infiltrazioni terroristiche e di criminalità comune

In uno scenario del genere, gruppi non statali, incluse organizzazioni terroristiche, potrebbero accedere a capacità offensive avanzate. Inoltre, si profila una proliferazione "ad alta intensità", in cui le grandi potenze competono per sviluppare sistemi sempre più sofisticati e distruttivi. In questo contesto, le armi autonome potrebbero essere integrate con tecnologie chimiche, biologiche o persino nucleari, amplificando ulteriormente i rischi.

Responsabilità individuale e diritto internazionale

Uno degli aspetti più controversi riguarda le implicazioni legali. Le norme che regolano i conflitti armati, sviluppate nel corso di oltre un secolo a partire dalla Convenzione di Ginevra, si basano sul principio della responsabilità individuale. L'introduzione di armi autonome mette in crisi questo modello. Se un sistema prende decisioni in modo indipendente, chi ne è responsabile? Il soldato che lo ha attivato? Il comandante che ne ha autorizzato l'uso? Gli ingegneri che lo hanno progettato? Oppure nessuno?

Mentre le Nazioni Unite cercano faticosamente di trovare un accordo internazionale per regolamentare i sistemi d'arma autonomi letali (LAWS), la guerra in Medio Oriente corre più veloce della diplomazia. Il timore di molti esperti è che l'umanità stia varcando una soglia di non ritorno, affidando a codici e algoritmi la responsabilità ultima sulle vite umane, senza che vi sia chiarezza su chi debba essere ritenuto responsabile quando la macchina sbaglia.

Nicola Sparvieri

Foto © ProvinciaDiLecco