Chiamateli robot-killer, armi non convenzionali, eserciti robotici o armamenti a guida (e decisione?) autonoma, ma il dato di fatto è che anche il settore militare sta vivendo una grande trasformazione tecnologica, la terza “rivoluzione” dopo la polvere da sparo e le armi nucleari. Che poi è quella trainata dall’intelligenza artificiale. Proprio questa settimana la Cina ha tuonato contro gli Stati Uniti dopo che Donald Trump ha messo l’intelligenza artificiale in testa alle priorità degli investimenti e dell’innovazione dell’amministrazione Usa. Pechino non ha usato mezzi termini: il Global Times, tabloid vicino al Governo, ha messo in guardia per quello che «potrebbe rappresentare il lancio formale di una Guerra fredda tecnologica».

Neanche in occasione della decisione della Casa Bianca di ritirarsi dal trattato nucleare che rischia di far partire una corsa al riarmo, Pechino aveva usato toni così perentori.

D’altra parte le intenzioni di Trump non sono molto pacifiche. Nello stesso giorno dell’annuncio di Trump il Pentagono ha pubblicato un rapporto strategico dal titolo piuttosto esplicito: “Harnessing AI to advance our security and prosperity”, in cui si sottolinea che le macchine impatteranno su ogni singolo settore della difesa e che diventa urgente comprendere come l’Ai potrà contribuire al miglioramento della sicurezza comune .

Evoluzione poco intelligenteDai carri armati a guida autonoma ai droni fino ai sommergibili senza guidatore sperimentati recentemente dai cinesi, l’intelligenza artificiale sta entrando in ogni singola arma con la prospettiva, per il momento lontana (ma neanche troppo) di eserciti fatti solo da robot. A oggi sono una trentina i paesi che utilizzano sistemi automatizzati, per il momento prevalentemente in ambito difensivo, utilizzati quindi per proteggere al meglio navi, mezzi sul terreno o basi da attacchi missilistici, per fare un esempio. L’ambito di applicazione potrebbe estendersi rapidamente, di concerto con l’evoluzione delle tecnologie a base di Ai.

Ed è altrettanto evidente che, ancor di più parlando di mezzi militari offensivi, mirati a colpire il nemico con le minori perdite possibili, la tecnologia si incrocia con i temi etici che deve affrontare l’umano nello sviluppo delle applicazioni civili, a partire dai meccanismi di guida autonoma dei veicoli. In caso di emergenza, per fare un esempio, i “robot-killer” potranno avere la possibilità di agire direttamente senza attendere il comando umano. E di chi sarebbe la responsabilità se in una situazione del genere l’arma andasse a colpire dei civili?

Un trattato per il divietoNegli ultimi anni si moltiplicano le iniziative per mettere un limite al proliferare di armi robotiche automatiche. L’associazione Campaign to stop killer robots, che raggruppa quasi un centinaio di organizzazioni non governative, è riuscita a catalizzare il sostegno di 28 governi con l’obiettivo di inserire questo tipo di armi all’interno delle fattispecie prevista dalla Convention on Certain Conventional Weapons, che in italiano potremmo tradurre come Convezione sulle armi non convenzionali, quelle ritenute particolarmente dannose e con effetti indiscriminati, tra cui mine, armi laser o incendiarie, come il napalm.

All’appello mancano però protagonisti di primo piano del panorama militare globale, tra cui Stati Uniti, Russia e Israele, il che condiziona pesantemente le possibilità di un accordo che blocchi lo sviluppo di dispositivi militari”intelligenti”, prima che sia troppo tardi. Si stanno esplorando modalità alternative, portando la questione all’Assemblea generale delle Nazioni Unite, oppure trovare un accordo al di fuori del consesso Onu, come già successo per il Trattato contro le mine anti-uomo e quello per la Proibizione delle armi nucleari. Ma sono tutti casi che sono diventati rilevanti più per i paesi che non hanno aderito che per quelli che hanno partecipato alla messa al bando.