Nel conflitto in Ucraina è stata usata ampiamente questa risorsa, ma finora per individuare soldati nemici e vittime. Presto però, secondo gli esperti, si potrebbe arrivare ad armi in azione senza il controllo umano

Pensi all’intelligenza artificiale in guerra e viene in mente Terminator, Guerre Stellari: eserciti di robot killer che, implacabili e privi di emozioni, uccidono tutto quello che sono programmati per uccidere. Ma l’invasione russa dell’Ucraina, all’alba del settimo mese del conflitto, rivela un volto più subdolo e complesso per l’Ia fuori e dentro il campo di battaglia. Meno visibile e appariscente, ma tentacolare, capace di rendere “intelligenti” ben più che le sole armi – di cui peraltro non c’è finora reale traccia in Ucraina – e diventare piuttosto una sorta di cervello digitale per processare la guerra in modo più efficiente.

 

«Sia l’Ucraina che la Russia hanno usato e usano sistemi di Ia a supporto delle azioni militari», spiega Mariarosaria Taddeo, vicedirettrice del Digital Ethics Lab dell’Oxford Internet Institute, e tra le massime esperte internazionali di etica e armi intelligenti. Ovvero, dice, «per la logistica, per l’analisi di dati a supporto di decisioni tattiche e strategiche, per analizzare grandi quantità di dati ed estrarre informazioni di intelligence». Si pensi al ricorso a forme di analisi automatica del linguaggio naturale per analizzare, tramite software intelligenti come Primer, le comunicazioni intercettate di soldati russi; all’identificazione di fosse comuni, da Mariupol a Bucha, tramite l’analisi a base di Ia delle immagini provenienti da oltre 90 satelliti in orbita grazie a contractor come Maxar, BlackSky e Planet; ancora, alla piattaforma Spectra AI usata per mappare e stabilire, giorno per giorno, l’entità dei danni subiti da ogni singolo edificio delle principali città ucraine durante il conflitto.

[[ge:rep-locali:espresso:368040676]]

Il ministro ucraino per il Digitale, e vicepremier, Mykhailo Fedorov, raggiunto dall’Espresso via mail conferma: «Usiamo l’Ia e altri strumenti tecnologici contro l’aggressore». Usi che non coinvolgono armi autonome, per ora, ma che mirano piuttosto a «fare breccia nella propaganda russa». Se il regime di Vladimir Putin cerca di vendere il mito della “operazione speciale” senza vittime o quasi, ecco Fedorov e i suoi usare l’Ia per «cercare i profili social di soldati russi deceduti e dare notizia del decesso ad amici e parenti»; o ancora, per scovare l’identità dei soldati-saccheggiatori che approfittano del conflitto per rubare tutto quello che trovano e spedirlo in patria.

 

«Ne abbiamo identificati a centinaia», dice Fedorov, che snocciola inediti dati derivanti dall’uso della controversa tecnologia di riconoscimento facciale di Clearview Ai: delle oltre 300 foto di “occupanti uccisi” ricevute tramite canali Telegram e dal campo di battaglia, scrive, la maggior parte è stata identificata. Fedorov e i suoi hanno poi reperito anche «14 mila profili di loro amici, parenti e conoscenti su social come Facebook, Instagram e i russi Vkontakte e Odnoklassniki», che sono poi stati contattati da volontari (questa volta, umani) per comunicarne la morte.

 

«Tutti i russi», spiega Fedorov, «devono conoscere la verità sulla guerra in Ucraina». Il giovane ministro-startupper associa insomma l’uso dell’Ia in guerra a una funzione di disvelamento, di trasparenza, e la democratizzazione degli strumenti “intelligenti” – ormai a misura di app su un qualunque smartphone – sembra nelle sue parole il preludio a forme di resistenza digitale di massa in cui l’artificiale e l’umano operano insieme, in modo partecipato e “dal basso”, per sconfiggere l’invasore. Nel Fedorov-pensiero, è una contrapposizione tra il passato dell’imperialismo e dei carri armati, incarnato dalla Russia, e il presente della “nazione digitale” capace di difendersi con i dati e la tecnologia. «La guerra moderna», dice, «richiede soluzioni moderne. E la tecnologia è la migliore soluzione contro i carri armati». Per esempio, quella che consente all’Ucraina di utilizzare con successo velivoli a guida autonoma – i droni – per operazioni di ricognizione e sorveglianza, e anche per colpire il nemico.

 

Non, tuttavia, in completa autonomia. O non ancora: «l’Ia nei droni ci aiuta a identificare i bersagli», rivela infatti Fedorov, «ma la decisione finale, quella di colpire un bersaglio, è riservata ancora a un essere umano». Non per molto, tuttavia, dato che secondo il ministro ucraino «le guerre del futuro saranno guerre tra droni e robot, il più automatizzate possibile, così che non debbano venire sterminate masse di persone. Ed è un futuro non lontano». Anche l’aggressore, la Russia di Putin, non sembra pensarla diversamente. E se è noto che già un lustro fa il presidente russo dichiarasse convinto che l’Ia «è il futuro non solo per la Russia, ma per tutta l’umanità», e che a suo dire «chiunque diventerà leader in questo campo diventerà il padrone del mondo», è forse meno noto che ciò comporta, nella visione strategica russa per il futuro del conflitto, una sorta di inevitabilità dell’automazione totale.

 

Già nel 2013 il generale Valerij Gerasimov, nel saggio che avrebbe battezzato l’omonima e controversa “dottrina”, si diceva convinto che «il campo di battaglia di domani sarà pieno di robot che camminano, strisciano, saltano e volano». E a maggio dello scorso anno la propaganda del ministro della Difesa, Sergej Shoigu, annunciava la creazione di robot-soldato «capaci di combattere da soli», proprio come nei film di fantascienza. Come questo si sia tradotto tuttavia in fatti, nel conflitto in corso, è materia di discussione. I russi vantano per esempio l’utilizzo di mine chiamate Pom-3, che sarebbero capaci di distinguere tra civili e militari, e tra militari amici e nemici, proprio grazie all’Ia. Ma è così?

 

«Nessuna forma di macchine learning è sofisticata al punto di funzionare in modo affidabile in zone di guerra, e non c’è alcuna prova che esista oggi una Ia sofisticata al punto di distinguere chiaramente un civile e un militare», risponde scettica Elke Schwarz, che insegna “Tecnologia, politica e guerra” all’Università Queen Mary di Londra. La Russia starebbe però impiegando robot autonomi per sminare terreni, chiamati Uran-6; pronto all’uso sarebbe anche un veicolo di terra autonomo dotato di missili anticarro e lanciarazzi, l’Uran-9, ma al momento gli usi più consistenti dell’Ia sembrano riservati alla propaganda e alla “guerra informatica”: per automatizzare i processi coinvolti nei cyber-attacchi, per creare “deepfake” o, tramite il nuovo sistema Oculus finanziato dal Roskomnadzor, l’autorità per le comunicazioni russa, scandagliare con reti neurali foto, video e testi sui social network a caccia di propaganda Lgbt (vietata), ma anche contenuti riconducibili dalle autorità a estremismo, terrorismo, manifestazioni illegali, mancanza di rispetto nei confronti della società, e perfino metodi di produzione di droghe o vendita di armi, scrive Kommersant. Se si pensa al riconoscimento facciale nella metropolitana russa, usato per identificare e arrestare i contrari alla guerra, si comprende come l’Ia possa svolgere una funzione anche interna, di mantenimento della repressione nel regime di Putin.

 

Resta tuttavia il dubbio sulle armi autonome: ammesso non ci siano, significa non ci saranno? Paul Scharre, autore dell’essenziale “Army of None. Autonomous Weapons and the Future of War”, pur scettico sull’attuale ruolo dell’IA nel conflitto – «se togliessimo l’Ia dalla guerra in Ucraina non cambierebbe molto», ci dice – non ne è affatto convinto. Anzi: gli esperti sembrano concordare sulla convergenza di svariati fattori abilitanti. Una crescita vertiginosa delle capacità di calcolo; costi sempre inferiori; e, soprattutto, il fatto che questa guerra sta fornendo a Russia, Ucraina e al resto del mondo i dati per addestrare, con operazioni e strategie reali, i sistemi intelligenti del futuro. Anche se pure qui c’è un caveat: che «i sistemi di Ia usano i dati del passato per inferire qualcosa sul presente e il futuro, e in questo contesto potrebbero non essere validi», dice Schwarz. La guerra, insomma, è una questione sociale – non tecnologica. Vincerla sembra ancora troppo complesso anche per il più sofisticato degli algoritmi.