Sull’uso dell’Intelligenza Artificiale di Roberto Fieschi

 

Sull’uso dell’Intelligenza Artificiale   di Roberto Fieschi

Semplificando un po’, con Intelligenza Artificiale (IA) si fa riferimento all’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività.  In campo civile la IA ha innumerevoli applicazioni, e inciderà su molti aspetti del nostro modo di vivere. Con le sue capacità di apprendimento automatico, analisi dei dati e automazione, l’IA sta portando a progressi significativi in diversi settori, dalla medicina alla produzione di beni industriali e tecnologici.

Qui porterò alcuni esempi delle applicazioni al settore militare.  Tra gli obiettivi troviamo missioni con sistemi autonomi, sorveglianza di un territorio, automatizzazione dei compiti, rapidità nelle decisioni, identificazione automatica di un carro armato con un’immagine satellitare, rilevazione automatica e intercettazione di droni, missili o aerei in arrivo, droni per l’identificazione di obiettivi umani in mezzo alla folla utilizzando il riconoscimento facciale. Ci sono robot in grado di scendere nei tunnel. Gli Stati Uniti hanno sviluppato “O Black Hornet”, un mini-drone di 33 gr, dotato di telecamere termiche, per l’esplorazione di ambienti chiusi. Oggi, almeno 30 paesi utilizzano sistemi di difesa aerea e missilistica che dispongono di modalità autonome. Il Dipartimento della Difesa degli Stati Uniti ha investito quasi un miliardo di dollari in tecnologie militari legate all’AI e al Machine Learning.

Un esempio recente, l’assassinio dello scienziato iraniano Mohsen Fakhrizadeh che aveva un ruolo nel programma nucleare di Teheran. Il 27 novembre 2023, Fakhrizadeh stava guidando, quando una mitragliatrice montata su un pickup Nissan ha sparato tredici colpi con grande precisione; sua moglie, nonostante fosse vicinissima, rimase illesa; il comando era stato impartito via satellite e utilizzando una telecamera dotata di Intelligenza Artificiale.

Nel recente conflitto tra Armenia e Azerbaigian (2020) l’esercito azerbaigiano ha utilizzato droni intelligenti, acquistati dalla Turchia e da Israele, offrendo un esempio di come carri armati e altri veicoli tradizionali da combattimento a terra non siano più i fattori decisivi; inoltre ha evideniato la necessità di sistemi difensivi in grado di combattere gli “sciami” di piccoli droni.

L’intelligenza artificiale sta emergendo come una risorsa significativa nel conflitto russo-ucraino in corso. La guerra ha accelerato l’impiego della IA; sia Mosca che Kiev l’hanno utilizzata ampiamente. Un esempio sono i droni Saker Scout di produzione ucraina, che permettono di rilevanre obiettivi nemici sfuggiti all’occhio umano. Per molte imprese specializzate nell’intelligenza artificiale militare questa guerra è l’occasione per testare i prodotti sul campo.

Nel 2021 il comandante dell’Unità israeliana 8200, una delle agenzie di sorveglianza più potenti del mondo, ha pubblicato un libro, The Human Machine Team, in cui offre un progetto per i sistemi avanzati basati sull’intelligenza artificiale, mostrando come l’IA può trasformare il rapporto tra personale militare e macchine.

Una macchina del genere esiste davvero; l’esercito israeliano (IDF) ha sviluppato “Lavender”, una macchina basata sull’intelligenza artificiale in grado di elaborare rapidamente enormi quantità di dati per generare migliaia di potenziali “bersagli” per attacchi militari. “Lavender” ha svolto un ruolo centrale nei bombardamenti, soprattutto durante le prime fasi della guerra. Per addestrare l’algoritmo di “Lavender” ci si basa su informazioni visive, dati cellulari, come essere in un gruppo Whatsap con un militante noto, connessioni ai social media, immagini, contatti di cellulare, persone che ricevono nuovi cellulari ogni pochi mesi, o che cambiano spesso indirizzo, e su altre piccole e diverse caratteristiche.

Secondo ufficiali dell’intelligence israeliana, che sono stati coinvolti in prima persona nell’uso dell’intelligenza artificiale per individuare i sospetti agenti di Hamas e della Jihad islamica palestinese (PIJ); al suo apice, il sistema ha individuato 37.000 potenziali bersagli umani “Lavender” ha svolto un ruolo centrale, individuando sospetti militanti e le loro case per possibili attacchi aerei. L’esercito ha attaccato le persone mentre si trovavano nelle loro case – di solito di notte, quando erano presenti tutte le loro famiglie – piuttosto che nel corso di un’attività militare. Sono stati sviluppati ulteriori sistemi automatizzati utilizzati per rintracciare le persone quando entravano nelle residenze delle loro famiglie e inviare un avviso automatico all’ufficiale di destinazione che poi contrassegna la casa per il bombardamento. Uno di questi software di tracciamento si chiama “Dov’è papà?

A “Lavender” si unisce un altro sistema di intelligenza artificiale, “The Gospel”, che contrassegna gli edifici e le strutture da cui operano i militanti di Hamas o della PIJ.

Durante le prime settimane di guerra è stato permesso di uccidere fino a 15 o 20 civili durante attacchi aerei contro ciascuno dei militanti di basso rango; in attacchi contro funzionari di alto rango l’IDF ha ritenuto ammissibile uccidere più di 100 civili. “Avevamo calcolato quanti civili potevano essere uccisi, per il comandante di brigata, quanti per un comandante di battaglione”, ha detto una fonte. Un’altra fonte ha affermato che il limite delle vittime civili consentite “è andato su e giù” nel corso del tempo,

La macchina fu utilizzata per la prima volta el maggio 2021, Ora, in parte a causa della pressione americana, l’esercito israeliano non sta più generando in massa obiettivi umani minori da bombardare nelle case civili. L’esercito israeliano respinge queste accuse, affermando che si tratta semplicemente di “strumenti ausiliari che assistono gli ufficiali nel processo di individuazione” degli obiettivi.

Tuttavia, gli attacchi aerei contro gli alti comandanti di Hamas sono ancora in corso. L’uso su larga scala in guerra di potenti sistemi di intelligenza artificiale solleva questioni legali e morali. L’impiego della IA e dei sistemi AWS (Autonomous Weapons System), nell’ambito di conflitti armati, dovrebbe rispettare le norme previste dal LOAC (Law of Armed Conflict). Tra i principi chiave del Diritto Internazionale Umanitario ricordiamo il principio di distinzione, di proporzionalità e di precauzione, principi orientati a minimizzare il rischio di danni ai civili

Da un decennio i paesi discutono sulle armi autonome, ma non sono riusciti a concordare norme per limitarne i danni. Anche se un divieto su larga scala non è realistico, ci sono molte norme pratiche che i governi possono adottare per mitigare i peggiori pericoli. Ricordiamo che l’ONU ha avuto un buon successo nel vietare le armi chimiche e biologiche, e le munizioni a grappolo.

I principali scienziati dell’intelligenza artificiale, hanno messo in guardia dai pericoli delle armi autonome. Circa 30 paesi e un consorzio di oltre 250 organizzazioni non governative, tra cui Amnesty International, Human Rights Watch e Nobel Women’s Initiative, hanno formato la campagna per fermare i robot killer, chiedendo un trattato preventivo e giuridicamente vincolante per vietare le armi autonome

La Russia e gli Stati Uniti si sono opposti a un trattato che vieti le armi autonome, sostenendo che le norme esistenti nel diritto di guerra sono sufficienti per affrontare eventuali danni. Tuttavia Gli Stati Uniti, alla fine del 2023, hanno portato oltre 40 paesi a sostenere una dichiarazione politica sulla necessità di un uso responsabile dell’intelligenza artificiale militare. Nel febbraio 2024, oltre 50 governi avevano aderito. Sebbene la dichiarazione non vieti le armi autonome, essa fornisce linee guida generali per il loro utilizzo, come garantire test adeguati per ridurre il rischio di incidenti.

Papa Francesco, al G7, ha chiesto di mettere immediatamente al bando le armi autonome, affermando che “nessuna macchina dovrebbe mai scegliscere se togliere la vita ad un essere umano.

image_pdf

Lascia un commento