Interactive

Papa Francesco al G7 allargato: “Bisogna ripensare lo sviluppo di ‘armi autonome letali’ basate sull’AI e vietarne l’uso”. Ma serviranno interventi più incisivi per riuscirci

Papa Francesco al G7
Papa Francesco al G7
di Massimo Bolchi

Al G7 che si è tenuto al Borgo Ignazia, in Puglia, la scorsa settimana, per la prima volta ha presenziato – verrebbe da affermate ‘partecipato’ – un Pontefice: nella fattispecie Papa Francesco che ha portato i suoi 87 anni in un consesso che, sebbene irrobustito per l’occasione dal ‘sangue nuovo’ portato dai leader di Paese emergenti, quale India (scusate: Bhārat, come si dice oggi) e Brasile, rimane un insieme di economie declinanti in rapporto al peso mondiale del loro PIL.

Ma Papa Francesco ha parlato di intelligenza artificiale, il tema del momento, davanti a tutti i leader del G7 allargato ai massimi rappresentanti dell’America Latina, dell’Africa, dell’India e del Medio Oriente, utilizzando la folta platea per far arrivare al mondo intero il suo messaggio. Piccola annotazione di carattere statistico: il suo discorso è durato meno di venti minuti, non proprio gli otto minuti posti dallo stesso Pontefice, nel corso dell’udienza generale di settimana scorso a San Pietro, come limite di durata massima di un’omelia, ma comunque uno speech tutto sommato conciso visto il tema generale affrontato.

Tra i tanti temi di cui ha parlato, grande rilevanza ha assunto quello delle armi autonome, che sarebbe bello poter ridurre a una grande war game combattuto tra di loro: battaglie tra macchine, senza morti e senza feriti, e chi ne esce ‘meglio’ ha vinto. Purtroppo non è così: la macchine dotate di intelligenza artificiale, che non richiedono l’uomo ‘in the loop’ per decidere se e dove colpire, sono quasi sempre indirizzate a bersagli umani.

“Alla luce della tragedia dei conflitti armati, è urgente riconsiderare lo sviluppo e l’utilizzo di dispositivi quali le cosiddette ‘armi autonome letali’ e, in ultima analisi, vietarne l’uso”, ha ricordato ai capi di governo presenti, “Questo parte da un impegno effettivo e concreto per introdurre un controllo umano sempre maggiore e adeguato. Nessuna macchina dovrebbe mai scegliere di togliere la vita a un essere umano”

“Condanneremmo l’umanità a un futuro senza speranza se togliessimo alle persone la capacità di prendere decisioni su se stesse e sulla propria vita, riducendoli a dipendere dalle scelte delle macchine”, ha detto, aggiungendo che ogni strumento, fin dalla notte dei tempi, può essere usato in modo negativo o positivo, ma che il pericolo dell’IA risiede nella capacità delle macchine di prendere decisioni ‘indipendenti’ dagli esseri umani.

Al di la dell’aspetto mediatico dell’evento, indubbiamente un successo, questa stesse parole, o parole molto simili, comunque, era state usate il 5 ottobre 2023 dal Segretario Generale dell’ONU, António Guterres, e dalle Presidente del Comitato internazionale della Croce Rossa, Mirjana Spoljaric, che si erano rivolti ai governanti di tutto il mondo affinché stabilissero con urgenza nuove regole internazionali sui sistemi d’arma autonomi, per proteggere l’umanità della ricadute perverse dell’AI.

“Il loro sviluppo e la loro proliferazione possono cambiare significativamente il modo in cui vengono combattute le guerre e contribuire all’instabilità globale e all’aumento delle tensioni internazionali”, recitava il comunicato dell’ONU. “Dobbiamo agire ora per preservare il controllo umano sull’uso della forza. Il controllo umano deve essere mantenuto nelle decisioni di vita o di morte. Il bersaglio autonomo degli esseri umani da parte delle macchine è una linea morale che non dobbiamo oltrepassare. Le macchine che hanno il potere e la discrezione di togliere la vita senza il coinvolgimento umano dovrebbero essere proibite dal diritto internazionale“.

Eppure nel 2020 un drone Kargu 2 (un piccolo apparecchio portatile ad ala rotante prodotta in Turchia dalla STM) ha dato la caccia e attaccato un bersaglio umano in Libia, secondo un rapporto del gruppo di esperti del Consiglio di sicurezza delle Nazioni Unite, pubblicato nel marzo 2021. Potrebbe essere stata la prima volta che un robot killer autonomo armato di armi letali ha attaccato degli esseri umani. Servono altre iniziative, ben più incisive delle parole, per invertire una situazione che vede il progressivo sviluppo e messa in linea negli eserciti di sempre nuovi sistemi autonomi basati sull’intelligenza artificiale.