Ma che cosa c’è davvero dietro la open letter del Future of Life Institute? Per alcuni il messaggio appare troppo enfatico e selfdeceiving – “AI research and development should be refocused on making today’s powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal. In parallel, AI developers must work with policymakers to dramatically accelerate development of robust AI governance systems” – facendo riferimento una sorta di governo mondiale che ahimé purtroppo è molto lontano dall’esistere. Non riempiamoci la bocca con l’ONU, che conferma ogni giorno di più di essere un’istituzione puramente rappresentativa, quando pure riesce a operare. La open letter, nel frattempo, ha bloccato la pubblicazione delle liste dei firmanti dato l’elevato numero raggiunto da questi ultimi.
Né potevano mancare le letture dell’iniziativa in chiave anticoncorrenziale, come il tentativo da parte di chi è più avanti attualmente – Microsoft con GPT4, per essere chiari – di bloccare i progressi dei rivali per un periodo di tempo sufficiente a rafforzare il proprio predominio. Ma il fondatore di Microsoft, Bill Gates, non ha firmato la lettera. Così come Sam Altman, fondatore di OpenAI e di ChatGpt, e Jeff Bezos, padre di Amazon e AWS, non hanno sottoscritto l’appello dei techno-worried.
Fin qui chi ha denunciato sui media usi troppo spregiudicati della tecnologia chiedendo regole e limiti è stato a sua volta denunciato come un avversario del progresso e dell’innovazione. Ma oggi a cambiare rotta sono molti dei più autorevoli esponenti del mondo della tecnologia: non solo Elon Musk, che con la sua charity è tra i finanziatori del Future of Life Institute, ma anche scienziati come Yoshua Bengio, soprannominato il “padrino dell’intelligenza artificiale” o lo storico Yuval Noah Harari, divenuto la ‘coscienza critica’ della Silicon Valley.
Anche Gates è ovviamente preoccupato dell’AI senza controlli: “C’è la possibilità che l’Ai deragli, decida al posto o contro l’essere umano“, scrive sul suo blog, e non sono pericoli da poco. Come Altaman, che ricorda “minacce come attacchi alla sicurezza informatica, disinformazione e altre cose che possono destabilizzare la società. Occorre sforzarsi di minimizzare i rischi dando alla gente il tempo di abituarsi gradualmente all’uso di queste tecnologie”.
Ma ci sono anche tecnocrati che si dichiarano contrari alla moratoria. Come il fisico di Oxford David Deutsch, secondo il quale i rimedi proposti sono peggiori del male. “Noi possiamo attenderci problemi dallo sviluppo dell’AI. Ma non si capisce perché sarebbero meno rilevanti tra sei mesi rispetto ad oggi. Nel frattempo avremmo rinunciato a tutti benefici connessi”. In particolare per lui non è accettabile quanto proposto da Altman: “Significherebbe rinunciare agli strumenti democratici che abbiamo disposizione, invece di migliorarli. Sarebbe come dire ‘noi non faremo nulla di cui non possiamo prevedere gli effetti ultimi, così diamo la chance ai regimi totalitari di recuperare il terreno perso e di sorpassarci”.
Questo è una altro punto che viene sottaciuto nella open letter, tra i cui firmatari i cinesi spiccano per la loro assenza. Eppure la Cina è una delle frontiere avanzate dello sviluppo e dell’applicazione dell’AI, dalla facial recognition alle cryptocurrency: lo Yuan digitale è una realtà. Il rischio – concreto – è che questo movimento di opinione si affermi in Occidente e arrivi a bloccare gli sviluppi dell’AI, mentre in Cina e in India faranno quello che vogliono. Come con riscaldamento globale, che vede l’Europa dismettere le auto a benzina, mentre in Cina inaugurano centinaia di centrali a carbone. Il Future of Life Institute, d’altra parte, fin dalla sua fondazione si è assegnato obiettivi che definire ambiziosi è troppo poco. Come quello del controllo delle armi guidate dall’AI: per vedere i risultati in quest’ambito è sufficiente dare un’occhiata la conflitto in atto tra Russia e Ucraina. O alla macchina cinese Sharp Claws, dislocata in 88 unità alla frontìera tibetana con l’India.