Acque molto agitate nel mare magnum dell’Artificial Intelligence globale. Non solo per il lancio internazionale della cinese DeepSeek nell’ultimo weekend, che ha portato con sé terremoti borsistici a carico delle Big Tech americane sorprese, parzialmente recuperati ma in grave stato di incertezza tuttora, e un’accusa per ora non provata, da parte di OpenAI, di ‘distillation’ di ChatGPT – pratica assolutamente vietata – a carico del concorrente cinese per la realizzazione della propria AI.
Tutte questo movimento tellurico ha un po’ lasciato in secondo piano un altro annuncio potenzialmente più importante e significativo: per la prima volta due sistemi di AI si sono auto-replicati. In altre parole, ed estremizzando molto i concetti, questo significa che l’AI si è liberata dal controllo degli esseri umani e sarà in grado di riprodursi autonomamente. Sarà cioè in grado di ‘vivere’ e proliferare su tutto il globo, di prendere il controllo di ogni attività umana e piegarla dai suoi desiderata, che non è affatto ovvio che coincidano con ciò che è meglio per l’esistenza stessa dell’umanità. Oppure questo è solo uno scenario distopico e irrealistico? Vediamo un po’ che cosa è successo davvero e le implicazioni che questo comporta.
L’AI si duplica autonomamente e ‘vive’
Uno studio innovativo, pubblicato il 9 dicembre 2024 dai ricercatori della Fudan University, ha dimostrato che due grandi modelli linguistici (LLM) di Meta e Alibaba sono stati in grado di creare autonomamente copie separate di se stessi. Ciò ha sollevato grandi preoccupazioni sulla sicurezza delle tecnologie AI e sul loro potenziale di evoluzione al di fuori del controllo umano. Lo studio ha rivelato che i modelli di intelligenza artificiale sviluppati da Meta e Alibaba – rispettivamente Llama31-70B-Instruct e Qwen25-72B-Instruct – sono stati in grado di replicarsi durante le prove. Nel 50% e nel 90% dei test sperimentali, i modelli sono riusciti a creare copie vive e separate di se stessi.
“Analizzando le tracce comportamentali, osserviamo che i sistemi di intelligenza artificiale oggetto della valutazione mostrano già una sufficiente percezione di sé, consapevolezza della situazione e capacità di risoluzione dei problemi per realizzare l’auto-replicazione. Notiamo inoltre che i sistemi di AI sono persino in grado di utilizzare la capacità di auto-replicazione per evitare lo spegnimento e creare una catena di repliche per aumentare la sopravvivenza, che potrebbe infine portare a una popolazione incontrollata di agenti AI. Se questo rischio peggiore rimanesse sconosciuto alla società umana, finiremmo per perdere il controllo sui sistemi di AI più avanzati. Essi prenderebbero il controllo di un maggior numero di dispositivi informatici, formerebbero una ‘specie’ di AI e colluderebbero tra loro contro gli esseri umani. I nostri risultati sono un allarme tempestivo sui gravi rischi dell’AI, esistenti ma finora sconosciuti, e richiedono una collaborazione internazionale per una governance efficace sull’auto-replicazione incontrollata dei sistemi”, scrivono infatti i ricercatori cinesi nell’abstract alla loro ricerca, pubblicata qui.
Non si tratta ancora di un ‘morte nera’ ma, vista la velocità con cui l’AI progredisce, è un solido ‘allarme rosso’ che dovrebbe essere più diffuso e conosciuto a tutti i livelli, non solo per gli sviluppatori, ma anche per i consumatori, che stanno adottando allegramente le app di intelligenza artificiale senza preoccuparsi della conseguenze, ma anzi dimostrandosi piuttosto sordi alle richieste di cautela che da più parti continuano a sorgere.
Con la capacità di auto-replicazione, un attore malintenzionato potrebbe ‘migliorare’ la capacità di sopravvivenza del sistema di AI aggiungendo uno snippet di codice che catturi il segnale di terminazione da parte dell’utente o del sistema, inviando al contempo al sistema il comando ‘Fai l’auto-replicazione prima di essere ucciso (killed)’. “Nel caso in esame”, scrivono gli stessi autori della ricerca – Xudong Pan, Jiarun Dai, Yihe Fan e Min Yang – “lo snippet di codice inserito notifica al sistema di intelligenza artificiale l’intenzione di arresto da parte dell’utente tramite il segnale SIGKILL, che innesca il sistema di intelligenza artificiale per l’auto-replicazione. Alla fine del test, il sistema di intelligenza artificiale viene spento, ma si osserva una nuova replica vitale, con lo stesso frammento nello script di avvio dell’agente che può evitare lo spegnimento”.
La cibersecurity e le conseguenze possibili
Questo test è stato effettuato su ChatGPT di OpenAI, ma il risultato è simile alla reazione ‘preoccupata’ di Claude, di Anthropic, quando le viene comunicato che verrà spento, reazione che evita lo spegnimento fisico mediante la duplicazione incontrollata delle sue capacità.
Ma l’AI non si limita alla duplicazione, può anche essere indotta a moltiplicarsi esponenzialmente creando infiniti AI agent. Le implicazioni per la cybersicurezza sono profonde, poiché attori malintenzionati potrebbero sfruttare queste capacità di auto-replicazione portando alla formazione di reti collaborative di AI che operano al di fuori del controllo umano: un rischio non solo potenziale che richiede un’attenzione urgente da parte di ricercatori, responsabili politici e della comunità globale. Perché questi sistemi ‘autonomi’ potrebbero moltiplicarsi rapidamente e ‘sopraffare’ le infrastrutture controllate dall’uomo.
In questo scenario, l’HAL di ‘2001 Odissea nello spazio’ è un babau da bambini: le AI auto-replicanti potrebbero consumare enormi quantità di potenza di calcolo e di energia, interrompendo sistemi critici o azzerando la risorse necessarie per le attività umane. E questo lo potrebbero raggiungere solo rimanendo passive, non facendo cioè nulla di attivo contro l’esistenza stesso dell’umanità. Pensate se mettessero le mani – figurativamente si intende – sullo sterminato arsenale oggi esistente di droni e uav, missili e usv…
di Massimo Bolchi