L’uomo spesso citato come il ‘padrino’ dell’intelligenza artificiale ha lasciato Google il primo maggio, adducendo come ragione le gravi preoccupazioni per l’ondata di disinformazione, la possibilità che l’intelligenza artificiale sconvolga il mercato del lavoro e il ‘rischio esistenziale’ posto dalla creazione di una vera intelligenza digitale.
Il dottor Geoffrey Hinton, che insieme a due suoi studenti dell’Università di Toronto aveva costruito una rete neurale nel 2012, ha lasciato Google questa settimana, come ha riportato il New York Times.
Hinton, dell’età di 75 anni, è stato assunto da Google un decennio fa per contribuire allo sviluppo della tecnologia AI dell’azienda e l’approccio da lui sperimentato ha aperto la strada a sistemi attuali come ChatGPT (che si basa proprio sul LLaM di Mountain View, che l’ha reso open source). Interessante ciò che ha raccontato nell’intervista con il quotidiano newyorkese: ha detto di essersi dimesso per poter parlare liberamente dei pericoli dell’intelligenza artificiale e di rimpiangere in parte il contributo che ha dato alla crescita del settore..
Fino all’anno scorso -ha affermato – riteneva che Google fosse stato un ‘amministratore corretto’ della tecnologia dell’AI, ma la situazione è cambiata quando Microsoft ha iniziato a incorporare un chatbot nel suo motore di ricerca Bing e a Google hanno iniziato a preoccuparsi dei rischi per il proprio dominio, fino a quel momento incontestabile, nel search.
Alcuni dei pericoli dei chatbot AI sono ‘spaventosi’, ha dichiarato in un altra intervista alla BBC, avvertendo che l’AI potrebbe diventare più intelligente degli esseri umani e quindi potrebbe essere sfruttata da ‘bad player’.
“È in grado di produrre automaticamente un quantità teoricamente illimitata di testo, quindi potrebbe creare ‘spambot molto efficaci’. Permetterà ai leader autoritari di manipolare i loro elettori, cose del genere”, ha ricordato. Ma, ha aggiunto, è anche preoccupato per il “rischio esistenziale di ciò che accade quando queste cose diventano più intelligenti di noi“.
“Sono giunto alla conclusione che il tipo di intelligenza che stiamo sviluppando è molto diversa da quella che conosciamo“, ha detto. “È come se avessimo 10.000 persone e ogni volta che una persona impara qualcosa, tutti la imparassero e la sapessero automaticamente. Ed è così che questi chatbot possono conoscere molto di più di quanto sia possibile a una singola persona”.
Non è l’unico tra i vertici della ricerca sull’IA a temere che la tecnologia possa nuocere gravemente all’umanità. Il mese scorso Elon Musk ha dichiarato di aver litigato con il cofondatore di Google Larry Page perché quest’ultimo “non prendeva abbastanza sul serio la sicurezza dell’IA”. Musk ha dichiarato a Fox News che Page voleva “una superintelligenza digitale, in pratica un dio digitale, il prima possibile”.
Valérie Pisano, General Manager di Mila – Quebec Artificial Intelligence Institute ha dichiarato al britannico Guardian che l’approccio approssimativo alla sicurezza dei sistemi di IA non sarebbe tollerato in nessun altro campo.
“Questa tecnologia viene messa in campo e, man mano che il sistema interagisce con l’uomo, i suoi sviluppatori aspettano di vedere cosa succede e apportano modifiche sulla base di ciò che rilevano“, ha affermato in una nota. “Non accetteremmo mai, come collettività, questo tipo di mentalità in nessun altro campo industriale”.
La preoccupazione di Hinton – e si sta parlando del breve termini o addirittura di oggi – è che questo sia già diventato realtà: le persone non sono più in grado di discernere ciò che è vero da ciò che è falso, con le foto, i video e i testi generati dall’intelligenza artificiale che inondano Internet. I recenti aggiornamenti dei generatori di immagini come Midjourney consentono di produrre immagini foto-realistiche: una di queste immagini di Papa Francesco, con un cappotto Balenciaga, è diventata virale a marzo. Hinton si è anche detto preoccupato del fatto che l’intelligenza artificiale finirà per sostituire un’infinità di lavori, partendo dagli assistenti personali e arrivando agli avvocati e ai medici.
“Come una delle prime aziende a pubblicare i Principi dell’IA, continuiamo a impegnarci per un approccio responsabile all’IA“, ha ricordato il Chief Scientist di Google, Jeff Dean, mentre salutava il suo collaboratore con un comunicato. Ma Toby Walsh, scienziato capo dell’Istituto AI dell’Università del Nuovo Galles del Sud, ha spiegato che la gente dovrebbe già interrogarsi su tutti i media online che vede ora. Dovrebbero ricordarsi, ha detto, che quando si tratta di dati digitali, audio o video, bisogna avere sempre ben presente l’ipotesi che qualcuno li abbia falsificati.