Che gli attori e gli autori (di Hollywood per il momento) siano preoccupati – eufemismo – per l’impatto che l’intelligenza artificiale generativa avrà, o meglio ancora, sta avendo sul loro futuro futuro è un fatto ormai assodato. Il lunghissimo sciopero delle produzioni cinematografiche e televisive, e più ancora i primi esempi pratici, sono esemplificativi in tal senso.
E non si tratta solo di qualche pubblicità, che pure rappresenterebbe un argomento complesso da dibattere, perché il primo esempio vedeva in gioco un celebre attore che non è più in grado di recitare perché colpito da demenza fronto-temporale: in questo caso Bruce Willis aveva ceduto a una sofware house la propria immagine per ricavare uno spot, uno soltanto hanno fatto sapere fonti vicine all’attore, per un società di TLC mobili, da trasmettersi in Russia.
Ma a questa prima ‘incursione’ legale nel mondo delle fake image sono succedute altre, sulla cui legalità è lecito far sorgere più di qualche dubbio: è di pochi giorni fa la notizia di Tom Hanks che ha denunciato ai media internazionali l’abuso da parte di una società californiana che, utilizzando l’intelligenza artificiale, si è realizzata, illegittimamente, uno spot con protagonista proprio la superstar di Hollywood allo scopo di promuovere un suo programma dentale.
Poco tempo prima, in mossa che sa tanto di anticipazione del futuro, è stata Keira Knightley far sapere urbis et orbis la sua intenzione di porre ‘sotto copyright’, come si dice, i diritti sulla propria immagine, per evitare future manipolazioni della stessa. Ma in questo caso si rischia di dover aprire un contenzioso legale in ognuno dei quasi 200 paesi del globo.
Ma il ‘rischio AI’ non è limitato all’immagine: anche il 91enne James Earl Jones ha ceduto i diritti sulla sua iconica voce, quella di un protagonista di ‘Star Wars’, perché fosse riprodotta artificialmente e inserito nella produzione di Disney+ ‘Obi Wan Kenobi’. Un’altro ambito di attività a disposizione delle società di sviluppano l’AI: il voice deep fake, sia pure autorizzato, in questo caso per lo meno.
Sono i primi passi dell’AI in un mondo diverso da quello attuale, limitato a fake image generate al computer che possono essere utilizzate per creare rappresentazioni realistiche di persone, luoghi e cose, utilizzate nei film solo per creare effetti speciali. Questo viene accettato: allora dove fissare il confine tra etico e non etico?
Perché l’AI, una volta liberata, non si può ‘reinscatolare’ tanto facilmente. Già sono diffuse le canzoni cantate delle voci artificiali di Beyoncè e Taylor Swift e di tanti altri, e l’industria delle musica, faticosamente rimessasi in piedi dopo la comparsa dello streaming audio, trema all’idea di dover ricercare un nuovo equilibrio.
Che questa sia la situazione lo confermano i colloqui in corso tra Google, che a gennaio ha introdotto MusicLM, e Universal, forse la più grande tra le major della musica, in cui si dà quasi per scontato l’intervento della AI per ‘inventare’ canzoni, e si tratta al massimo sul ‘quantum’ economico da riconoscere ai singoli artisti che vengono ‘imitati’. Egual sorte toccherà a Meta, con il suo software AudioCraft che ha iniziato a operare all’inizio di agosto, e le tante aziende che si stanno ‘buttando’ sulla AI generativa musicale.
Situazione complicata anche da autori musicale celebri: Sir Paul McCartney ha annunciato che avrebbe pubblicato l’‘ultima’ canzone dei Beatles, usando l’intelligenza artificiale per estrarre la voce di John Lennon da una registrazione demo e completando la canzone più di 40 anni dopo la morte del Beatle. E anche Grimes ha twittato che avrebbe diviso i profitti con chiunque avesse realizzato una canzone generata dall’intelligenza artificiale usando la sua voce, anche se poi ha ritrattato l’offerta.
Cresce nel frattempo la consapevolezza delle implicazioni etiche dell’AI, e questo potrebbe portare anche a un maggiore controllo dell’uso di AI nella produzione di video e musica, e in generale in tutti i possibili utilizzi: i regolamenti tarderanno qualche anno, come ad esempio l’AI Act della UE che prevede che ogni utilizzo dell’AI sia chiaramente indicato – attualmente la ‘Scheda Informativa’ del Garante della Privacy italiano è un elenco di comportamenti corretti e messe in guardia che non prevede sanzioni – e anche le Big Tech, come abbiamo accennato, si stanno faticosamente organizzando in materia, benché non manchi chi, come Stuart Russell, informatico britannico di fama mondiale che ha condotto ricerche sull’IA per decenni, sostenga che le Big Tech e il settore tecnologico in senso lato hanno ostacolato la regolamentazione per così tanto tempo che i funzionari addetti ora “corrono in giro come polli senza testa”. Non proprio un benaugurante viatico per le regolazioni prossime venture.
Nel frattempo, nascono ulteriori potenzialità per le immagini e per le voci riprodotte dall’AI in altri ambiti. Quando l’anno scorso alcuni ricercatori cinesi hanno creato la Emotional Chatting Machine, il 61% delle persone che l’hanno testata ha preferito le versioni emozionali a quelle piatte. I brand che cercano di suscitare le giuste reazioni, in particolare attraverso la voce, dovranno quindi confrontarsi con questa nuova esigenza di un contatto più umano con i consumatori su tutti i canali. Basti pensare a George Clooney, la ‘voce’ di Nespresso, che – immaginiamo un futuro possibile – risponde ai clienti del customer care e li invita a fidarsi dell’addetto Mike (o Michele, o qualsiasi altro nome) che risolverà i loro problemi in maniera veloce e sicura. Quanto manca perché questo diventi realtà?