Interactive

“La GenAI comporta molti rischi per tutte le comunità creative”: lettera aperta di 34 organizzazioni al Governo perché cambi posizione sull’AI Act in vista dell’incontro con il Trilogo il 6 dicembre

EU AI Act

Trentaquattro associazioni di imprese, autori e artisti dell’intero mondo culturale chiedono al Governo a una voce sola che l’Italia cambi posizione sul regolamento sull’Intelligenza artificiale europeo, in vista dell’incontro con il ‘Trilogo’ del 6 dicembre, che avrà all’ordine del giorno il delicato negoziato per approvare l’ Artificial Intelligence (AI) Act, il regolamento europeo che intende stabilire un quadro giuridico per lo sviluppo dell’intelligenza artificiale, compresa quella generativa. Analoghi appelli sono stati firmati da associazioni francesi e tedesche.

Qui di seguito il testo della lettera aperta.

“Le organizzazioni firmatarie rappresentano imprese culturali e creative nei settori dell’audiovisivo, del cinema, della televisione, dei servizi per la valorizzazione e tutela del patrimonio culturale, della musica, dell’editoria libraria e giornalistica nonché diverse centinaia di migliaia di autori ed artisti interpreti che dipendono interamente dalla loro capacità di vendere contenuti, prodotti e servizi basati sul diritto d’autore e di concedere in licenza, controllandone l’utilizzo, le opere realizzate nonché la propria voce, immagine e altri dati personali.

In questi giorni a Bruxelles è in corso un delicato negoziato per approvare l’EU AI Act, il regolamento europeo che intende stabilire un quadro giuridico per lo sviluppo dell’intelligenza artificiale, compresa quella generativa. È una grande opportunità per le industrie culturali e creative che deve essere regolata garantendo al contempo i diritti fondamentali della società e degli individui.

L’AI rappresenta uno straordinario progresso tecnologico con un immenso potenziale per migliorare vari aspetti delle nostre vite, compresi quelli nei nostri settori. Tuttavia, è cruciale riconoscere che, insieme a questi benefici, esiste un lato più oscuro di questa tecnologia. In particolare, l’IA generativa viene addestrata su grandi dataset e ingenti quantità di contenuti protetti dal diritto d’autore e che vengono spesso raccolti e copiati da internet. Essa è programmata per produrre risultati che hanno la capacità di competere con la creazione umana. Questa tecnologia comporta diversi rischi per le nostre comunità creative.

Le opere protette, le voci e le immagini vengono utilizzate senza il consenso dei titolari dei diritti per generare nuovi contenuti. Alcuni di questi utilizzi possono ledere non solo i diritti d’autore ma anche i diritti morali e della personalità degli autori e pregiudicare la loro reputazione personale e professionale. Inoltre, c’è il rischio che il loro lavoro originale degli autori, artisti e delle imprese culturali e creative venga sostituito, costringendoli a competere con le loro repliche digitali che ne ricaverebbero ovvi vantaggi sotto diversi profili con gravi conseguenze anche economiche. Esiste anche un rischio più ampio per la società, poiché le persone potrebbero essere indotte a credere che i contenuti che incontrano – testuali, audio o audiovisivi – siano creazioni umane autentiche e veritiere, quando sono semplicemente il risultato della generazione o manipolazione dell’IA. Questo inganno può avere implicazioni di vasta portata per la diffusione di disinformazione e l’erosione della fiducia nell’autenticità dei contenuti digitali e presenta seri problemi anche sotto il profilo etico

L’IA non può svilupparsi trascurando i diritti fondamentali, come i diritti degli autori e degli interpreti, i diritti sull’immagine e sulla personalità ed i diritti delle molteplici industrie creative e culturali che investono per rendere possibile la creazione di opere sulle quali è legittimo aspettarsi di poter esercitare un controllo. L’IA non dovrebbe mai essere impiegata in modi che possano ingannare il pubblico. L’AI Act deve garantire che sia data assoluta priorità alla massima trasparenza delle fonti utilizzate per addestrarne gli algoritmi, a favore dei creativi e delle industrie che rappresentiamo e più in generale della società europea.

Gli obblighi previsti dovrebbero essere applicati agli sviluppatori e agli operatori di sistemi e modelli di IA generativa a monte e a valle con particolare riferimento all’obbligo di conservare e rendere pubblicamente disponibili informazioni sufficientemente dettagliate sulle fonti, i contenuti e le opere utilizzati per l’addestramento, al fine di consentire alle parti con un interesse legittimo di determinare se e come i loro diritti siano stati lesi e di intervenire.

Questi obblighi devono essere quantomeno estesi a tutti i sistemi resi disponibili nell’UE o che generano output utilizzati nell’UE, commerciali o non commerciali e portare alla presunzione di utilizzo in caso di mancata osservanza consentendo agli aventi diritto di esercitare le proprie prerogative anche per la concessione di licenze.

È cruciale riconoscere che nessuna delle protezioni basate sugli strumenti legali già esistenti nella normativa europea ha la minima possibilità di funzionare se non vengono poste rigorose e specifiche regole di trasparenza a carico degli sviluppatori di IA generativa.

Accogliamo con favore le proposte del Parlamento Europeo di includere requisiti specifici di trasparenza per i modelli di base dell’IA, e apprezziamo lo sforzo della Presidenza spagnola nella ricerca di una soluzione equilibrata, ma è di primaria importanza potenziare ulteriormente queste tutele.

La raccolta di dati e testi per addestrare l’IA era inizialmente consentita a scopi di ricerca e analisi delle tendenze; oggi, ciò è diventato parte integrante della creazione di contenuti: la legislazione deve riflettere questo cambiamento nel regolare e tutelare l’uso di opere protette e dati personali.

Questi obiettivi non possono assolutamente essere raggiunti ammorbidendo la proposta votata dal Parlamento europeo o seguendo ipotesi di autoregolamentazione.

Chiediamo con forza al Governo italiano di sostenere una regolamentazione equilibrata che, garantendo la trasparenza delle fonti, favorisca lo sviluppo delle tecnologie di intelligenza artificiale, tutelando e promuovendo al contempo la creatività umana originale e tutti i contenuti culturali del nostro Paese”.