Interactive

Germania, Francia e Italia contro la UE su come normare la GenAI: meglio un approccio ‘risk-based’ alle singole soluzioni specifiche, invece di affrontare i foundation models

Unione Europea
di Massimo Bolchi

Francia, Germania e Italia avrebbero raggiunto un accordo informale sulle modalità di regolamentazione dell’intelligenza artificiale (AI), che dovrebbe a sua volta accelerare i negoziati a livello europeo.

Mentre la Commissione europea, il Parlamento europeo e il Consiglio dell’UE stanno negoziando il posizionamento dell’intera UE con l’AI Act, i tre governi sarebbero a favore di impegni volontari (non si sa ancora se ad interim o in via definitiva), vincolanti per i fornitori di AI che li sottoscrivono.

I negoziati per la prima AI Act al mondo erano stati interrotti dalla tumultuosa diffusione di ChatGPT, un tipo versatile di sistema di AI noto come General Purpose AI, costruito sul potente modello di base GPT-4 di OpenAI. All’inizio di novembre era stato riferito che l’intera legislazione era a rischio in seguito alla crescente opposizione della Francia, che ha poi ottenuto il sostegno di Germania e Italia nella sua spinta contro qualsiasi regolamentazione sui foundation models.

Durante le discussioni di giugno, il Parlamento europeo aveva proposto che il codice di condotta fosse inizialmente vincolante solo per i principali fornitori di IA, sostanzialmente tutti statunitensi. I tre governi dell’UE avevano ribattuto che questo apparente vantaggio competitivo per i fornitori europei (più piccoli) avrebbe portato con sé lo svantaggio di ridurre la fiducia nei loro confronti, con conseguente diminuzione dei clienti. Le regole di condotta e trasparenza sarebbero dovute essere vincolanti per tutti.

I tre Paesi sostengono che sarebbe più opportuno regolamentare i sistemi di General Purpose AI disponibili per applicazioni specifiche, invece dei foundation models, con un approccio risk-based. Per attuare questo approccio, Parigi, Berlino e Roma propongono che gli sviluppatori di foundation models debbano definire una documentazione tecnica che riassuma le informazioni sui modelli addestrati.

“La definizione di schede modello e la loro disponibilità per ogni foundation model costituisce l’elemento obbligatorio di questa autoregolamentazione“, si legge nel documento informale rilasciato, sottolineando che tali schede dovranno includere le informazioni rilevanti sulle capacità e sui limiti del modello e basarsi sulle migliori pratiche all’interno della comunità degli sviluppatori. Gli esempi forniti includono il numero di parametri, gli usi previsti, le potenziali limitazioni, i risultati degli studi sulle distorsioni e il red-teaming per la valutazione della sicurezza.

Il ‘non-paper’ (documento informale) propone che l’organismo di governance dell’AI possa contribuire allo sviluppo di linee guida e al controllo dell’applicazione delle schede dei modelli, fornendo un modo semplice per segnalare eventuali violazioni del codice di condotta. Secondo il documento, inizialmente non dovrebbero essere imposte sanzioni, tuttavia, se dopo un certo periodo di tempo venissero individuate troppe violazioni del codice di condotta, si potrebbe istituire un sistema di sanzioni in grado di intervenire efficacemente.