di Monica Gianotti
DigitalEurope ha pubblicato una lettera aperta indirizzata al trilogo (Parlamento europeo, Consiglio dell’Unione europea e Commissione europea), firmata da 32 associazioni digitali nazionali, per chiedere che con l’AI Act non venga fermato lo sviluppo dell’Intelligenza Artificiale in Europa e si dia all’industria europea la possibilità di affrontare ad armi pari i concorrenti globali. La riportiamo di seguito.
“Mentre l’AI Act si avvicina alle ultime settimane di negoziazione, rimangono due punti di stallo”, scrivono i sottoscrittori. “In primo luogo, la gestione dei modelli di fondazione (Foundation Models) e dell’intelligenza artificiale generica (General Purpose Artificial Intelligence – GPAI). In secondo luogo, il rischio di disallineamento con la legislazione settoriale già esistente”.
“Solo l’8% delle aziende europee utilizza l’IA, ben lontano dall’obiettivo del 75% fissato dalla Commissione per il 2030. Ma la competitività e la stabilità finanziaria dell’Europa dipendono in larga misura dalla capacità delle aziende e dei cittadini europei di impiegare l’IA in settori chiave come la tecnologia verde, la salute, il settore produttivo o l’energia.
Affinché l’Europa diventi una potenza digitale globale, abbiamo bisogno di aziende in grado di guidare l’innovazione dell’IA anche utilizzando modelli di fondazione e GPAI. Noi, i 33 sottoscritti rappresentanti dell’industria digitale europea, vediamo un’enorme opportunità nei modelli di fondazione e nei nuovi attori innovativi che stanno emergendo in questo spazio, molti dei quali nati qui in Europa. Non regolamentiamo la loro esistenza prima che abbiano la possibilità di crescere, né costringiamoli ad andarsene.
Per quanto riguarda l’ambito di applicazione, i dati della Commissione stessa mostrano che, per una PMI di 50 dipendenti, l’immissione sul mercato di un singolo prodotto abilitato all’IA potrebbe comportare, nell’ambito dell’AI Act, costi di conformità ben superiori a 300mila euro. È fondamentale ridurre il più possibile questo costo e lasciare che e lasciare che le PMI applichino le GPAI, i modelli di fondazione e altre nuove tecnologie emergenti di IA nelle loro innovazioni.
Per questo motivo sosteniamo le recenti iniziative degli Stati membri volte a limitare i modelli di fondazione al rispetto degli standard di trasparenza. La legge sull’IA non deve regolamentare ogni nuova tecnologia e pertanto sosteniamo con forza l’ambito di applicazione originario del regolamento, che si concentra sugli usi ad alto rischio e non su tecnologie specifiche.
Inoltre, settori chiave europei sono già fortemente regolamentati ed è imperativo chiarire ed eliminare eventuali sovrapposizioni e conflitti con la legislazione settoriale esistente, come ad esempio il Regolamento sui dispositivi medici.
Le nostre raccomandazioni
- L’approccio basato sul rischio deve rimanere al centro della legge sull’AI: è fondamentale per garantire che il quadro normativo sia neutrale dal punto di vista tecnologico e si concentri sui casi d’uso veramente ad alto rischio – senza considerare ad alto rischio tutti i software di IA privi di scopo previsto.
- Le lacune normative sono destinata ad aggravarsi a livello settoriale, come quello ‘heathcare’. Dovremmo allinearci meglio con l’attuale e completa legislazione dell’UE in materia di sicurezza dei prodotti per affrontare i requisiti conflittuali e le sovrapposizioni evitando interruzioni in quadri settoriali già ben consolidati.
- Per regolamentare le GPAI e i modelli di fondazione è necessario concentrarsi sulla condivisione delle informazioni, sulla cooperazione e sul supporto alla conformità lungo tutta la catena del valore.
- Il quadro globale dell’UE per la protezione e l’applicazione del diritto d’autore contiene già disposizioni che possono contribuire ad affrontare le questioni di copyright legate all’IA”.