Interactive

L’Italia presenta, prima in Europa, un disegno di legge per regolamentare l’AI. Ma gli investimenti previsti rimangono insufficienti

AI Rules
di Massimo Bolchi

Una volta tanto, l’Italia si è posizionata chiaramente nel panorama globale ‘con l’approvazione di una legge nazionale dedicata alla regolamentazione dell’intelligenza artificiale (AI)’? No, non è così, nonostante gli innumerevoli titoli dei quotidiani che hanno sintetizzato in tal maniera gli avvenimenti politici degli ultimi giorni.

In effetti è stato approvato dal Governo un disegno di legge, cioè una proposta destinata a essere analizzata dai vari organi legislativi competenti e, se consegue le prescritte maggioranze, a tradursi in legge. Quindi siamo ancora ai primi passi del non breve percorso che darà vita (forse) alla normativa nazionale sull’AI. Siamo il primo Paese dell’Unione a farlo, e questo è sicuramente un vanto, purché si evitino incidenti lungo il tragitto, perché – essendo il disegno di emanazione governativa – non è stata ancora raggiunta una visione bipartizan del tema, che dovrebbe essere tutt’altro che divisivo, visto che a livello europeo è già stata approvata una norma che ciascun paese della UE dovrà recepire nei suoi ordinamenti.

Il DdL italiano sull’AI mira a stabilire un quadro di sicurezza e trasparenza, assicurando che lo sviluppo e l’impiego dell’AI avvengano nel rispetto dei diritti fondamentali e della dignità umana. Questo include l’implementazione di standard per la protezione dei dati, l’equità, la non discriminazione e la trasparenza delle decisioni automatizzate. Inoltre, la legge porrà un’enfasi particolare sulla creazione di un ambiente favorevole all’innovazione, promuovendo la ricerca e lo sviluppo nel settore.

Fin qui siamo nel campo delle belle parole, premesse indispensabili per recepire la legge europea, che è all’avanguardia nel mondo in termini di regole, con alcune specificità proprie della norma nazionale. Entrambe le norme definiscono quattro categorie di sistemi di AI basati sul livello di rischio: Inaccettabile, che sono vietati (es. sistemi di selezione del credito basati sulla razza); Alto, soggetti a requisiti di conformità stringenti e supervisione da parte delle autorità (es. sistemi di riconoscimento facciale per le forze dell’ordine); Limitato, con obblighi di trasparenza e garanzie per gli utenti (es. chatbot); e infine Minimo, che non prevede nessun requisito specifico.

Fin qui si tratta del recepimento passivo delle norme europee, ma la norma nazionale si concentra su alcune aree specifiche, come l’AI nel settore pubblico, nel settore sanitario e nel settore lavorativo. Le norme intervengono infatti in cinque ambiti: la strategia nazionale, le autorità nazionali, le azioni di promozione, la tutela del diritto di autore, le sanzioni penali. Si prevede, inoltre, una delega al governo per adeguare l’ordinamento nazionale al Regolamento UE in materie come l’alfabetizzazione dei cittadini in materia di AI (sia nei percorsi scolastici che in quelli universitari) e la formazione da parte degli ordini professionali per professionisti e operatori. Quanto alle sanzioni erogabili, mentre il Regolamento UE prevede sanzioni amministrative fino a 30 milioni di euro o il 6% del fatturato globale annuo per le violazioni più gravi, la Legge italiana prevede sanzioni amministrative fino a 5 milioni di euro.

Infine si istituiscono le Autorità nazionali per l’intelligenza artificiale, disponendo l’affidamento all’Agenzia per l’Italia digitale (AgID) e all’Agenzia per la cybersicurezza nazionale (ACN) del compito di garantire l’applicazione e l’attuazione della normativa nazionale e dell’Unione europea in materia di AI. AgID e ACN, ciascuna per quanto di rispettiva competenza, devono assicurare l’istituzione e la gestione congiunta di spazi di sperimentazione finalizzati alla realizzazione di sistemi di intelligenza artificiale conformi alla normativa nazionale e dell’Unione europea. Forse qui si sarebbe potuto far meglio: la duplicazione di competenze è teoricamente foriera di inutili contenziosi per stabilire ‘chi fa che cosa’ che forse una direzione centralizzata avrebbe potuto evitare, a patto però di non mettere in piedi l’ennesimo ente burocratico, di cui si avevano avute le primi avvisaglie con la nascita della Commissioni Butti e Barachini.

Gli investimenti previsti dal DdL ammontano complessivamente a un miliardo di euro, nei settori dell’intelligenza artificiale, della cybersicurezza e del quantum computing al fine di favorire lo sviluppo, la crescita e il consolidamento delle imprese operanti in tali settori.

Questo ammontare, che suona ‘rotondo’ come il favoloso milione del sig. Bonaventura, è purtroppo inadeguato per affrontare un mercato globale dove le cifre in gioco sono ben più alte. Basti pensare alla scale degli investimenti effettuati da aziende con Microsoft, Google o Meta, per rendersi conto che servirebbero investimenti incrementati almeno di un fattore dieci. Ma queste cifre sono inavvicinabili per i singoli paesi europei, anche quando – come la Francia con Mistral AI – imboccano una strada diversa e promettente.

Sul fronte delle regole in Europa siamo all’avanguardia, ma – a meno di non voler ridursi a essere i ‘regolatori’ di altri continenti – servirebbe uno sforzo collettivo di tutti i paesi per costruire almeno un ‘campione nazionale’ (che sarebbe campione europeo nel caso specifico) per battersi ad armi pari con Stati Uniti e Cina (e presto India, permeata dal nazionalismo indù) nello sviluppo dell’AI e delle sue app.