Interactive

Anche l’Italia ha le sue norme sull’AI: approvato dal Governo il DDL delega sul tema, a un mese di distanza dall’AI Act europeo

Italia AI
di Massimo Bolchi

A poco più di un mese dall’approvazione dell’AI Act europeo, anche l’Italia licenzia la sua norma al riguardo, sotto forma di un DDL licenziato dal Governo. Saggiamente, la norma italiana non ripete pedissequamente quella europea, ma si concentra su alcuni punti chiave, approfondendoli e precisandoli, come fa laddove prende in considerazione i servizi sanitari, o la gestione, affidata congiuntamente a AgID e ACN.

Il disegno di legge si articola in 25 articoli distribuiti in sei capitoli, delineando un quadro normativo complesso che copre vari aspetti dell’AI, dalla ricerca allo sviluppo, dall’adozione all’applicazione. Tra le novità più salienti, si annunciano misure come l’introduzione di un’aggravante specifica per i reati facilitati dall’uso dell’AI, l’implementazione di un sistema di fisco automatizzato, l’istituzione di bollini anti-deepfake per contrastare la disinformazione e la destinazione di fondi, 150 milioni di euro, estratti dall’ultimo decreto-legge legato al Piano nazionale di ripresa e resilienza (Pnrr).

Queste cifre meritano un commento: parlare di milioni in un settore che vede quasi quotidianamente in gioco miliardi fa un po’ sorridere, ma la realtà è questa: l’Italia non ha soldi da spendere, e anche questi pochi milioni sono ‘a debito’ come lo è, per circa il 65%, l’intero PNRR, Sul versante positivo questi ‘pochi’ soldi sono indirizzati a una necessita chiara, cioè combattere la disinformazione, non a non meglio specificati ‘investimenti’ di cui poi si perdono magari le tracce.

Al cuore del disegno di legge c’è la volontà di assicurare che l’AI venga sviluppata ed utilizzata secondo principi di correttezza, trasparenza e responsabilità. L’accento è posto sull’utilizzo ‘antropocentrico’ dell’AI, sottolineando l’importanza di mantenere l’uomo al centro del processo decisionale e garantendo che la tecnologia agisca in modo da supportare, e non soppiantare, la capacità umana di prendere decisioni. Questa è una dichiarazione di principio sicuramente valida e condivisibile, rimane da vedere quanto e come sarà applicata da una tecnologia che ogni giorno conquista nuovi spazi di implementazione.

Ma guardiamo i punti salienti dal DDL. Innanzitutto la Difesa, che viene esclusa dalle applicazioni di questa norma: un considerazione di sano realismo, se non vogliamo amputare da subito le applicazioni militari dell’AI, che le varie potenze mondiali stanno sviluppando senza preoccuparsi troppo delle ricadute in termini di privacy delle loro azioni.

Poi la sanità, cui sono dedicati tre articoli, dal 7 al 9, del DDL evidenziando come debba essere inclusiva e non penalizzate, vietando l’uso dell’AI per discriminare l’accesso alle cure. Viste la chilometriche liste d’attesa e le responsabilità delle varie regioni per gli investimenti, un approccio centralizzato potrebbe essere una valida alternativa, ma le indicazioni specifiche latitano, la di là del fascicolo sanitario per tutti.

Le altre sono indicazioni di principio, dal “l’interessato ha diritto di essere informato circa l’utilizzo di tecnologie di intelligenza artificiale e sui vantaggi, in termini diagnostici e terapeutici, derivanti dall’utilizzo delle nuove tecnologie, nonché di ricevere informazioni sulla logica decisionale” al “i sistemi di intelligenza artificiale nell’ambito sanitario costituiscono un supporto nei processi di prevenzione, diagnosi, cura e scelta terapeutica, lasciando impregiudicata la decisione, che è sempre rimessa alla professione medica’ fino al ‘i sistemi di intelligenza artificiale utilizzati nell’ambito sanitario e i relativi dati impiegati devono essere affidabili e periodicamente verificati e aggiornati al fine di minimizzare il rischio di errori”. Si evitano commenti e raffronti con l’attuale sanità nazionale organizzata su basi regionali, dove persone, da nord a sud, passano giornate sulle barelle per carenza dei letti.

Più puntuali le norme relative al lavoro, a partire dall’esordio: “L’intelligenza artificiale è impiegata per migliorare le condizioni di lavoro, tutelare l’integrità psico fisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone in conformità al diritto dell’Unione europea” e a seguire una serie di norme e di indicazione per addivenire a questo scopo. Arrivando anche a specificare che “per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo” e a istituire, a cura del Ministero del Lavoro, di un “Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro, con il compito tra le altre cose, di promuovere la formazione dei lavoratori e dei datori di lavoro in materia di intelligenza artificiale”. Peccato non affronti praticamente – né potrebbe affrontare in punta di diritto – il problema delle decine di migliaia di layoff che sono stati prodotti nelle Big Tech (e a cascata anche nella altre aziende) dell’adozione di sistemi basati sull’AI anche in funzioni credute erroneamente al sicuro da questa rivoluzione.

Per chiudere, le norme relative all’utilizzo dell’intelligenza artificiale nell’attività giudiziaria, limitate, per fortuna e per ora (considerando le non rare ‘allucinazioni’), all’organizzazione e la semplificazione del lavoro giudiziario nonché per la ricerca giurisprudenziale e dottrinale, mentre “è sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento”.