di Massimo Bolchi
E alla fine l’AI Act è stato definitivamente approvato: poche ore fa il Consiglio Europeo – dopo il Parlamento e la Commissione – ha compiuto l’ultimo passo necessario alla promulgazione della legge che mira ad armonizzare le norme sull’intelligenza artificiale. Questa legislazione segue un approccio ‘basato sul rischio’, il che significa che più alto è il rischio di causare danni alla società, più severe sono le regole, definendo così uno standard globale per la regolamentazione dell’AI. Ora c’è solo da aspettare la pubblicazione sulla Gazzetta Ufficiale della UE per diventare norma europea a tutti gli effetti.
Come già anticipato, la nuova legge mira a promuovere lo sviluppo e l’adozione di sistemi di AI sicuri e affidabili nel mercato unico dell’UE da parte di soggetti pubblici e privati, garantendo allo stesso tempo il rispetto dei diritti fondamentali dei cittadini dell’UE. La norma inoltre vuole stimolare gli investimenti e l’innovazione sull’intelligenza artificiale in Europa e si applica solo ai settori che rientrano nel diritto dell’UE, prevedendo esenzioni, ad esempio, per i sistemi utilizzati esclusivamente per scopi militari e di difesa e per la ricerca.
Infatti i sistemi di AI che presentano solo un rischio limitato sono soggetti a obblighi di trasparenza molto leggeri, mentre i sistemi di AI ad alto rischio potrebbero essere autorizzati, ma a fronte di una serie di requisiti e obblighi per accedere al mercato dell’UE. I sistemi di AI come la manipolazione cognitiva del comportamento e il social scoring saranno invece banditi dall’UE perché il loro rischio è considerato inaccettabile. La legge vieta anche l’uso dell’AI per la polizia predittiva basata sulla profilazione, nonché i sistemi che utilizzano dati biometrici per classificare le persone in base a categorie specifiche come razza, religione o orientamento sessuale.
Il regolamento prevede anche una maggiore trasparenza per quanto riguarda lo sviluppo e l’utilizzo dei sistemi di AI ad alto rischio, che dovranno essere registrati nell’UE data bank per le high risk AI, mentre per l’uso di sistemi di riconoscimento emozionale sarà obbligatorio informare le persone esposte. La legge prevede anche l’uso di modelli per scopi generali (GPAI), e quelli che non presentano rischi sistemici saranno soggetti a requisiti limitati, ad esempio per quanto riguarda la trasparenza, ma quelli che presentano rischi sistemici dovranno rispettare regole più severe.
Le sanzioni per infrazioni alla legge sull’AI sono fissate come una percentuale del fatturato annuo globale dell’azienda trasgressore nell’esercizio finanziario precedente o di un importo predeterminato, a seconda di quale sia più alto. Le PMI e le start-up sono soggette a sanzioni amministrative proporzionali.
A complicare però la situazione, sotto l’aspetto puramente ‘tassonomico, vi è però il Consiglio d’Europa che ha dato il via libera, il 17 maggio, alla sua ‘Convention on artificial intelligence and human rights, democracy, and the rule of law’, probabilmente per puntare – una forma di concorrenza quato meno discutibile – ad essere il primo organismo a deliberare in merito.
“La nostra organizzazione ha dimostrato in molte occasioni la sua capacità di essere pioniera di nuovi standard, che sono poi diventati punti di riferimento globali. Stiamo affrontando il tema dell’intelligenza artificiale in linea con questa prassi, utilizzando un approccio multistakeholder con altre organizzazioni internazionali, la società civile, le imprese e il mondo accademico”, ha commentato il risultato ottenuto Marija Pejčinović Burić, Segretaria Generale del Consiglio. “L’adozione da parte del Comitato dei Ministri della Convenzione quadro sull’intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto è un risultato straordinario”.
“Questo strumento globale, giuridicamente vincolante, è il primo nel suo genere”, ha proseguito la Segretaria. “Concepito per garantire che l’intelligenza artificiale rispetti gli standard comuni in materia di diritti umani, democrazia e Stato di diritto, riduce al minimo il rischio di compromissione di questi ultimi”.
Il nuovo trattato è aperto anche ai Paesi extraeuropei e definisce un quadro giuridico che copre l’intero ciclo di vita dei sistemi di AI e affronta i rischi che essi possono comportare, promuovendo al contempo un’innovazione responsabile.
Come è noto, il Consiglio d’Europa non è un’organizzazione della UE, raggruppa 46 Nazioni ed è stato fondato a Londra il 5 maggio 1949: sono stati i Ministri degli affari esteri ad aver firmato il trattato sull’AI. Trattato che è il il risultato di due anni di lavoro di un organismo intergovernativo, il Comitato sull’Intelligenza Artificiale (CAI), che ha riunito i 46 Stati membri del Consiglio d’Europa, l’Unione Europea e 11 Stati non membri (Argentina, Australia, Canada, Costa Rica, Santa Sede, Israele, Giappone, Messico, Perù, Stati Uniti d’America e Uruguay), oltre a rappresentanti del settore privato, della società civile e del mondo accademico, che hanno partecipato come osservatori.
Il trattato copre l’uso dei sistemi di AI nel settore pubblico e nel settore privato. La Convenzione offre alle parti due modi per conformarsi ai suoi principi e obblighi nella regolamentazione del settore privato: le parti possono scegliere di essere direttamente obbligate dalle disposizioni della Convenzione o, in alternativa, adottare altre misure per conformarsi alle disposizioni del trattato, rispettando pienamente i loro obblighi internazionali in materia di diritti umani, democrazia e stato di diritto. Questo approccio, secondo il Consiglio d’Europa, è necessario a causa delle differenze tra i sistemi giuridici di tutto il mondo.