L’Unione europea ha compiuto ieri un passo importante verso l’approvazione di una delle prime leggi al mondo che regolamentano l’intelligenza artificiale, dopo che il suo principale ramo legislativo ha approvato il testo di un progetto di legge che include il divieto assoluto per la polizia di utilizzare la tecnologia di riconoscimento facciale in tempo reale nei luoghi pubblici. Il Parlamento europeo ha infatti approvato le norme volte a stabilire uno standard globale per la tecnologia, che cerca di comprendenre ogni aspetto, dalle diagnosi mediche automatizzate ad alcuni tipi di droni, dai video generati dall’AI noti come deepfakes ai bot come ChatGPT. Gli eurodeputati dovranno ora definire i dettagli con i Paesi dell’UE prima che la bozza di norme – nota come AI act – diventi legge.
“L’IA solleva molte questioni dal punto di vista sociale, etico ed economico. Ma non è questo il momento di premere un ‘pulsante di pausa’. Al contrario, si tratta di agire rapidamente e di assumersi le proprie responsabilità“, ha dichiarato in un comunicato Thierry Breton, commissario europeo per il mercato interno.
Il voto finale sulla proposta legislativa è stato di 499 favorevoli, 28 contrari e 93 astensioni; si prevede che i leader europei si opporranno a un divieto totale della biometria, con le forze di polizia di tutto il continente desiderose di sfruttare il potenziale di riconoscimento dei criminali quando camminano per strada o nelle aree pubbliche. Il PPE ha già fatto sapere che questa tecnologia potrebbe essere di vitale importanza nella lotta al crimine e nell’intelligence antiterrorismo, oltre che nella ricerca di bambini scomparsi. Il riconoscimento emotivo, utilizzato in alcune zone della Cina per identificare i camionisti stanchi, sarà vietato anche nei luoghi di lavoro e nelle scuole.
Per combattere l’elevato rischio di violazione del diritto d’autore, la legislazione obbligherà gli sviluppatori di chatbot AI a pubblicare tutti i lavori di scienziati, musicisti, illustratori, fotografi e giornalisti utilizzati per addestrarli. Dovranno inoltre dimostrare che tutto ciò che hanno fatto per addestrare la macchina è conforme alla legge. Se non ottemperassero, potrebbero essere costretti a cancellare immediatamente le applicazioni o essere multati fino al 7% delle loro entrate, il che potrebbe arrivare a centinaia di milioni di euro per i giganti tecnologici. “La proposta di legge prevede sanzioni efficaci”, ha sottlìolineato il membro del parlamento Tudorache.
Anche al di là dell’Atlantico si sta facendo sempre più strada la richiesta di regolamentare l’IA, mentre cresce la pressione sui governi occidentali affinché agiscano rapidamente in quella che alcuni descrivono come una battaglia per proteggere l’umanità. Mentre i sostenitori dell’IA sostengono i progressi tecnologici per il modo in cui trasformeranno la società, compreso il lavoro, l’assistenza sanitaria e le attività creative, altri sono preoccupati dal suo potenziale di minare la democrazia.
Anche se l’ambizioso obiettivo dell’UE di raggiungere un accordo sulla legge entro la fine dell’anno dovesse essere raggiunto, la legge entrerebbe in vigore non prima del 2026, costringendo l’UE a spingere per un patto intermedio volontario con le aziende tecnologiche.
Margrethe Vestager, capo dell’antitrust dell’UE, ha dichiarato ai giornalisti presenti a Bruxelles che si potrebbe ancora trovare un equilibrio, dato che il parlamento riflette coloro che sostengono un divieto per motivi di principio legati alla privacy e altri che hanno un “approccio leggermente più pragmatico o orientato alla sicurezza”.
Ma che cosa prevede più specificamentequesta bozza? Obblighi e divieti per i fornitori e gli operatori del settore, oltre a proibire i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, ad esempio le applicazioni di social credit, utilizzate per la classificazione del comportamento dei cittadini
Il Parlamento Ue ha provveduto a vietare gli usi intrusivi e discriminatori dell’intelligenza artificiale: tra questi, i sistemi di identificazione biometrica remota ‘in tempo reale’ e ‘a posteriori’ negli spazi pubblici e i software di categorizzazione biometrica basati su caratteristiche sensibili (il genere, l’etnia, la religione e l’orientamento politico)
È vietata anche l’estrazione non mirata di dati biometrici da Internet o dai video delle telecamere a circuito chiuso: tecnologia che viene impiegata con l’obiettivo di creare database di riconoscimento facciale, ma che in realtà viola i diritti umani e il diritto alla privacy. Nella lista ad alto rischio compaiono anche i programmi adoperati per influenzare gli elettori e l’esito delle elezioni, insieme ai sistemi di raccomandazione utilizzati dalle piattaforme social che vantano oltre 45mila utenti
La legge proposta, tuttavia, presenta numerose lacune e alcune eccezioni, che limitano la capacità di garantire che l’IA rimanga una forza positiva nell’esistenza di tutti. Attualmente, ad esempio, il riconoscimento facciale da parte della polizia è vietato a meno che le immagini non vengano catturate con un certo ritardo o che la tecnologia venga utilizzata per trovare bambini scomparsi. Inoltre, la legge è poco flessibile. Se tra due anni un’applicazione AI pericolosa verrà utilizzata in un settore imprevisto, la legge non prevede alcun meccanismo per etichettarla come ‘ad alto rischio’, né per imporre le relativa sanzioni.