Interactive

‘AI responsabile’ in dirittura d’arrivo. Nello scenario europeo, le aziende italiane sono le più pronte alla regolamentazione, secondo l’analisi di BCG

ai bcg

In quadro normativo dell’intelligenza artificiale (AI) si presenta in continua evoluzione: 60 Paesi e territori nel mondo stanno cominciando ora a disegnarlo per l’utilizzo dell’intelligenza artificiale, con oltre 800 misure in analisi.

A tal proposito, lo studio di BCGFive Ways to Prepare for AI Regulation’, chiarisce che il modo migliore che le aziende hanno per affrontare le regolamentazioni è implementare un programma di Intelligenza Artificiale Responsabile (RAI), fondato cioè su principi volti a garantire la responsabilità, la trasparenza, la privacy e la sicurezza, nonché l’equità e l’inclusione nel modo in cui si sviluppano e si utilizzano gli algoritmi.

L’AI Act europeo, sebbene ancora in fase di proposta, è l’esempio del primo regolamento che istituisce un quadro giuridico volto a regolare lo sviluppo, la commercializzazione e l’uso dell’intelligenza artificiale in conformità con i valori e i diritti costituzionali dell’UE. La proposta di regolamentazione stabilisce delle regole per l’immissione sul mercato e per l’uso dei sistemi di intelligenza artificiale, vieta pratiche come la sorveglianza biometrica di massa e la valutazione del credito basata sul social scoring e propone sanzioni pecuniarie per un massimo del 6% del fatturato alle aziende che attuano pratiche vietate. L’Italia, nello specifico, ha lanciato il ‘Programma strategico per l’intelligenza artificiale 2022-2024‘, che delinea 24 politiche per accelerare l’innovazione e le potenzialità dell’AI nel tessuto economico e sociale del Paese.

“L’intelligenza artificiale responsabile è valutata da molti esclusivamente in ottica di compliance, mentre in realtà rappresenta un insieme di fattori abilitanti verso l’innovazione”, spiega in una nota Enzo Barba, Partner di BCG X, divisione della società di consulenza specializzata sull’AI. “Le iniziative RAI possono infatti rappresentare il quadro di riferimento sia per chi crea strumenti di intelligenza artificiale sia per chi li utilizza, aiutando entrambe le parti a confrontarsi positivamente con la regolamentazione. Questo aspetto è rilevante soprattutto per le aziende italiane che si trovano ad operare in un contesto regolamentare molto attento alle dinamiche di sviluppo delle nuove tecnologie e del loro impatto sulla privacy degli utenti – basti pensare al blocco di ChatGPT da parte del Garante della Privacy: anche se l’accesso è stato riattivato a fine aprile, questa iniziativa potrebbe fare da apripista per i lavori di una task force europea sul tema. Definire un quadro comune e condiviso potrebbe quindi richiedere del tempo, ma le aziende possono contribuire a plasmare il panorama normativo piuttosto che esserne sopraffatte, se si attivano nell’immediato”.

La corsa alla regolamentazione dell’AI, sia da parte dei governi sia delle imprese, non è una sorpresa, eppure, dal Digital Acceleration Index (DAI) di BCG, l’indagine globale e annuale condotta su 2.700 dirigenti nel mondo ormai alla sesta edizione, emerge che solo il 28% di essi afferma che la propria organizzazione è pienamente preparata ad affrontare le nuove normative AI. L’Italia si dimostra invece più pronta, con il 49% di dirigenti che si dicono convinti della necessità di una regolamentazione per l’uso dell’AI, contro la media europea del 35%. Il 34% dei dirigenti afferma inoltre di avere già un Chief AI operativo all’interno della propria organizzazione.

CS AI regulation BCG 2023

Per le aziende, quindi, è fondamentale cogliere velocemente il momento per plasmare il panorama di riferimento, ma la maturità in tema RAI non può che corrispondere alla maturità digitale e alcune aziende risultano più avanti di altre. Quelle classificate nel quartile superiore del Digital Acceleration Index, infatti, hanno quasi 6 volte più probabilità di essere pienamente preparate alla regolamentazione dell’AI rispetto a quelle che si trovano nel quartile inferiore, mostrando una maggiore capacità di adattamento.

A livello globale, i settori delle telecomunicazioni, del tech e dei beni di consumo hanno riportato i livelli più alti di preparazione, mentre il settore dell’energia e quello pubblico sono in coda. In Italia la situazione cambia: le aziende del settore energetico risultano essere le più preparate alla regolamentazione AI (89%), insieme alle realtà finanziarie (87.5%) e tecnologiche (83%). In coda, invece, i settori assicurativo e dei beni di consumo.

Per implementare programmi di intelligenza artificiale responsabile non esiste un approccio universale, ma BCG individua alcune leve fondamentali per le aziende.

È necessario che la leadership sia responsabilizzata: un leader di AI responsabile, che conosce le politiche e le esigenze aziendali e che si avvale di un team interfunzionale, sa mettere a punto strategie che generano benefici dall’AI, oltre che saper garantire la conformità alle normative emergenti.

È poi importante costruire e diffondere in azienda un quadro etico dell’AI per assicurarsi di soddisfare i nuovi requisiti senza ostacolare obiettivi e investimenti. Due terzi delle aziende che hanno partecipato all’indagine sui livelli di maturità digitale (DAI), stanno già compiendo passi importanti verso la creazione di un quadro di riferimento di questo tipo, ad esempio garantendo che gli sviluppatori comprendano fin dall’inizio gli obiettivi di un sistema e i risultati che esso genera, ma anche informando gli utenti su come i sistemi di AI utilizzano i loro dati.

Un altro elemento cruciale è il coinvolgimento umano nei processi e nelle piattaforme di AI: anche in questo caso le aziende più mature dal punto di vista digitale sono già all’avanguardia, dato che hanno più del doppio delle probabilità rispetto ai colleghi di attribuire un alto grado di importanza a pratiche fondamentali (come cicli di feedback e meccanismi di revisione) e di applicarle in modo coerente.

Dato che uno degli obiettivi dei programmi di RAI è individuare e risolvere i problemi il più presto possibile lungo l’intero ciclo di vita di un sistema di AI, occorre garantire che i principi fondamentali come trasparenza e inclusione siano incorporati nei processi di creazione e di lavoro con gli algoritmi. In seconda analisi, le aziende dovrebbero costruire o adottare uno strumento per condurre revisioni end-to-end, non solo degli algoritmi ma anche dei processi e dei risultati aziendali. Queste revisioni dovrebbero essere continue: dalla fase di sviluppo, alla prototipazione e all’implementazione in scala.

Infine, è necessario partecipare all’ecosistema RAI, ossia contribuire attivamente a un consorzio o gruppo di lavoro. Grazie alle esperienze condivise, l’ecosistema può fornire spunti per mitigare i rischi e massimizzare i vantaggi dell’AI.