Interactive

L’Artificial Intelligence non è razzista, ma lo possono essere gli umani che la implementano. L’opinione di Indigo.ai sui 23 tipi di bias che possono inficiare un progetto di AI

Il dibattito nella comunità è acceso. I bias esistono e derivano dai pregiudizi umani che le macchine poi amplificano. Ma un’intelligenza artificiale più giusta è possibile, anche se difficile da ottenere. Il punto di partenza è la consapevolezza, l’ammissione dei propri sbagli per cercare di dare vita a modelli più giusti. È cominciata l’era dell’intelligenza artificiale fair?

“Il futuro dell’AI dipenderà dalla capacità di risolvere l’annosa questione dei bias, ovvero ciò che avviene quando le intelligenze artificiali provocano discriminazioni sociali, come è avvenuto e avviene ancora oggi”. È l’opinione di Denis Peroni, Chief Architect Officer e Co-fondatore di Indigo.ai. “Il tema non è nuovo ma spesso affrontato in maniera non adeguata. La verità è che, al momento, non ci sono soluzioni reali, ma solo obiettivi da raggiungere sperimentando approcci diversi, perché i bias nell’intelligenza artificiale sono un problema particolarmente complesso”.

Non è possibile, per esempio, dare un’unica definizione del bias: in statistica è la distanza tra la realtà e la stima che si fa; nel l’accezione informatica A.I. invece il bias non è uno scostamento da dati reali, ma nasce dal fatto che i dati stessi sono discriminatori, perché il pregiudizio è spesso insito nel sistema. “Facciamo un esempio”, riprende Peroni. “Joy Buolamwini, una ricercatrice del MIT di Boston, nel suo studio ‘Gender Shades’ ha verificato l’accuratezza di alcuni prodotti di riconoscimento facciale, arrivando alla conclusione che questi sistemi trattano alcune etnie in modo più impreciso rispetto alle altre. Nel caso specifico la ricerca ha dimostrato una precisione del 99% per gli uomini bianchi e una del 34% per le donne con una carnagione scura. Perché? Per il fatto che gli algoritmi usati da questi sistemi sono addestrati su immagini di soggetti prevalentemente maschili e di carnagione chiara”.

L’UE ha dichiarato di voler pubblicare un Codice Etico grazie al quale l’intelligenza artificiale non dovrà mai danneggiare la dignità, la sicurezza fisica, psicologica e finanziaria delle persone. La proposta nasce perché tra i problemi emersi più frequentemente ci sono stati appunto molti casi di discriminazione razziale o di genere attraverso il riconoscimento facciale. Nell’immaginario collettivo, le macchine sono percepite come perfettamente logiche e oggettive, lontane dalle passioni umane che spesso sviano il nostro giudizio.

“Viene naturale chiedersi: “Come può una macchina essere razzista o maschilista?”, commente ancora Peroni. “La risposta è facile: gli algoritmi sono progettati da esseri umani e addestrati su dati prodotti da esseri umani, che risultano quasi sempre infarciti di bias, ad esempio per ragioni storiche (basti pensare a quanto la posizione sociale delle donne le abbia rese invisibili nei secoli scorsi). Come se non bastasse, l’intero contesto in cui viene sviluppata una soluzione di intelligenza artificiale è suscettibile di distorsioni che spesso sono rilevabili solo con attente analisi”.

La letteratura scientifica racconta che esistono ben 23 tipologie di bias che in un modo o nell’altro possono incidere su un progetto di AI e distorcerne i risultati. La faziosità è propria dell’essere umano e le macchine possono moltiplicarla, il che rende ancora più difficile individuare ed eliminare l’errore nell’algoritmo: il pregiudizio è stato ignorato a lungo e nel frattempo la quantità di dati analizzata è aumentata costantemente.

“La prima cosa che dobbiamo fare noi che ci occupiamo di AI è sviluppare un’adeguata consapevolezza del problema; solo così potremo progettare, sviluppare, implementare e governare un’intelligenza artificiale più etica e inclusiva”, conclude Peroni. “Un’AI che noi chiamiamo fair (giusta) che si impegni a testare il suo algoritmo in un regime simile a quello in cui verrà utilizzato nel mondo reale e che dimostri di funzionare per tutti. Per fare questo, però, è necessario utilizzare dei data set che siano realmente rappresentativi, correggendo le enormi distorsioni in quelli attuali e investendo per crearne di nuovi per quei gruppi e quelle comunità che sono stati finora ignorati; inoltre è necessario sviluppare dei protocolli che controllino in maniera rigorosa tutto il ciclo della produzione di una soluzione di AI, a partire dalla scelta dei modelli fino all’effettiva distribuzione a chi la utilizzerà, nel proprio lavoro o nella vita quotidiana”.

Il tema dei bias nell’AI è molto importante perché offre grandi opportunità: un’occasione per ridurre l’effetto dei pregiudizi umani e per evitare che si perpetuino. È certamente possibile scoprire soluzioni migliori, ma per poter cogliere queste opportunità è necessario uscire dal campo informatico e dell’ingegneria: il tema è complesso e va affrontato a 360°. C’è bisogno di una maggior partecipazione da parte di tutti per riuscire a rendere l’intelligenza artificiale più fair: chi la sviluppa deve impegnarsi a farlo nel migliore dei modi ma anche chi la utilizza deve chiedere a gran voce che questa tecnologia sia realmente giusta.

Utilizziamo i cookie per assicurarti la migliore esperienza possibile sul nostro sito. Se vuoi saperne di più, consulta la cookie policy. Proseguendo con la navigazione, acconsenti all’uso dei cookie. Cookie policy