AI Tech Data

Agenti AI e Large Language Models, il lato oscuro dei bias politici

Il 2025 segna l'avvento degli Agenti AI. Ma l'innovazione è frenata da un rischio etico e pratico: i bias politici negli LLM. La sfida cruciale è governare questa 'intelligenza non neutrale', assicurando trasparenza e mitigando la polarizzazione.
Agentic AI 005

L’anno 2024 ha segnato un punto di svolta per l’Intelligenza Artificiale, ma è nel 2025 che è iniziata l’Era degli Agenti AI. Questi sistemi non si limitano più a generare testo o immagini, come i loro predecessori basati sui Large Language Model (LLM), ma agiscono autonomamente: pianificano, interagiscono con l’ambiente digitale e prendono decisioni complesse, trasformando radicalmente settori come la finanza, la gestione aziendale e l’assistenza clienti.

Tuttavia, con l’aumentare della loro autonomia, emerge una sfida etica e pratica cruciale: l’agente può essere davvero neutrale? La risposta è inquietante. Poiché gli Agenti AI dipendono intrinsecamente dagli LLM per il loro ‘ragionamento’, ereditano in pieno i bias politici dei dati di addestramento e dei meccanismi di fine-tuning. Le sottili influenze ideologiche, sia di destra che di sinistra, presenti nei modelli linguistici, si traducono in distorsioni decisionali attive nel mondo reale.

Grande competenza linguistica ma zero competenze epistemologiche

Un recente lavoro pubblicato da PNAS, intitolatoThe simulation of judgment in LLMs dei docenti Edoardo Lorua, Jacopo Nudo, Niccolò Di Marco, Alessandro Santirocchi, Roberto Atzeni, Matteo Cinelli, Vincenzo Cestari, Clelia Rossi-Arnaud, e Walter Quattrociocchi, ha cercato di dare un risposta a questo quesito, limitata ai pregiudizi, se così vogliamo chiamarli, dei Large Language Models, mettendo a confronto sei modelli di AI (GPT-4o, Gemini, Mistral, Llama, e DeepSeek) con degli esperti ‘umani’.

La risposta è stata quella che era lecito attendersi: gli LLM si affidano a pattern linguistici, non a ragionamenti. Di conseguenza, grande – e suggestiva – fluidità linguistica, ma zero contenuto epistemologico. Gli LLM non ‘comprendono’ le domande, ma nelle loro risposte si limitano ad estendere i modelli statistici su cui si è costruito il loro addestramento. E poiché la maggioranza dei mondi – accademico, letterario, giornalistico e culturale in senso lato – a cui si attinge per formulare le risposte si connota per posizioni di sinistra, non sorprende che questa sia anche la caratterizzazione più evidente dei bias.

Questo solleva un interrogativo: in che misura le decisioni prese gli assistenti digitali rifletteranno le preferenze oggettive, o invece quelle delle  statistiche usate per la loro formazione? I bias politici (di destra o di sinistra) insiti nei Large Language Model (LLM) si traducono infatti in conseguenze pratiche di ampia portata quando questi LLM sono utilizzati come ‘cervello’ per creare Agenti AI autonomi, cioè sistemi che prendono decisioni e compiono azioni nel mondo reale senza intervento umano per ogni singolo passaggio.

Distorsione nelle decisioni e nelle raccomandazioni

Un Agente AI, che utilizza un LLM con un bias politico predefinito, tenderà ad agire nelle decisioni finanziarie, a seconda che possieda un bias economico di ‘sinistra’, portandolo a penalizzare implicitamente o sconsigliare investimenti in settori (es. energia fossile) in misura maggiore rispetto a un agente con un bias di ‘destra’, influenzando così le allocazioni di capitale.

Lo stesso accadrebbe nelle politiche di Assunzione da parte degli HR Agents. Se un agente AI è incaricato di pre-selezionare candidati e il suo LLM è stato allineato con preferenze sociali di un certo schieramento, potrebbe dare peso eccessivo a determinate parole chiave o esperienze (es. attivismo ambientale vs. libero mercato) a scapito della competenza, introducendo una discriminazione ideologica.

Filtraggio e censura dei contenuti

Quando un Agente AI funge da moderatore di contenuti o da curatore di notizie (sui social media, per esempio), i bias politici del suo LLM diventano regole di moderazione attive e potrebbero portare addirittura a soppressione di voci. Un LLM con un forte orientamento a sinistra (più ‘progressista’) potrebbe classificare discorsi critici verso l’immigrazione o le politiche sociali come ‘incitamento all’odio’ o ‘disinformazione’ con maggiore frequenza rispetto a un modello neutrale, portando alla soppressione di voci di destra legittime. E viceversa, ovviamente.

Rischio di amplificazione selettiva

L’agente AI potrebbe dare maggiore visibilità e priorità di diffusione a notizie e opinioni che sono allineate con il suo bias politico sottostante, contribuendo alla creazione di ‘bolle di filtro” ideologiche tra gli utenti.

Il problema non è solo l’esito non neutrale, ma il fatto che il LLM/Agente AI sarebbe vulnerabile alla manipolazione intenzionale o dolosa.

Ecco quindi le campagne di disinformazione: Agenti AI, utilizzati per generare contenuti o per ‘ragionare’ in sistemi complessi, possono essere deliberatamente indottrinati con dati politicizzati per generare in modo efficace propaganda o deepfake perfettamente allineati a una certa ideologia, aumentando la polarizzazione.

In questi casi, il contrasto ai bias sarebbe inefficace, poiché i bias non sarebbero solo nei dati ma anche nelle regole di allineamento etico (RLHF), anche i tentativi di rendere l’AI ‘neutrale’ fallirebbero, riflettendo semplicemente il bias delle persone che hanno impostato le linee guida di imparzialità.

Fallimenti nel ragionamento Logico-Sociale

Gli agenti AI sono progettati per prendere decisioni complesse. Quando affrontano dilemmi con risvolti etici o sociali, i bias politici possono portare a risultati incoerenti o estremi.

Se un agente AI (come un assistente per la ricerca accademica) dovesse riassumere o confrontare posizioni politiche, il suo bias potrebbe portarlo a sopra-semplificare o stereotipare la posizione opposta alla sua inclinazione, offrendo una sintesi distorta e inutilizzabile.

Divergenza tra modelli di LLM

Si è osservato, infine, nella ricerca citata che modelli LLM diversi (es. alcuni di OpenAI vs. quelli di Meta) possono avere orientamenti politici marcatamente differenti. L’adozione di un modello piuttosto che un altro da parte di un’azienda o un’istituzione diventa de facto una scelta politica, influenzando il comportamento di tutti gli agenti che ne dipendono.

La sfida critica per il futuro è duplice: garantire la trasparenza sulle tendenze ideologiche dei modelli e implementare una governance robusta per mitigare i rischi che i pregiudizi algoritmici amplifichino la polarizzazione sociale.

di Massimo Bolchi