L’intelligenza artificiale, e in particolare la Generative AI, sta cambiando radicalmente il modo in cui creiamo e condividiamo contenuti digitali come testi, immagini e video, tutti i giorni. Da una parte, queste tecnologie aprono tante nuove possibilità e opportunità, ma dall’altra aumentano anche i rischi di false informazioni e manipolazioni online. In questo contesto, è importante che il potenziale dell’IA venga usato in modo responsabile, per sostenere la qualità e l’integrità dell’informazione e proteggere il dibattito pubblico.
È questa la visione alla base di AI-CODE, progetto triennale finanziato dall’Unione Europea attraverso il programma Horizon, coordinato da DST., che coinvolge un consorzio di attori privati e pubblici nella progettazione di soluzioni avanzate per l’individuazione e l’analisi della disinformazione nei social network di nuova generazione.
Un progetto pionieristico
AI-CODE intende studiare e sviluppare soluzioni di intelligenza artificiale a supporto degli operatori dei media e dell’informazione, sia nella produzione di un giornalismo corretto, eticamente integro e libero, sia nella tutela di questo dalla disinformazione e dai contenuti manipolati.
Il consorzio, che vede partecipare 14 partner provenienti da 8 paesi europei tra cui 7 centri di ricerca (CERTH, FBK, UPM, KInIT, EIPCM, RU, UNICAL), tre professionisti dei media (DW, DEB, EURACTIV), tre Pmi (Dst, NAL, ATC) e un partner esperto in scienze sociali e umane, diritto ed etica (CEPS), adotta un approccio interdisciplinare, metodologie innovative e tecnologie emergenti per sviluppare strumenti cosiddetti AI-based finalizzati alla produzione di informazioni affidabili. Alla base del progetto c’è anche lo studio dei nuovi ambienti digitali (metaverso e fediverso), per comprendere in che modo questi e gli ambienti già conosciuti (come i social media) stanno evolvendo insieme alla GenAI.
Sviluppati sei servizi per il contrasto alla disinformazione
Rilevamento della disinformazione nei social media di nuova generazione, con strumenti avanzati per identificare contenuti manipolati e piattaforme problematiche;
Valutazione dell’affidabilità e della credibilità delle notizie online, per distinguere le fonti autentiche da quelle poco affidabili;
Annotazione e gestione delle risorse multimediali (MAAM), servizio progettato per verificare l’attendibilità e l’originalità di immagini, video e altri contenuti digitali;
Coaching interattivo e simulatore dinamico, che fornisce formazione sui principi fondamentali della Generative AI e il suo utilizzo responsabile;
Trustability and Credibility Assessment Service, uno strumento dedicato alla verifica e valutazione della validità delle informazioni;
Personal Companion for Understanding Disinformation, un tool di supporto per giornalisti e fact-checker, utile per scrivere articoli, analizzare la diffusione della disinformazione e gestire database di smentite.
Usare l’intelligenza artificiale come supporto affidabile per diffondere un’informazione corretta e etica è una sfida importante e fondamentale. Non dobbiamo lasciarci trascinare da questa tecnologia che, comunque, continuerà a evolversi e a crescere, ma piuttosto imparare a gestirla e a usarla a nostro vantaggio. Così possiamo trasformarla in un alleato strategico per combattere la disinformazione e mantenere il controllo sulle informazioni che circolano.
Il ruolo chiave di Dst
Di questa sfida Dst – Creative Tech Company ne è un partner chiave, in quanto responsabile della parte di innovation ed exploitation, che individua le strategie di utilizzo e commercializzazione dei servizi sviluppati. Grazie al suo know-how tecnologico in ambito di sviluppo e intelligenza artificiale – in questo, forte dell’expertise di Live Tech, società del gruppo, che nel progetto si occupa delle evoluzioni di GenAI -, la Creative Tech Company supporta la realizzazione del servizio ‘Disinformation detection in next generation social media’, progettato da Fondazione Bruno Kessler e Università della Calabria.
Il servizio è dedicato al monitoraggio e all’analisi della disinformazione nel Fediverso, e si articola in due moduli principali:
1. Identificazione dei server potenzialmente dannosi: il modulo raccoglie ed etichetta i server bannati, mettendo a disposizione una lista costantemente aggiornata e accessibile.
2. Valutazione dell’attendibilità delle informazioni su Mastodon: analizza i contenuti presenti nel social network decentralizzato per determinarne la credibilità.
I casi d’uso del progetto saranno invece testati da Euractiv, il partner di consorzio che si occupa della comunicazione, e da Deutsche Welle e Debunk, che metteranno alla prova, attraverso i servizi sviluppati, l’intelligenza artificiale generativa per la creazione di contenuti informativi verificati e affidabili.
Cos’è AI CODE
La fase di implementazione dei servizi inizierà da giugno 2025 e vedrà poi il coinvolgimento di ulteriori utenti finali – quali professionisti dell’informazione e dei social media, editor, anche non partner del progetto – sia per nuove sessioni di co-creazione dei servizi, che per il testing.
AI CODE è parte del programma europeo AI Against Disinformation, un insieme di iniziative introdotte dall’Unione Europea per contrastare la disinformazione online, e collabora con EDMO (European Digital Media Observatory), il più grande network europeo dedicato al monitoraggio e alla verifica dell’informazione digitale. Attraverso attività mirate di fact-checking e un’analisi capillare dei contenuti, EDMO garantisce un’informazione accurata e trasparente, supportando progetti innovativi come AI-CODE nel loro impegno contro le fake news.