AI Tech Data

Proteggere utenti e advertiser dalle notizie false generate dall’IA, arriva il sistema NewsGuard

Sviluppato in collaborazione con Pangram Labs, identifica i siti con contenuti IA rilevanti e verifica manualmente i risultati

NewsGuard ha annunciato il lancio di un nuovo flusso di dati dedicato al rilevamento delle AI Content Farm, siti web che producono in massa contenuti di notizie e informazioni generati dall’intelligenza artificiale, spesso inaccurati, con l’obiettivo di guadagnare attraverso la pubblicità o di diffondere propaganda.

Lo strumento avvisa consumatori, piattaforme e inserzionisti quando si trovano di fronte a questo tipo di siti, una categoria in rapida crescita nel panorama online.

Il sistema è stato sviluppato in collaborazione con Pangram Labs e si basa sulle analisi di NewsGuard sulle AI Content Farm. Combinando i dati esclusivi di NewsGuard con il software automatizzato di Pangram Labs per il rilevamento dell’intelligenza artificiale, il sistema è in grado di identificare i siti di notizie che pubblicano una quantità significativa di contenuti generati dall’AI.

Successivamente, gli analisti di NewsGuard verificano manualmente i risultati, confermando le segnalazioni e rimuovendo eventuali falsi positivi.

Grazie a questo sistema, NewsGuard ha già identificato 3.006 siti classificati come AI Content Farm, un numero che è più che raddoppiato nell’ultimo anno. Il fenomeno sta accelerando, con una crescita stimata tra 300 e 500 nuovi siti al mese.

I criteri di classificazione delle AI Content Farm

NewsGuard valuta i siti web secondo tre criteri principali per classificarli come AI Content Farm:

  1. Contenuti generati dall’AI in quantità significativa: una parte rilevante del sito è prodotta tramite intelligenza artificiale, secondo lo strumento di rilevamento fornito da Pangram Labs.

  2. Mancata dichiarazione dell’uso dell’AI: il sito non comunica chiaramente che i contenuti sono generati dall’intelligenza artificiale. Questo differisce dalle testate giornalistiche legittime che utilizzano l’AI come supporto e lo dichiarano in modo trasparente.

  3. Presentazione fuorviante: il sito è strutturato in modo tale da far credere al lettore medio che i contenuti siano prodotti da autori umani o giornalisti.

Questi siti, spesso con nomi generici come Times Business News o Business Post, pubblicano decine di articoli al giorno e sono spesso all’origine di false notizie riguardanti grandi marchi, salute pubblica, leader politici e celebrità.

Esempi di disinformazione

Alcuni esempi recenti mostrano l’impatto reale di queste piattaforme. Nell’ottobre 2025, la AI Content Farm News 24 ha diffuso la falsa notizia che Coca-Cola avrebbe minacciato di ritirare la sponsorizzazione del Super Bowl se il rapper portoricano Bad Bunny si fosse esibito durante l’halftime show della NFL. Sebbene la storia fosse falsa – Coca-Cola non è sponsor del Super Bowl – la pagina conteneva pubblicità di grandi brand come Expedia, AT&T, YouTube, Priceline, Hotels.com, Skechers e GoDaddy.

“È evidente che lettori e inserzionisti sprecano tempo e denaro su siti che pubblicano affermazioni infondate su celebrità, marchi e funzionari governativi, affermazioni poi amplificate online e sui social, inquinando ulteriormente l’ecosistema informativo. Grazie al nostro sistema, identifichiamo siti di questo tipo, spesso a decine ogni giorno, e li aggiungiamo al nostro database, impedendo agli inserzionisti di finanziarli inconsapevolmente”, spiega Matt Skibinski, Chief Operating Officer NewsGuard.

Proteggere gli inserzionisti

Il nuovo sistema di NewsGuard offre anche una protezione concreta per gli inserzionisti che vogliono garantire posizionamenti pubblicitari sicuri. Molte AI Content Farm sono infatti siti Made for Advertising, progettati per produrre contenuti di bassa qualità e attrarre ricavi pubblicitari tramite programmatic advertising.