“L’intelligenza artificiale è centrale: rende l’applicazione della sicurezza degli annunci di Google più intelligente, più veloce e più scalabile”. Questo l’esordio di Alex Rodriguez, General Manager Ads Safety di Google, che si è concentrato sugli sforzi dell’azienda per combattere la pubblicità dannosa e proteggere l’ecosistema della pubblicità digitale.
Il Report che ha successivamente presentato ricorda appunto tutti i progressi fatti da Google in tale ambito: “Gli LLM aiutano a rilevare le minacce emergenti, a identificare gli schemi di abuso e a capire le truffe più rapidamente con meno dati”, ha proseguito Rodriguez. “Ma non bisogna sovrastimare il ricorso agli LLM: mentre l’intelligenza artificiale gestisce i problemi su larga scala (alimentando oltre il 97% dell’applicazione delle leggi sull’editoria), gli esperti umani rimangono fondamentali per i casi complessi e forniscono dati di formazione ricchi di sfumature, creando un ‘circolo virtuoso’ che migliora le prestazioni dell’intelligenza artificiale”.
Il ‘doppio volto’ dell’Artificial Intelligence
“All’inizio del 2024, molti dei contenuti generati dall’intelligenza artificiale erano davvero un novità per tutti. La gente potrebbe non averlo capito, e soprattutto non aver compreso come ragionare in maniera efficace su di essi”, ha ripreso Rodriguez. “Anche oggi, l’evoluzione è continua: volevamo assicurarci che gli utenti, se vedevano un annuncio con contenuti creati dall’intelligenza artificiale, potessero capire subito che cosa fosse e come fosse stato generato”.
Perché è questo dualismo che rappresenta il doppio volto dell’AI: da un lato aiuta gli utenti a difendersi dalle fake news, dalle truffe e dai tentativi di influenzare l’opinione pubblica, ma dall’altro i suoi continui progressi ne fanno un avversario temibile. Oggi non è un problema produrre un contenuto, sia esso una notizia, una foto o un video, che rappresenta un falso talmente ben fatto da ingannare quasi chiunque. E ovviamente le contromisure devono essere continuamente aggiornate per non risultare ‘superate’ dai falsi prodotti dalla stessa AI che supporta i tentativi di bloccarli. Una sorta di sfida allo specchio.
Nel 2024, Google ha lanciato oltre 50 miglioramenti ai suoi modelli di linguaggio avanzato (LLM), che hanno consentito un’applicazione più efficiente e precisa delle policy su larga scala. Questi aggiornamenti hanno accelerato indagini complesse, aiutando l’azienda a identificare truffe e segnali di frode – come le informazioni di pagamento illecite – durante la configurazione degli account. Grazie a questi interventi, miliardi di contenuti in violazione non hanno mai raggiunto gli utenti, consentendo alle aziende legittime di mostrare i propri annunci ai potenziali clienti in modo più rapido e sicuro.
Prevenire è meglio che curare: annunci scorretti bloccati
“Ci concentriamo sulla prevenzione: Google dà la priorità alla prevenzione degli annunci scorretti prima che gli utenti li vedano. Ciò comporta l’utilizzo dell’intelligenza artificiale per accelerare le indagini, individuare i primi segnali di allarme e impedire il ritorno degli attori sospesi”, ha sottolineato Rodriguez.
Lo scorso anno, Google ha utilizzato gli LLM per rendere l’applicazione delle policy più efficiente e precisa su larga scala. Dare priorità a questi progressi tecnologici consente ai safety team di concentrarsi su problemi più complessi e ambigui, fornendo ai nostri LLM dati di addestramento più variegati per affrontare meglio situazioni simili in futuro.
La verifica dell’identità dell’inserzionista rappresenta un altro strumento fondamentale che aiuta l’azienda a impedire che annunci dannosi sospesi ritornino sulla piattaforma, garantendo trasparenza su chi c’è dietro ogni annuncio. Questo programma ora è attivo in oltre 200 paesi e territori, con oltre il 90% degli annunci visualizzati dagli utenti su Google che provengono da inserzionisti verificati. Inoltre Google continua a verificare gli account quotidianamente, man mano nuovi inserzionisti si uniscono alla piattaforma.
I numeri sull’applicazione delle policy nel 2024
Nel 2024, Google, nell’ambito di questo sforzo a garantire una internet sempre più sicura,
- ha rimosso oltre 5,1 miliardi di annunci, limitati oltre 9,1 miliardi di annunci e sospesi oltre 39,2 milioni di account di inserzionisti
- ha bloccati o limitati gli annunci su 1,3 miliardi di pagine di editori e adottate misure di enforcement a livello di sito su oltre 220.000 siti di editori
- ha continuato a a perfezionare le proprie policy, con oltre 30 aggiornamenti alle policy relative agli annunci e agli editori nell’ultimo anno
Proteggere l’integrità delle elezioni: un impegno a livello globale
Il 2024 è stato un anno cruciale per i processi elettorali, con metà della popolazione mondiale che viveva in paesi dove si sono svolte elezioni. Il lavoro di Google per sostenere l’integrità delle elezioni non è mai stato così rilevante. Come parte di questo impegno, sono stati espansi i requisiti di verifica dell’identità e di trasparenza per gli inserzionisti elettorali in nuovi paesi. Queste misure, che comprendono dichiarazioni come ‘Pagato da’ e un report pubblico di trasparenza su tutti gli annunci elettorali, sono fondamentali per garantire che gli utenti di tutto il mondo possano identificare gli annunci elettorali e sapere chi ha finanziato gli annunci che vedono. Solo nell’ultimo anno, sono stati verificati oltre 8.900 nuovi inserzionisti elettorali e rimossi 10,7 milioni di annunci elettorali provenienti da account non verificati.
“Il panorama della sicurezza degli annunci è in continua evoluzione, influenzato da innovazioni tecnologiche come i progressi dell’intelligenza artificiale, nuove tattiche di violazione e eventi globali, che richiedono un’agilità costante da parte della industry. In un contesto così dinamico, Google affronta queste sfide direttamente, utilizzando tecnologie all’avanguardia e collaborando con i propri partner per favorire un’esperienza online più sicura per tutti”, ha concluso Rodriguez.
Il ‘Google Ads Safety Report 2024’ è disponibile qui.
di Massimo Bolchi