Interactive

La Global Alliance for Responsible Media (GARM) vuole arrivare a standard condivisi per la brand safety. Appuntamento ad Aprile

Mentre tutti gli occhi nei giorni scorsi sono stati puntati su Davos, per il World Economic Forum, o – più modestamente – sull’Emilia Romagna, dove il PD ha respinto l’offensiva leghista, è proseguita un po’ sotto traccia, l’attività della Global Alliance for Responsible Media (GARM) nata a Giugno dell’anno scorso su iniziativa della World Federation of Advertisers per costruire un mercato dei media digitali “più sostenibile e responsabile” che “protegga i consumatori, l’industria dei media e la società”, annunciata nella cittadina svizzera.

L’iniziativa della GARM, che rappresenta 97 miliardi di dollari investiti dalle aziende attraverso per conto di 39 inserzionisti di grandi dimensioni, si fa notare per i partecipanti che non vedono la contrapposizione usuale tra media digitali e spender. Va rilevato infatti che della GARM fanno parte alcuni big come Facebook, Twitter e YouTube (Google), più frequenti da incontrare sul banco degli imputati per la deriva di media digitali e social, ma qui dalla parte dei ‘buoni’ per impegnarsi a trovare rimedi. La GARM infatti raccoglie tutti i grandi operatori del comparto: oltre ai già citati giganti dei social, gli spender, tra cui aziende quali Ascidia, Bayer, BP, Danone, Diageo, General Mills, GSK Consumer Healthcare, LVMH, Mars, Incorporated, Mastercard, Mondelez International, NBCUniversal, Nestlé, Procter & Gamble, Shell e Unilever, e i maggiori gruppi del media, tra i quali si contano Dentsu, GroupM, IPG, Publicis Media, Omnicom Media Group, Teads, TrustX, Unruly e Verizon Media.

La Global Alliance ha rivelato che circa 620 milioni (stime, ndr) di contenuti dannosi sono stati rimossi da YouTube, Facebook e Instagram tra luglio e settembre 2019, quindi proprio in ‘casa’ di coloro che sono spesso indicati come i responsabili del fenomeno.

“A causa degli investimenti delle piattaforme in team e strumenti”, prosegue la nota di GARM, “la maggior parte di questi contenuti è stata rimossa prima che i consumatori li vedessero effettivamente”, sottolineando però che “circa 9,2 milioni di contenuti dannosi hanno raggiunto i consumatori durante quel periodo di tre mesi , equivalente a circa un contenuto dannoso visualizzato ogni secondo”.

L’annuncio di GARM prosegue affermando che sta adottando un “approccio collaborativo”, lavorando con piattaforme di media digitali per migliorare i loro ambienti “con l’obiettivo di eliminare i contenuti online dannosi e garantire che gli autori di questi ultimi non abbiano accesso al finanziamento degli inserzionisti”.

Considerando la difficoltà di muoversi su un terreno così scivoloso, la GARM ha identificato tre aree chiave su cui intervenire con priorità.

Innanzitutto l’adozione di definizioni condivise: l’Alleanza ha sviluppato e adotterà definizioni comuni per garantire che l’industria pubblicitaria stia classificando i contenuti dannosi allo stesso modo. Le 11 definizioni chiave che coprono aree come contenuto esplicito, droghe, spam e terrorismo consentiranno a piattaforme, agenzie e inserzionisti di comprendere a fondo cosa sono i contenuti dannosi e come proteggere il pubblico vulnerabile, come i bambini. Stabilire questi standard è il primo passo necessario per impedire la monetizzazione di contenuti dannosi attraverso la pubblicità.

Poi la promozione di strumenti e sistemi comuni, che verranno sviluppati e adottati per creare collegamenti migliori tra i controlli degli inserzionisti, gli strumenti delle agenzie di comunicazione e gli sforzi delle piattaforme per classificare i contenuti. Questi interventi comuni miglioreranno la trasparenza e l’accuratezza del modo in cui gli investimenti dei media potranno orientarsi verso esperienze più sicure dei consumatori, siano essere attraverso immagini, video e commenti editoriali.

E infine un sistema di controllo indipendente: l’Alleanza stabilirà standard di misurazione condivisi in modo che l’industria e le piattaforme possano valutare equamente la loro capacità di bloccare, demonetizzare e, in ultima analisi, abbattere i contenuti dannosi. La trasparenza attraverso misure comuni, metodologia per inserzionisti, agenzie e piattaforme è la chiave per guidare le azioni che aumentano la safety per i consumatori. L’adozione di misure chiave e l’accettazione di una verifica indipendente saranno fondamentali per favorire il miglioramento di tutte le parti, che cercheremo di monitorare annualmente. Uno speciale gruppo di lavoro del GARM attiverà questa strategia a partire da aprile.

“È tempo di creare una catena di approvvigionamento responsabile dei media costruita per l’anno 2030, che funzioni in modo sicuro, efficiente, trasparente, responsabile e adeguatamente moderato per tutti i soggetti coinvolti, in particolare per i consumatori che serviamo”, ha affermato Marc Pritchard, Chief Brand Officer di Procter & Gamble e membro del GARM, concludendo: “Unendo tutti gli attori del nostro comparto nella The Global Alliance for Responsible Media, possiamo e dobbiamo evitare le insidie del passato e tracciare un corso per un futuro responsabile per i media”.