Interactive

Un nuovo parametro entra nel Report sulle Norme di Youtube: maggior trasparenza e più responsabilità sui video mostrati grazie al Tasso di Visualizzazioni Inappropriate (Violative Video Rate)

Youtube mostra i dati sulle visualizzazioni di contenuti inappropriati. E no, non si tratta di una risposta alle polemiche registrate in Italia in merito alla sospensione (o cancellazione) dell’account di Byoblu, la testata diretta da Caudio Messora e pubblicata dalla Byoblu Edizioni Srls. Si tratta di qualcosa quantitativamnte molto più rilevante.

Nel 2018 Youtube aveva introdotto il ‘Rapporto sull’applicazione delle Norme della community’ per fare di più, in termini di trasparenza e responsabilità, sulle misure adottate per proteggere l’audience da contenuti che violavano le norme sottoscritte da ogni utilizzatore al momento dell’inscrizione, analizzando i contenuti rimossi per violazione di tali norme con una prospettiva del tutto nuova, prendendone in considerazione il numero, il modo in cui i contenuti in violazione erano stati identificati la prima volta, i motivi della rimozione e molto altro.

Negli anni, Youtube ha continuato a condividere ulteriori metriche, come ad esempio il numero di ricorsi relativi ai contenuti e le successive reintegrazioni. Da quando è stato introdotto questo rapporto, sono stati rimossi oltre 83 milioni di video e 7 miliardi di commenti per violazione delle Norme della community. È altrettanto importante evidenziare che il rapporto monitora l’impatto degli ingenti investimenti effettuati dalla piattaforma nella tecnologia di machine learning nel 2017, in quanto misura l’efficacia di come riesca a individuare i contenuti in violazione. Basti pensare che attualmente la segnalazione automatica consente di rilevare il 94% di tutti i contenuti che violano le norme su YouTube e che il 75% di questi contenuti viene rimosso ancora prima di avere totalizzato 10 visualizzazioni.

Con la novità odierna, inoltre, viene introdotto un elemento-dati all’interno del rapporto di Youtube, per garantire una trasparenza ancora maggiore sull’efficacia dei sistemi di controllo/verifica: il tasso di visualizzazioni inappropriate (o VVR, acronimo di Violative Video Rate). In sostanza, il tasso di visualizzazioni inappropriate aiuta a stabilire in che percentuale le visualizzazioni su YouTube sono attribuibili a contenuti che violano le norme. Youtube ha iniziato a monitorare questi dati nel 2017, a livello dell’intera azienda, e con l’aumento degli investimenti in persone e tecnologia, il tasso di visualizzazioni inappropriate è calato. Il suo valore più recente è pari allo 0,16-0,18%, il che significa che su 10.000 visualizzazioni su YouTube, quelle relative a contenuti in violazione sono 16-18. Il merito va in larga misura ai investimenti nel machine learning.

I dati relativi al VVR offrono un contesto fondamentale rispetto al modo in cui Yutube tutela se stessa: per quanto siano importanti, altri indicatori – come il tempo necessario a rimuovere un video in violazione – non offrono un quadro completo dell’impatto reale che i contenuti in violazione hanno sugli spettatori. “Crediamo che il VVR sia il modo migliore per comprendere l’impatto che i contenuti dannosi hanno sugli spettatori e per identificare le aree che necessitano di miglioramenti”, recita la nota di Youtibe. “Calcoliamo il VVR prendendo un campione di video su YouTube e inviandolo ai nostri revisori di contenuti, che ci indicano quali video violano le nostre norme e quali non lo fanno. L’utilizzo di un campione ci permette di ottenere una panoramica più completa dei contenuti in violazione che potremmo non individuare tramite i nostri sistemi”.

Il ‘Rapporto sull’applicazione delle Norme della community’ attesta i notevoli progressi compiuti dal 2017 a oggi, benché rimanga ancora molto da fare. Pertanto, è fondamentale – e Youtube se ne rende ben conto – che i suoi team rivedano e aggiornino costantemente le norme, collaborino con gli esperti e continuino ad adottare un approccio improntato alla massima trasparenza in merito al lavoro di applicazione delle norme. E il VVR aiuta la piattaforma a comprendere meglio i progressi fatti nel tutelare gli utenti dai contenuti dannosi.