Interactive

Il Digital Service Act è ‘legge’ europea: dalla trasparenza algoritmica ai reclami, alla protezione dei minori. Tutte le norme previste dal DSA per i siti con 10-45 milioni di utenti mensili (e anche le eccezioni)

EU Logo

Il 17 febbraio 2024, il Digital Services Act è entrato in vigore in tutta l’UE per tutte le piattaforme social (e non solo). Il DSA armonizza gli obblighi nell’UE per rafforzare la sicurezza e l’affidabilità dello spazio online. Questi obblighi sono applicati da tempo alle prime piattaforme online di grandi dimensioni, come Instagram, TikTok, Youtube, Facebook, X, Whatsapp e Snapchat: i cosiddetti ‘gatekeepers’. Ora, da sabato scorso, anche le piattaforme più piccole dovranno rispettare queste regole. Ma vediamo insieme di che cosa si tratta esattamente.

La DSA migliora significativamente i meccanismi per la rimozione dei contenuti illegali e per l’effettiva protezione dei diritti fondamentali degli utenti online, compresa la libertà di parola. Crea inoltre un meccanismo di controllo pubblico più forte per le piattaforme online, in particolare per le piattaforme online molto grandi (VLOP) che raggiungono più del 10% della popolazione dell’UE. I cosiddetti ‘gatekeeper’ appunto, che la Commissione aveva indicato il sei settembre scorso in sei gruppi: Alphabet, Amazon, Apple, ByteDance, Meta e Microsoft, a cui facevano capo un totale di 22 piattaforme di servizio disparate (dalle mail all’ecommerce, dalla pubblicità ai S.O.) che hanno dovuto anticipare l’adozione delle norme previste dal DSA.

Invece, i servizi digitali al di sotto della soglia di 10 milioni di utenti mensili nell’UE (MAU – Month Average Users) sono generalmente esenti dal DSA; ‘generalmente’ perché alcuni servizi prestati nella UE impongono il DSA anche in presenza di un numero di utenti non superiore alla soglia: per esempio i servizi di intermediazione online o dedicati al search, oppure ancora quelli che servono a raccogliere fondi.

Per tutti gli altri, cioè i siti con 10-45 milioni di MAU, è previsto che siano soggetti a un set ridotto di obblighi, focalizzati su trasparenza e gestione dei reclami, così come i motori di ricerca hanno obblighi specifici in materia di trasparenza e ranking. Il DSA prevede che le piattaforme mettano in atto misure per contrastare la diffusione di beni, servizi o contenuti illegali online, come ad esempio meccanismi che consentano agli utenti di segnalare tali contenuti e alle piattaforme di collaborare con ‘trusted flaggers’ (segnalatori affidabili): come la funzione di X per segnalare i contenuti illegali, raggiungibile sui tre puntini in alto a destra di ogni post. X non è l’unica piattaforma ad aver implementato nuove opzioni di facile utilizzo per segnalare i contenuti illeciti. Anche Apple, Pinterest, Facebook, Instagram e TikTok hanno introdotto semplici modalità per segnalare contenuti illeciti sulle loro piattaforme.

I siti con un numero di utenti mensili compreso tra 10 e 45 milioni, come detto, sono soggetti a un set ridotto di obblighi ai sensi del Digital Service Act. Questi obblighi si concentrano principalmente sulla trasparenza, come l’obbligo di fornire informazioni chiare e accessibili sui propri servizi, algoritmi e sistemi di moderazione dei contenuti, oltre a indicare con un report annuale la misure adottate per contrastare la disinformazione e l’incitamento all’odio; in più devono istituire un sistema di gestione dei reclami efficace e accessibile agli utenti e fornire feedback agli utenti sui reclami presentati.
Particolare attenzione è poi posta dal DSA sull’attuazione delle misure volte a limitare la diffusione di disinformazione e propaganda, collaborando con le organizzazioni di controllo e fornendo agli utenti informazioni su come identificare e contrastare la disinformazione.

La tutela dei minori è paradigmatica ai sensi del DSA, per cui vi è l’obbligo di attuare ogni misura per proteggere i minori da contenuti dannosi e limitare la raccolta e l’utilizzo dei dati personali degi stessi. Ma non basta: vi è anche l’obbligo di fornire informazioni ai genitori e agli educatori su come proteggere i minori online. Oltre a questi obblighi, i siti web con 10-45 milioni di MAU dovranno anche ottemperare alle disposizioni generali del DSA, come la diligenza dovuta e l’obbligo di cooperazione con le autorità competenti.

Secondo le nuove norme, inoltre, le piattaforme online accessibili ai minori devono proteggere la sicurezza dei bambini, nonché il loro benessere psicofisico, ad esempio adottando impostazioni speciali di privacy e sicurezza per impostazione predefinita. Le piattaforme online possono mettere in atto misure di verifica dell’età per controllare chi può accedere ai loro servizi, controlli parentali in modo che i genitori e i tutori possano aiutare a proteggere i loro figli dal rischio di esposizione a contenuti dannosi, e strumenti in cui gli utenti possono segnalare abusi o ricevere supporto.

Infine, per garantire la trasparenza e consentire il controllo delle decisioni di moderazione dei contenuti dei fornitori di piattaforme online, come richiesto dalla DSA, la Commissione ha lanciato la banca dati sulla trasparenza della DSA, un database unico nel suo genere che rende accessibili al pubblico tutte le motivazioni fornite dai fornitori di piattaforme online per le loro decisioni di moderazione dei contenuti.