Negli ultimi mesi c’è stato un soprassalto di consapevolezza sui danni che un utilizzo eccessivo dei social media, in particolare i più diffusi globalmente – Instagram, TikTok, YouTube, X ecc – potrebbe apportare ai minori di età.
Esemplare, riguardo all’allarme sociale indotto, potrebbe essere l’accusa della Commissione europea, al termine di un’indagine avviata nel febbraio 2024, che punta l’indice su TikTok, dove lo scorrimento infinito, la riproduzione automatica dei contenuti, il sistema di notifiche push e il meccanismo di raccomandazione altamente personalizzato condizionerebbero l’utente a proseguire sempre più la fruizione del social media cinese.
Ma i tempi non sono compatibili con un intervento efficace: indagine aperta due anni fa, adesso alcuni mesi di tempo perché TikTok risponda con le proprie considerazioni, poi si dovrà andare a processo, che in caso di condanna vedrà il soccombente ricorrere in appello, e così via. Migliore senza dubbio un intervento legislativo drastico, che fissi un’età minima per i minori che accedono a tutti i social media, e responsabilizzi i genitori sul suo rispetto.
L’Australia ha aperto la strada alla protezioni minori dai social
Ha aperto la strada in questo senso l’Australia, con una Legge approvata a fine 2024 ed entrata in vigore il 10 dicembre 2025, È un divieto assoluto: i genitori non possono fornire il consenso per ‘derogare’ al limite. Le piattaforme rischiano multe fino a 50 milioni di dollari australiani se non impediscono l’accesso ai minori di 16 anni. La particolarità australiana è che il governo non punta il dito contro i ragazzi o i genitori, ma ha reso le piattaforme (TikTok, Instagram, Facebook, X, Snapchat, Reddit, Twitch) legalmente responsabili della verifica dell’età.
Autorizzati invece YouTube Kids, WhatsApp, Google Classroom e Messenger Kids, perché considerati strumenti di ‘messaggistica’ o ‘istruzione’ piuttosto che social media basati su feed algoritmici. Youtube è in una posizione intermedia: è accessibile senza account per guardare video, ma è vietato creare un profilo per caricare contenuti o commentare se si ha meno di 16 anni.
La legge non specifica come verificare l’età (per evitare di imporre una sorveglianza di Stato), lasciando alle piattaforme le responsabilità, ma fino a metà gennaio 2026, i dati governativi hanno confermato che i social media hanno rimosso collettivamente circa 4,7 milioni di account appartenenti (o presunti tali) a minori di 16 anni. Ovviamente contando anche i duplicati, comunque non male su una popolazione di 27 milioni di abitanti
La soluzione cinese
In Cina, essendo una dittatura, tutto è stato più facile: innanzitutto la rete nazionale è ‘protetta’ da robusti firewall, che la isolano da quella globale, per cui i social media ‘occidentali’ non sono accessibili, e l’abuso dei social media nazionali, come Douyin e Weibo, si riflette sul social score dell’intera famiglia, che si può vedere negato l’accesso agli acquisti di beni di lusso, ai trasporti, ai mutui, fino all’iscrizione a scuole o università di prestigio o al deciso rallentamento quotidiano del traffico dati su internet.
In Europa, i passi di Francia e Spagna
È notizia di tre settimane fa che il Governo britannico ha annunciato l’avvio di una consultazione pubblica sull’uso delle piattaforme digitali da parte degli under 16, mettendo esplicitamente sul tavolo anche l’ipotesi di un divieto di accesso ai social network per i più giovani.
Guardando a quello che sta accadendo adesso in Europa, infine, due sono le iniziative che hanno avuto il maggior risalto sui media. Quella della Francia, dove è già in vigore un accesso limitato agli under15 che viene tuttavia rafforzato, con l’iscrizione ai social media vietata, a meno che non ci sia l’autorizzazione esplicita di entrambi i genitori, e con le piattaforme che non possono più accontentarsi di un’autocertificazione, ma devono utilizzare soluzioni tecniche di ‘age verification’ certificate dall’Arcom, la authority nazionale, quali il ‘doppio anonimato’.
E quella della Spagna, con il governo Sanchez che ha presentato un progetto di legge (che integra la Ley Orgánica già discussa nel 2024 e 2025) che istituisce un divieto assoluto di accesso ai social media per i minori di 16 anni, indipendentemente dal consenso dei genitori. La Legge prevederebbe inoltre che gli amministratori delle piattaforme siano legalmente responsabili per le violazioni commesse sui loro social (come la mancata rimozione di contenuti d’odio o pedo-pornografici) se i sistemi di verifica non funzionano.
Le norme francesi, che sono già legge, dovrebbero entrare pienamente in vigore a partire da settembre 2026; quelle spagnole, pur dovendo passare dall’approvazione delle Cortes, vedranno l’entrata in vigore a fine anno, poiché, benché il PSOE non abbia la maggioranza assoluta nel Governo del paese, dovrebbero ricevere l’appoggio della maggior formazione di centro-destra, il PP (Partido Popular).
Ostacoli dal DSA e dal GDPR
Fin qui il quadro normativo dei diversi Paesi, ma stanno iniziando a emergere difformità con la normativa europea esistente, con le soluzioni scelte per l’age verification e con il contrasto alle soluzioni che i ‘minori’ potrebbero adottare per sfuggire agli obblighi.
Iniziamo dalle prime: norme in contrasto con il DSA e con il Regolamento GDPR. Il DSA stabilisce che una piattaforma tecnologica debba rispondere principalmente alle leggi del paese in cui ha la sua sede legale europea (molto spesso l’Irlanda per Meta, Google e TikTok). Se la Spagna o la Francia imponessero obblighi tecnici o penali diversi da quelli del paese d’origine, potrebbero violare il principio del Mercato Unico Digitale, creando frammentazione normativa ed esponendosi a eventuali ricorsi.
Anche le norme su GDPR potrebbero impattare sulle nuove legislazioni nazionali: la Commissione Europea ha confermato che i singoli paesi ha il diritto di limitare l’uso dei social ai minori, purché le piattaforme (specialmente le VLOP – Very Large Online Platforms) siano messe in condizione di rispettare la norma attraverso strumenti tecnici non discriminatori. A questo proposito, la UE prevede l’obbligo del Digital Identity Wallet, da approvare entro la fine del 2026, che diventerà con i suoi tempi lo standard armonizzato per tutti i membri, evitando che ogni Stato crei un proprio sistema tecnico incompatibile.
Il Progetto Pilota EUID spagnolo si basa di proposito sullo standard che l’UE stessa sta promuovendo (l’European Digital Identity Wallet, appunto). Usando uno strumento approvato da Bruxelles, la Spagna spera di rendere la legge ‘a prova di ricorso’. Ma una speranza non è una certezza: per questo Francia e Danimarca – che sta introducendo norme simili a queste – stanno premendo insieme alla Spagna sulla Commissione per aggiornare il DSA a livello europeo. Se un gruppo di grandi nazioni si attiva, è probabile che l’UE non blocchi la legge spagnola o francese, ma le usi come modelli per una futura direttiva europea.
In altre parole, se la Spagna o la Francia procedessero in modo totalmente solitario e con metodi tecnicamente incompatibili con gli altri paesi, rischierebbero una procedura di infrazione. Tuttavia, guidando una coalizione, stanno trasformando una possibile violazione in un’opportunità per cambiare le regole di tutta l’Unione.
La via di fuga e la sfida alla censura
Tipicamente americano, invece, l’approccio USA, che ha visto un processo aperto un paio di settimane fa coinvolgere Meta, TikTok e Youtube, che stanno resistendo alla denuncia fatta da una giovane di 19 anni, identificata negli atti come K.G.M., che sostiene di aver sviluppato ansia, depressione e pensieri suicidi a causa dell’uso prolungato dei social media. Il caso non è isolato, ma fa parte di centinaia di cause simili coordinate tra loro, che coinvolgono famiglie, giovani e distretti scolastici in diversi tribunali degli Stati Uniti. Con lo sprettro di una class action in arrivo, se l’iniziativa fosse coronata da successo.
Il quadro, pertanto, è tutto fuorché chiaro per quanto concerne tempistiche, modalità di applicazione e validità a livello continentale. Ma il problema maggiore riguarda le strade che i minori potrebbero adottare per sfuggire ai controlli. Una su tutti: una VPN (Virtual private Network) sarebbe sufficiente per ‘localizzare’ fittiziamente la persona che si collega ai social media in un paese dove non esiste divieto al riguardo.
Una strada per contrastarle potrebbe essere la pressione sugli store digitali dove le VPN sono disponibili: piuttosto che cercare di bloccare il traffico criptato delle VPN (operazione tecnicamente complessa e vicina alla censura stile cinese), l’idea è di obbligare Apple e Google a verificare l’età al momento del download dell’app stessa o della VPN. Se un account Apple/Google è registrato come ‘minore di 16 anni’, non potrebbe scaricare né il social né l’app VPN che servirebbe per aggirare il divieto.
Non è un sistema sicuro al 100%,ma l’obiettivo dei governi è togliere i genitori dall’angolo della libera decisione: se un social è vietato per legge, il genitore ha una ‘scusa legale’ per negarlo al figlio. Questo ridurrebbe anche la pressione sociale tra i ragazzi: se metà della classe non potesse accedere per legge, il bisogno di esserci per non sentirsi esclusi dovrebbe diminuire.
Nonostante tutto, ci sarà sempre una minoranza di ragazzi tecnicamente evoluti che userà VPN decentralizzate o browser come Tor per entrare: sarebbe naturale che sorgesse allora tra i ragazzi una sorta di ‘sfida alla censura’ che renderebbe ancora più popolari le VPN e i software per craccarle.
Alcuni esperti suggeriscono che l’unico modo reale per fermare le VPN sarebbe il cosiddetto ‘White Listing’ (permettere solo siti approvati), ma questo trasformerebbe l’internet europeo in una rete chiusa simile a quella russa o cinese, un prezzo che le democrazie occidentali non sono ancora disposte a pagare.
Protezione minori o meno.
di Massimo Bolchi