Instagram si prepara a introdurre una nuova misura di tutela per i minori: nelle prossime settimane inizierà a notificare i genitori quando i figli cercano ripetutamente contenuti legati al suicidio o all’autolesionismo.
La novità riguarda gli account con supervisione parentale attiva nel Regno Unito, negli Stati Uniti, in Australia e in Canada. In caso di ricerche frequenti di frasi che promuovono il suicidio, che suggeriscono l’intenzione di farsi del male o anche semplicemente termini come suicidio e autolesionismo inseriti in un breve lasso di tempo, i genitori riceveranno un avviso via email, SMS, WhatsApp e tramite notifica diretta su Instagram.
Oltre alla segnalazione, Meta metterà a disposizione risorse di esperti pensate per aiutare le famiglie ad affrontare conversazioni particolarmente delicate con i propri figli adolescenti. L’obiettivo dichiarato è quello di trasformare l’allerta in un’occasione di dialogo, offrendo strumenti concreti per gestire situazioni potenzialmente critiche.
A breve, inoltre, le notifiche scatteranno anche nel caso in cui un ragazzo interagisca con Meta AI su temi legati al suicidio o all’autolesionismo. In teoria, queste ricerche dovrebbero già essere intercettate e bloccate: Instagram limita la visibilità di contenuti dannosi e Meta AI integra sistemi di protezione che indirizzano verso organizzazioni di supporto.
Non mancano però le critiche. Una delle principali organizzazioni per la sicurezza online ha definito l’aggiornamento fragile, sostenendo che rischia di lasciare i genitori in allarme ma senza un’adeguata preparazione.
Non mancano però le critiche. Una delle principali organizzazioni per la sicurezza online ha definito l’aggiornamento fragile, sostenendo che rischia di lasciare i genitori in allarme ma senza un’adeguata preparazione. Anche la Molly Rose Foundation sottolinea come, nonostante le misure annunciate, contenuti su suicidio e autolesionismo siano ancora presenti sulla piattaforma.