"Questo goffo annuncio è pieno di rischi"
I genitori che utilizzano gli strumenti di supervisione dei minori di Instagram riceveranno presto degli avvisi se i loro figli adolescenti cercano ripetutamente contenuti che riguardano il suicidio o l'autolesionismo sulla piattaforma.
È la prima volta che la società madre Meta informa attivamente i genitori sulle attività di ricerca dannose, anziché limitarsi a bloccare i risultati e indirizzare i giovani utenti verso un aiuto esterno.
La funzionalità sarà disponibile la prossima settimana per le famiglie che utilizzano gli account Instagram per adolescenti nel Regno Unito, negli Stati Uniti, in Australia e in Canada. Altri Paesi saranno aggiunti in seguito.
Meta ha affermato che gli avvisi verranno attivati quando i suoi sistemi rileveranno ricerche ripetute di termini correlati al suicidio o all'autolesionismo in un breve lasso di tempo su Instagram.
I genitori riceveranno le notifiche via e-mail, SMS, WhatsApp o tramite l'app Instagram, a seconda delle informazioni di contatto collegate all'account.
L'azienda ha affermato che ogni avviso includerà una guida esperta per aiutare i genitori ad affrontare quella che potrebbe essere una conversazione delicata. Ha aggiunto che il sistema potrebbe talvolta segnalare ricerche in cui non vi è alcun rischio serio e che "peccherà per eccesso di cautela".
Tuttavia, l'annuncio ha suscitato critiche da parte della Molly Rose Foundation.
L'amministratore delegato Andy Burrows ha dichiarato: "Questo annuncio goffo è pieno di rischi e temiamo che le divulgazioni forzate possano causare più danni che benefici".
La fondazione è stata creata dalla famiglia di Molly Russell, morta nel 2017 all'età di 14 anni dopo aver visualizzato materiale che parlava di suicidio e autolesionismo su piattaforme come Instagram.
Burrows ha affermato: "Ogni genitore vorrebbe sapere se il proprio figlio sta attraversando un momento difficile, ma queste notifiche inconsistenti li lasceranno nel panico e impreparati ad affrontare le conversazioni delicate e difficili che seguiranno".
Diverse organizzazioni benefiche hanno affermato che questa mossa mette in luce preoccupazioni più ampie circa il fatto che materiale dannoso resti accessibile ai giovani utenti.
Ged Flynn, amministratore delegato di Papyrus Prevention of Young Suicide, ha affermato che l'organizzazione benefica ha accolto con favore le iniziative volte a coinvolgere i genitori, ma ha avvertito che il problema di fondo persiste.
Ha affermato che Meta stava "trascurando il vero problema: i bambini e i giovani continuano a essere risucchiati in un mondo online oscuro e pericoloso".
Ha aggiunto: "I genitori ci contattano ogni giorno per dirci quanto sono preoccupati per la vita online dei loro figli.
"Non vogliono essere avvisati quando i loro figli cercano contenuti dannosi; non vogliono che questi contenuti vengano loro propinati da algoritmi sconsiderati."

Leanda Barrington-Leach, direttrice esecutiva della 5Rights Foundation, ha affermato:
"Se Meta vuole prendere sul serio la sicurezza dei bambini, deve ripartire da zero e adattare i suoi sistemi alle diverse fasce d'età fin dalla progettazione e per impostazione predefinita."
Burrows ha fatto riferimento anche a una ricerca pubblicata dalla Molly Rose Foundation lo scorso settembre, secondo cui Instagram continua a consigliare "attivamente" materiale su depressione, suicidio e autolesionismo ai "giovani vulnerabili".
Ha aggiunto: "L'onere dovrebbe ricadere sull'affrontare questi rischi, piuttosto che fare l'ennesimo annuncio cinicamente tempestivo che scarica la responsabilità sui genitori".
Meta contestò i risultati all'epoca, affermando che la ricerca "travisa i nostri sforzi per responsabilizzare i genitori e proteggere gli adolescenti".
Instagram ha affermato che intende estendere avvisi simili nei prossimi mesi se gli adolescenti parlano di suicidio o autolesionismo con il suo chatbot basato sull'intelligenza artificiale, sottolineando che i giovani "si rivolgono sempre più all'intelligenza artificiale per ricevere supporto".
I cambiamenti giungono mentre i governi intensificano i controlli sull'approccio delle aziende di social media alla sicurezza dei bambini.
All'inizio di 2026, Australia ha introdotto il divieto di utilizzo dei social media per i minori di 16 anni. Spagna, Francia e Regno Unito stanno valutando misure analoghe.
Il direttore generale di Meta Mark Zuckerberg e il responsabile di Instagram Adam Mosseri sono comparsi di recente in tribunale negli Stati Uniti per difendere l'azienda dalle accuse di aver preso di mira gli utenti più giovani.








