"ciò significa che i bambini minorenni possono accedere facilmente ai servizi"
Le principali aziende tecnologiche sono state invitate a introdurre controlli dell'età più rigorosi per i minori di 13 anni nel Regno Unito, simili a quelli attualmente in vigore per i servizi pensati per gli adulti.
La richiesta proviene dall'ente regolatore dei media Ofcom e dall'Information Commissioner's Office (ICO).
Tra le aziende contattate figurano Facebook, Instagram, Snapchat, TikTok, YouTube, Roblox e X.
Entrambe le autorità di regolamentazione hanno affermato che le aziende devono fare di più per impedire che i minorenni si iscrivano e utilizzino servizi non pensati per loro.
Melanie Dawes, direttrice generale dell'Ofcom, ha affermato che attualmente i servizi "non riescono a mettere la sicurezza dei bambini al centro dei loro prodotti".
Attualmente, molte piattaforme si affidano all'autodichiarazione dell'età da parte degli utenti al momento della registrazione.
Tuttavia, gli enti regolatori affermano che questo metodo è facilmente aggirabile e consente bambini minori di 13 anni per accedere ai social media.
In una lettera aperta, l'ICO ha affermato: "Dato che l'autodichiarazione è facilmente aggirabile, ciò significa che i minori possono accedere facilmente a servizi che non sono stati concepiti per loro".
La maggior parte delle principali piattaforme di social media stabiliscono un'età minima di 13 anni. Ma Ricerca Ofcom suggerisce che l'86% dei bambini di età compresa tra 10 e 12 anni ha un proprio profilo sui social media.
Gli enti regolatori chiedono “controlli dell’età altamente efficaci”, simili a quelli già richiesti per alcuni servizi online che ospitano contenuti per adulti.
Secondo la legge vigente nel Regno Unito, tali controlli sono richiesti principalmente per i servizi che offrono contenuti riservati ai maggiori di 18 anni, come pornografia.
L'applicazione di metodi simili alle piattaforme dei social media richiederebbe alle aziende tecnologiche di introdurre volontariamente sistemi di verifica più rigorosi per gli utenti più giovani.
Le preoccupazioni dell'ICO si concentrano anche sul modo in cui le piattaforme elaborano i dati personali dei bambini.
La lettera aggiungeva: "Quando i servizi hanno fissato un'età minima, ad esempio 13 anni, generalmente non hanno alcuna base giuridica per elaborare i dati personali di bambini di età inferiore a tale età sui loro servizi".
La Segretaria per la Tecnologia, Liz Kendall, ha appoggiato la richiesta delle autorità di regolamentazione di misure di salvaguardia più severe. Ha affermato che nessuna piattaforma riceverà un trattamento speciale in termini di protezione dei giovani utenti online.
Ha aggiunto: "Nessuna azienda dovrebbe aver bisogno di un ordine del tribunale per agire responsabilmente per proteggere i bambini".
Diverse aziende tecnologiche hanno difeso le misure di sicurezza già in atto sulle loro piattaforme.
YouTube ha dichiarato di essere sorpresa dalla posizione di Ofcom e di aver messo in discussione l'approccio dell'ente regolatore.
Meta ha affermato di aver già implementato diversi suggerimenti sollevati da Ofcom, "tra cui l'utilizzo dell'intelligenza artificiale per rilevare l'età degli utenti in base alla loro attività e la tecnologia di stima dell'età facciale".
L'azienda ha aggiunto che l'introduzione della verifica dell'età negli app store significherebbe che "genitori e adolescenti dovranno fornire le proprie informazioni personali solo una volta".
Snapchat ha affermato che sta attualmente testando nuovi strumenti di verifica dell'età.
TikTok ha affermato di utilizzare "tecnologie avanzate" per rilevare e rimuovere gli account appartenenti a bambini di età inferiore ai 13 anni.
L'azienda ha aggiunto che pubblicherà report sulla trasparenza degli account di minorenni rimossi dalla piattaforma.
TikTok ha dichiarato di aver rimosso più di 90 milioni di account sospettati di avere meno di 13 anni tra ottobre 2024 e settembre 2025.
La piattaforma di gioco Roblox ha affermato di aver introdotto ulteriori misure di sicurezza per gli utenti più giovani.
L'azienda ha dichiarato di aver rilasciato 140 nuove funzionalità di sicurezza nell'ultimo anno. Tra queste, "l'introduzione di nuovi controlli obbligatori sull'età che tutti i giocatori devono completare per accedere alle funzionalità di chat".
Un portavoce di Roblox ha aggiunto che "non vediamo l'ora di dimostrare i nostri sforzi nel dialogo in corso con Ofcom".
Gli esperti affermano che l'intervento delle autorità di regolamentazione evidenzia la crescente preoccupazione per la sicurezza dei bambini online.
La professoressa Amy Orben, esperta di salute mentale digitale presso l'Università di Cambridge, ha accolto con favore l'iniziativa, ma ha avvertito che deve essere seguita da un'applicazione più severa delle norme.
Ha affermato: "La sicurezza deve essere integrata nei prodotti fin dalla progettazione, anziché essere considerata un aspetto secondario, e le autorità di regolamentazione devono dimostrare maggiore incisività nel chiedere conto alle aziende".
L'analista dei social media Matt Navarra ha affermato: "Sapere che un utente è un bambino è il primo passo, ma progettare una piattaforma che non sfrutti la sua attenzione è il passo successivo, e questo passo è in realtà molto più difficile".








