Meta, società che fa capo a piattaforme come Facebook, Instagram, WhatsApp e Threads, ha espresso il proprio sostegno all’introduzione di una “maggiore età digitale” unica e valida a livello europeo. La proposta prevede che gli adolescenti più giovani possano scaricare app, incluse quelle social, solo con l’approvazione dei genitori.
Meta non vuole divieti governativi
La nuova iniziativa dell’azienda in merito alla verifica dell’età si inserisce in un dibattito in corso nell’Unione Europea sul ruolo delle piattaforme digitali nel garantire la sicurezza dei minori. Meta si è detta tra l’altro contraria a divieti governativi sull’uso dei social media. Preferirebbe invece un modello in cui i genitori possano avere un maggiore controllo sulle attività dei figli.
A sostegno della propria posizione, Meta cita un sondaggio di Morning Consult secondo cui circa il 75% degli adulti ritiene che i genitori debbano decidere se i propri figli possano installare determinate applicazioni. La proposta, se accettata, sposterebbe l’onere della verifica dell’età dalle singole piattaforme agli store di app e ai sistemi operativi con un approccio, a suo parere, potenzialmente più efficace.
Meta sottolinea la necessità di sistemi di verifica dell’età semplici, coerenti e rispettosi della privacy. A tal proposito viene menzionata l’iniziativa di Google che ha recentemente reso open source le proprie librerie di zero-knowledge proof per consentire ai genitori di verificare la propria identità senza compromettere i dati personali.
Il dibattito sulla verifica dell’età è in corso
Ad oggi molti Paesi europei stanno valutando differenti misure di verifica dell’età, soprattutto in relazione ai siti web per adulti. L’estensione di tali strumenti a tutto l’ecosistema online tramite una normativa unica europea potrebbe rappresentare una svolta nella tutela dei minori.
Meta ha già introdotto delle protezioni nei suoi servizi attraverso i Teen Accounts che includono limiti di tempo, promemoria e impostazioni controllabili dai genitori. Queste misure non si applicano però a piattaforme esterne come Discord o Telegram. Un controllo integrato a livello di sistema operativo o app store potrebbe quindi offrire una protezione più ampia.

