La verifica digitale dell’età degli utenti sta diventando sempre più presente nel nostro quotidiano online. Governi di Regno Unito, Unione Europea, Stati Uniti e Australia stanno introducendo normative stringenti che impongono alle piattaforme social di accertare l’età degli utenti prima di mostrare contenuti per adulti o consentire l’accesso in generale.
In Europa è attivo il processo di sperimentazione di un’app sviluppata dalla Commissione UE: un sistema teso a garantire che l’utente abbia almeno 18 anni senza rivelare altre informazioni personali. Sarà pilota in Italia, Francia, Spagna, Grecia e Danimarca e farà parte del futuro portafoglio d’identità digitale previsto entro il 2026.
Nel Regno Unito, l’Online Safety Act è già operativo: richiede sistemi affidabili di verifica dell’età per accedere ai contenuti sensibili. Non basta dichiarare di essere maggiorenni: servono documenti, scansioni biometriche o servizi di terze parti per certificare l’identità.
La normativa si estende anche agli Stati Uniti, dove alcuni stati come Tennessee, Utah, California e Arkansas hanno adottato leggi che richiedono la verifica dell’età — spesso associata al consenso dei genitori per gli under 18 — per accedere ai social media. In Australia, invece, sta per entrare in vigore una misura che vieta agli under 16 di aprire account su piattaforme come Facebook, Instagram e TikTok, con sanzioni fino a 50 milioni di AUD per i servizi non conformi.
Non mancano effetti concreti: in Mississippi, ad esempio, la piattaforma decentralizzata Bluesky ha deciso di bloccare completamente l’accesso dal territorio, poiché la legge anti-minori richiederebbe una raccolta dati troppo invasiva.
Sul tavolo restano i grandi interrogativi: cosa chiediamo alla privacy in nome della sicurezza? L’uso di documenti personali, dati biometrici, foto o scansioni online può esporre gli utenti a violazioni, tracciamenti o violazioni di diritti. E tutto questo, nel contesto di sistemi fragili o facilmente aggirabili, rischia di essere più dannoso che protettivo
