Mark Zuckerberg ha trovato il modo di guardare le ossa dei bambini senza chiamarlo riconoscimento facciale. La nuova verifica dell’età di Meta, annunciata il 5 maggio, scansiona foto e video pubblicati su Facebook e Instagram per stimare se chi c’è in posa abbia meno di 13 anni. Cosa guarda l’algoritmo? Altezza, struttura ossea, proporzioni del corpo. Non il volto, ci tengono a precisare: “general themes and visual cues”, temi generali e segnali visivi. In pratica: ti misuriamo lo scheletro, ma giuriamo che non ti riconosciamo.
Il sistema combina questa analisi visiva della struttura ossea con l’esame di didascalie, commenti, biografie e interazioni: menzioni di compleanni, riferimenti alla classe scolastica, festicciole. Se l’AI ritiene che dietro un account ci sia un under 13, l’account viene disattivato. Per riaverlo, devi superare un processo di verifica dell’età: documento, selfie, qualcosa che dimostri che le tue ossa hanno l’età che dichiari di avere. Per ora il rollout è in “select countries” (gli Stati Uniti per primi, poi Europa e Brasile su Instagram, UK e UE su Facebook entro giugno).
La verifica età che non guarda i volti, però scansiona i corpi
La precisazione di Meta merita di essere letta lentamente. Sul blog ufficiale scrivono:
“Vogliamo essere chiari: questo non è riconoscimento facciale. La nostra AI guarda temi generali e segnali visivi, ad esempio altezza o struttura ossea, per stimare l’età approssimativa di una persona; non identifica la persona specifica nell’immagine.”
Quindi: l’algoritmo passa al vaglio le foto di milioni di bambini, ne misura le proporzioni anatomiche, ma non sta facendo riconoscimento facciale perché tecnicamente non collega la faccia a un nome. Vabbè. Faccio il cattivello? Mi pare una sottigliezza che pare disegnata apposta per le slide della prossima causa legale. Il problema, come sempre con Meta, non è il singolo passaggio tecnico: è la traiettoria. Prima i social raccoglievano like, poi metadati, ora le dimensioni dello scheletro. Ognuno di questi passi è stato presentato come quello finale, indispensabile. Ma siamo sicuri?
L’intelligenza artificiale di Menlo Park (per chi non lo sapesse, è dove Meta ha sede) impara osservando: il modello di stima dell’età si addestra su immagini di persone di età nota, classifica i corpi in fasce, restituisce una probabilità. Se il volto compare nell’immagine, fa parte dell’input. Dire che “non identifica la persona” è vero solo se per “identificare” intendiamo “associare a un’identità anagrafica certa”. Per tutto il resto (la persona è in piedi davanti a una scuola? festeggia? tiene un palloncino con scritto 11?), l’algoritmo guarda eccome.
Scansione della struttura ossea: vi faccio notare una cosa
L’annuncio del 5 maggio non è isolato. È stato pubblicato pochi giorni dopo due eventi che il blog ufficiale di Meta non sottolinea con altrettanto entusiasmo. Il primo: una giuria del New Mexico ha condannato Meta a pagare 375 milioni di dollari per aver ingannato i consumatori sulla sicurezza delle proprie piattaforme e non aver protetto i bambini dai predatori online. La sentenza prevede anche cambiamenti strutturali alle piattaforme. Cambiamenti che Meta ha minacciato di non implementare al punto da valutare di abbandonare lo Stato.
Il secondo: il 29 aprile la Commissione Europea ha pubblicato i primi riscontri secondo cui Instagram e Facebook violano il Digital Services Act proprio per la mancata applicazione del limite dei 13 anni. Le multe potenziali, se confermate, possono arrivare al 6% del fatturato globale annuo. Per Meta significa una cifra a undici zeri. Detto altrimenti: l’AI delle ossa non spunta dal nulla per amore dei bambini, spunta perché Bruxelles e una corte del New Mexico hanno appena fatto i conti in tasca a Zuckerberg.
E nel frattempo, in fondo all’annuncio, Meta torna a chiedere una legislazione che sposti la verifica dell’età sugli app store. Sarebbero Apple e Google a controllare l’età di chi scarica un’app, non Meta a controllare l’età di chi usa la sua. Una bella mossa: scarichi la responsabilità su due aziende, e quando un bambino arriva su Instagram potrai dire che è colpa dell’iPhone.
Nel frattempo, i bambini si disegnano la barba (sul serio)
C’è un dettaglio nei dati che fa sorridere e poi pensare. Secondo Internet Matters, il 46% dei bambini ritiene che i controlli sull’età siano facili da aggirare. Solo il 17% li considera difficili. Hanno ragione? I metodi: inserire una data di nascita falsa, usare il documento di qualcun altro e, sì, disegnarsi la barba sulla faccia per ingannare i sistemi di stima dell’età. Bambini che si truccano per sembrare più vecchi davanti a un algoritmo: una scena che, dieci anni fa, avrebbe suggerito a Brooker un nuovo episodio di Black Mirror.
L’AI di Meta dovrebbe, in teoria, vedere oltre il “pelo” finto: un bambino con la barba disegnata ha comunque le ossa di un bambino. Però è un esempio perfetto di come funziona la “corsa agli armamenti” tra le piattaforme social e gli utenti minorenni. Tu fai un sistema più sofisticato, loro trovano un trucco più creativo. Fino a quando, presumibilmente, qualcuno produrrà guide su YouTube per “ingannare la scansione ossea di Instagram”. E noi ci scriveremo un articolo a parte.
Sullo sfondo c’è il problema vero, che Meta non vuole nominare: il conto degli account. La piattaforma vive di utenti, gli investitori guardano i numeri trimestrali, e ogni under 13 rimosso son quattrini in meno. C’è una contraddizione strutturale tra “voglio rimuovere i bambini” e “voglio crescere economicamente”, e finora ha vinto la seconda. Ora vince la prima solo perché Bruxelles ha alzato la voce. Le cause legali di chi ha perso un figlio per contenuti su Instagram raccontano da anni la stessa cosa: i danni erano noti, le scelte sono state altre.
L’Italia ha scelto un’altra strada (più scomoda, ma devo dire più seria)
Mentre Meta annuncia il suo scanner della struttura ossea, l’Italia da novembre 2025 ha attivato un sistema diverso: la doppia anonimia AGCOM nei siti per adulti. Funziona così: ottieni un token da un soggetto terzo certificato (banca, operatore telefonico), che sa chi sei ma non sa cosa visiterai; lo presenti al sito, che saprà che sei maggiorenne, ma non sa chi sei. Due silos separati, nessuno dei due sa tutto.
È una soluzione più macchinosa, certo. Ma confrontata con l’AI che scansiona i corpi dei bambini per stimarne l’età, è anche infinitamente meno invasiva. La differenza è proprio filosofica: in un caso lo Stato dice “verifica con un terzo neutrale”, nell’altro la piattaforma dice “fidati, ho l’AI giusta, e non ti guardo davvero in faccia: ti guardo e ti misuro solo le ossa”.
Andiamo, siate sinceri: da quale dei due preferireste essere controllati? Va bene anche “da nessuno”, la accetto come risposta (a patto di trovare altri modi per proteggere davvero e soltanto i bambini).
Quando lo vedremo davvero
Orizzonte stimato: 1-2 anni per la diffusione globale del sistema, 3-5 anni perché i regolatori capiscano davvero cosa fa.
L’AI di stima dell’età sulla struttura ossea dei corpi è già operativa negli USA e arriverà in UE entro l’estate. Il rallentamento è normativo: il GDPR considera “dato biometrico” ogni elaborazione automatica di caratteristiche fisiche di un individuo identificabile. Meta sostiene che i suoi modelli non identificano nessuno, quindi non rientrano.
I garanti europei la vedranno diversamente, e nei prossimi 24 mesi avremo le prime contestazioni formali. Nel frattempo, chi ne beneficia per primo?
I bambini bravi a non farsi vedere (ne resteranno tanti), i ragazzi degli avvocati di Meta (per parecchi anni di lavoro), e gli app store che forse erediteranno la patata bollente. I bambini reali, che è quello di cui parlerebbe il comunicato se lo leggessimo distrattamente, sono terzi nell’ordine.
E ora la piccola domanda per voi, quasi marginale, che però vale sempre la pena farsi: quando un sistema impara a stimare l’età dalle ossa di un bambino, le ossa di quel bambino (e in realtà di tutti, anche degli adulti: sennò come fai a distinguere?) sono passate dentro un modello.
Meta dice che non le conserva, che non le associa a un nome, che non le riusa. Chi vuole crederci, ci creda.
Gianluca, da Napoli, suggerirebbe di mettere meno foto sui social.