TikTok sa esattamente cosa guarda tuo figlio alle due di notte, tu no. E nemmeno la scienza, fino a oggi. Tre università hanno deciso di cambiare le cose: 10.000 adolescenti britannici hanno usato il GDPR per scaricare i propri dati dalla piattaforma e consegnarli a un gruppo di ricercatori. Il primo studio su larga scala che analizza il consumo passivo dei giovani, video dopo video, raccomandazione dopo raccomandazione. E vale la pena di seguire la cosa.
Un processo a Los Angeles, una ricerca a Atlanta
A febbraio 2026 Mark Zuckerberg saliva per la prima volta sul banco dei testimoni davanti a una giuria vera, a Los Angeles, per rispondere dell’accusa che Instagram sia stato progettato per creare dipendenza nei minori. TikTok e Snapchat, coinvolte nello stesso procedimento, hanno preferito patteggiare prima di arrivare in aula. Zuckerberg si è scusato per i filtri d’età che non hanno funzionato, ha ammesso ritardi eccetera eccetera, il copione è noto.
Dall’altra parte del paese, intanto, Munmun De Choudhury preparava qualcosa di diverso: non un atto d’accusa, ma una radiografia. De Choudhury è professoressa al Georgia Institute of Technology, pioniera nell’uso computazionale dei dati social per studiare la salute mentale. Il suo team include Amy Orben dell’Università di Cambridge e Homa Hosseinmardi della UCLA. Il progetto dura quattro anni, costa 1,7 milioni di dollari, ed è finanziato dalla Huo Family Foundation, fondazione britannica che ha stanziato 17,6 milioni complessivi per venti ricerche sull’impatto del digitale sullo sviluppo cerebrale e comportamentale dei giovani.
Il buco nero si chiama consumo passivo
Il fatto è questo: la quasi totalità degli studi sulla salute mentale e i social media si è concentrata su ciò che gli utenti pubblicano. Post, commenti, like, interazioni visibili. Roba che (quando le API erano aperte) si poteva analizzare su scala. Questo studio va nella direzione opposta: analizza le cronologie di visualizzazione. Quello che i ragazzi guardano senza mai premere “pubblica”, senza mai commentare, senza mai lasciare traccia visibile.
Il consumo passivo è il lato invisibile dell’esperienza social. Un adolescente (ma soprattutto, badate bene, UN BAMBINO) può passare due ore a scorrere video senza interagire una sola volta, e nessuno (genitori, insegnanti, ricercatori) saprà mai cosa ha visto. L’algoritmo lo sa. L’algoritmo lo registra. L’algoritmo usa quell’informazione per decidere cosa mostrare dopo.
Scheda studio
- Titolo: Studio sull’impatto dell’algoritmo TikTok sulla salute mentale degli adolescenti
- Autori: Munmun De Choudhury (PI), Amy Orben, Homa Hosseinmardi
- Istituzioni: Georgia Institute of Technology, University of Cambridge, UCLA
- Finanziamento: Huo Family Foundation Science Programme, $1,7 milioni, durata 4 anni
- Stato: In corso (annuncio febbraio 2026)
Il bot che scrolla al posto tuo
La ricerca non si ferma all’analisi degli archivi. Il team userà l’intelligenza artificiale per simulare anche dei feed TikTok realistici: gemelli digitali che riproducono i percorsi di raccomandazione dell’algoritmo, per capire come si costruiscono le cosiddette “tane del bianconiglio”. È una tecnica che Hosseinmardi ha già testato su YouTube nel 2024, usando bot che seguivano o ignoravano le raccomandazioni della piattaforma per mappare le spirali di contenuto.
Su TikTok il metodo diventa più rilevante: il formato video breve a scorrimento infinito amplifica il consumo passivo perché elimina ogni frizione. Un video finisce, il prossimo parte da solo. La decisione di guardare non è più una decisione, è un’inerzia. I feed simulati servono a capire con quale velocità e con quale frequenza l’algoritmo porta un utente da un video innocuo a contenuti problematici per la salute mentale: autolesionismo, disturbi alimentari, contenuti depressivi.
I dati del Center for Countering Digital Hate già indicavano che un account TikTok di un tredicenne che interagisce con contenuti sull’immagine corporea riceve raccomandazioni simili ogni 39 secondi. Questo studio vuole capire se il consumo passivo (guardare senza interagire) produca percorsi altrettanto rapidi.
Le piattaforme chiudono, i ricercatori aggirano
Un dettaglio che merita attenzione: le piattaforme social sono diventate progressivamente più chiuse. Le API che dieci anni fa permettevano di raccogliere dati su larga scala da X (allora Twitter) sono state ridotte al minimo. De Choudhury lo dice senza giri di parole: il processo di raccolta è diventato manuale, lento, burocratico.
La scelta di passare dal GDPR è intelligente, ma anche un segnale che non si può ignorare. Quando tre università di tre paesi diversi devono chiedere ai ragazzi stessi di scaricarsi i dati e consegnarli perché le piattaforme non collaborano, il problema non è metodologico: è strutturale. Le aziende che guadagnano dall’attenzione degli adolescenti sono le stesse che rendono quasi impossibile studiare gli effetti di quell’attenzione sulla loro salute mentale.
La finestra che non aspetta
De Choudhury insiste su un punto che i tribunali non possono affrontare e la ricerca forse sì: i primi segnali di disagio mentale compaiono nell’adolescenza. Se li intercetti lì, puoi cambiare la traiettoria. Se li ignori, diventano cronici.
I risultati saranno specifici per TikTok, ma il team spera che siano generalizzabili. Instagram Reels, YouTube Shorts, la stessa X: tutti hanno copiato il formato video verticale a scorrimento infinito: troppo grandi i numeri, troppo ghiotta l’occasione. L’architettura è la stessa, l’autoplay è lo stesso, la logica di raccomandazione è la stessa. Se il consumo passivo su TikTok produce percorsi problematici, le sue “copie” nate in seguito probabilmente fanno lo stesso.
Ho una figlia che cresce in un mondo dove il primo contatto con un algoritmo di raccomandazione arriva prima del primo contatto con l’algebra. E la cosa che mi resta di questo studio, a parte il timore che i social saranno ricordati come le sigarette del XXI secolo, non è il budget o il campione: è che per sapere cosa guardano 10.000 ragazzi su TikTok, la scienza ha dovuto bussare alla porta dei ragazzi.
Alla porta di TikTok, nessuno ha nemmeno provato.
Approfondisci
Il rapporto tra algoritmi e giovani utenti è un tema che seguiamo da tempo. L’algoritmo di TikTok USA, dopo il passaggio di proprietà a un consorzio guidato da Oracle, ha già sollevato domande serie sulla trasparenza algoritmica e sulla censura dei contenuti. Il meccanismo per cui le piattaforme premiano i contenuti che generano più reazioni emotive è lo stesso che alimenta la macchina dei baby influencer, dove i bambini producono engagement che gli adulti monetizzano. E se volete un quadro più ampio su come lo scroll infinito agisca come una sostanza psicoattiva, ne abbiamo scritto quando la ricerca ha iniziato a paragonarlo alla cocaina.