C’è un momento preciso in cui un social network diventa tossico. Non quando arriva il primo troll, non quando partono gli algoritmi di engagement, ma nel secondo esatto in cui la prima persona decide di seguire qualcun altro. Da lì in poi, secondo uno studio appena pubblicato dall’Università di Amsterdam, è tutto in discesa verso echo chamber, polarizzazione e amplificazione degli estremisti. E a quanto pare no, non c’è rimedio.
Echo chamber e il fallimento delle soluzioni tradizionali
Petter Törnberg e Maik Larooij dell’Università di Amsterdam non si aspettavano questi risultati. Il loro obiettivo era semplice: creare un modello di social media pulito e testare se le soluzioni proposte da anni potessero funzionare. Hanno costruito una piattaforma virtuale minimale dove agenti controllati da intelligenza artificiale potevano postare, condividere e seguirsi a vicenda. Niente algoritmi di engagement, niente pubblicità invasiva, niente manipolazione dell’attenzione.
Il risultato? Come riportato nello studio pubblicato su ArXiv, anche in queste condizioni ideali sono emersi spontaneamente tutti i problemi che conosciamo: echo chamber polarizzate, concentrazione dell’influenza in una piccola élite di utenti, e amplificazione sistematica delle voci più estreme. “Non abbiamo dovuto aggiungere nulla al modello base”, spiega Törnberg. “Queste dinamiche problematiche sono emerse naturalmente dalla struttura stessa della rete sociale.”
La scoperta è inquietante perché dimostra che il problema non risiede negli algoritmi malvagi o nei comportamenti tossici degli utenti, ma nella matematica delle reti sociali. Quando le persone scelgono chi seguire basandosi su connessioni precedenti, si crea automaticamente una distribuzione di potere che segue una legge di potenza: l’1% degli utenti finisce per dominare completamente la conversazione.

Sei tentativi di riforma, sei fallimenti
I ricercatori hanno testato sistematicamente sei diverse strategie di intervento, tutte proposte negli anni da esperti e accademici per combattere la tossicità online. Nessuna ha funzionato come sperato.
Il feed cronologico ha ridotto la disuguaglianza dell’attenzione ma ha intensificato l’amplificazione di contenuti estremi.
L’aumento della diversità di opinioni non ha avuto impatti significativi.
Gli algoritmi di bridging, pensati per collegare utenti con opinioni opposte, hanno migliorato la diversità ma aumentato la concentrazione del potere, e così via.
Come documenta la ricerca di Törnberg, ogni soluzione ha creato nuovi problemi o spostato il problema altrove.
Persino nascondere le statistiche sociali (like, condivisioni, numero di follower) o rimuovere le biografie degli utenti per limitare i segnali identitari ha portato risultati deludenti. “Il meccanismo che produce questi risultati problematici è davvero robusto e difficile da risolvere”, ammette Törnberg nell’intervista ad Ars Technica.
Il problema più profondo è che questi interventi spesso migliorano un aspetto peggiorandone un altro. È come premere un palloncino: la pressione si sposta ma non scompare mai. Gli echo chamber sembrano essere una caratteristica emergente inevitabile delle reti sociali digitali, non un bug che può essere riparato con qualche aggiustamento algoritmico.
Perché neanche Bluesky e Mastodon cambiano le regole del gioco
La ricerca spiega anche perché piattaforme alternative come Bluesky, che si vanta di non avere algoritmi di raccomandazione, finiscono per sviluppare le stesse dinamiche tossiche di Twitter o Facebook. Come avevamo anticipato analizzando il crollo dei social tradizionali, il problema non è negli algoritmi di engagement ma nella struttura matematica delle connessioni sociali.
Ogni volta che un utente sceglie di seguire qualcuno, sta partecipando a un processo di “preferential attachment”: le persone già popolari diventano ancora più popolari, creando una distribuzione di influenza sempre più concentrata. È la stessa dinamica che fa sì che alcune città diventino megalopoli mentre altre restano paesi, ma applicata alle relazioni digitali.
Lo studio suggerisce che per superare davvero questi problemi bisognerebbe abbandonare il modello di rete sociale globale e tornare a strutture più locali e basate su gruppi. Si può fare? Mmm.
Echo chamber: il futuro è già scritto?
Le implicazioni di questa ricerca vanno ben oltre i social media. Come dimostrato da altri studi sui danni fisici dei social, stiamo parlando di piattaforme che influenzano la salute mentale e fisica di miliardi di persone, oltre a plasmare il discorso politico globale.
Anche se non usi più i social media, il resto della cultura viene comunque trasformato dalla logica delle piattaforme. I giornali adattano i loro titoli a quello che funziona sui social, i politici cambiano il loro modo di comunicare, l’intera società viene rimodellata dagli incentivi creati da queste piattaforme.
La ricerca di Törnberg e Larooij non lascia molto spazio all’ottimismo. Con l’arrivo dei modelli linguistici avanzati, che possono produrre contenuti ottimizzati per massimizzare l’engagement su scala industriale, la situazione potrebbe peggiorare ulteriormente. Stiamo entrando in un’era dove bot sempre più sofisticati potrebbero dominare le conversazioni online, amplificando ancora di più le dinamiche tossiche già esistenti.
In attesa di qualche brillante ripensamento fondamentale che riesca a cambiare queste dinamiche, le echo chamber continueranno a prosperare, indipendentemente da quanti algoritmi cambieremo o quante nuove piattaforme lanceremo.
Perché non sono i social. Siamo noi.