A un certo punto capisci che il problema non sono le persone, ma il sistema, e non te la prendi più con i tweet o i post Facebook violenti ma con il feed che premia la rabbia. L’etica digitale ha smesso di essere un discorso “accademico” nel momento esatto in cui qualcuno ha iniziato a scrivere un codice diverso.
Quando la Gen Z ha iniziato a comprare flip phone da 30 euro invece di smartphone da mille, o 13 milioni di persone hanno scelto social network senza algoritmi (si, esistono). Ancora, quando la Commissione Europea ha aperto la sua istanza Mastodon, ok, vi ho spoilerato una cosa che viene dopo, invece di limitarsi a regolamentare (male) X.
Il cambio è sottile ma profondo. Prima si cercava di moderare meglio le piattaforme che ci succhiano tempo, attenzione, energie mentali, dati e valore (e infatti le chiamano proprio “piattaforme estrattive”). Ora si costruiscono finalmente infrastrutture che non estraggono. Non è più tempo per chiedere ai padroni Big Tech di farci la cortesia di adottare policy etiche. Bisogna scrivere codice che rende impossibile l’abuso.
L’etica digitale non è più wishful thinking: è crittografia end-to-end, governance distribuita, standard aperti. Esiste, vive e lotta insieme a noi, e dobbiamo sostenerla.
Quando l’architettura è il problema
Ogni volta che una piattaforma promette di “fare meglio” usando più moderatori umani o artificiali (Meta) o fact-checker anche tra gli stessi utenti (X), sta guardando nel posto sbagliato.
Il punto non è controllare meglio i contenuti. È chiedersi: questa infrastruttura per cosa è stata progettata? Se la risposta è “massimizzare l’engagement”, hai già perso. Perché l’engagement si massimizza con conflitto, polarizzazione, dopamina a fiumi. Non è un bug. È la sua feature principale.
Chiedere a questi tizi di cambiare il loro giocattolo sarebbe come chiedere ad un’auto da corsa di farsi tutto il viaggio andando a 30 all’ora. Può frenare ogni tanto, certo. Ma la struttura rimane quella: motore grosso, telaio leggero, aerodinamica spinta. Non è un’auto sicura travestita da sportiva. È una sportiva che finge di poter essere prudente.
Cosa significa etica digitale in codice
Se dovessi progettare un’infrastruttura tecnologica partendo dalla dignità umana invece che dall’engagement, come sarebbe fatta? La domanda è semplice, ma raramente posta. Eppure qualcuno ha iniziato a rispondere scrivendo software, non manifesti.
Mastodon, per esempio, ha 13 milioni di utenti e zero algoritmi di raccomandazione. Ha una timeline cronologica, e stop. Usa ActivityPub, uno standard aperto del W3C, ed è un po’ come l’email: chiunque può aprire un server, e tutti si parlano tra loro. In Italia c’è mastodon.uno, gestito da Fedimedia.it, associazione nonprofit. Tra i suoi tanti utenti attivi ogni mese ci siamo anche noi, Futuro Prossimo, che Filippo Della Bianca (ti si vuol bene) e il team di Mastodon.uno ospitano da cinque anni. Zero pubblicità, zero tracciamento, zero padroni.
Non è “la resistenza” dell’ultimo Giapponese, ma il desiderio di costuire davvero un’alternativa. Quando Papa Francesco disse che la dignità umana non si misura con un algoritmo, toccò due punti importanti: primo, se la privacy è una “policy aziendale” che può cambiare domani, non è vera privacy. Secondo, se il valore di una persona dipende da quanti like raccoglie, il sistema ha già fallito.
L’etica digitale in numeri:
- 13 milioni di utenti, di cui 830.000+ attivi al mese, su Mastodon (dato 2025)
- +148% vendite flip phone tra Gen Z UK (dati 2020-2024)
- 20% consumatori USA ha fatto digital detox (dato 2024)
Mastodon e l’etica digitale che funziona
Parlare di etica digitale senza citare Mastodon sarebbe come parlare di email senza citare i protocolli aperti. Mastodon è nato nel 2016 da Eugen Rochko, sviluppatore tedesco che voleva un’alternativa decentralizzata a Twitter. All’alba dei suoi primi 10 anni, è diventato la più grande rete di microblogging libera al mondo.
Come funziona? Ogni server (chiamato “istanza”) è indipendente, con le sue regole e moderazione. Ma tutti comunicano tra loro come tanti piccoli quartieri digitali, ciascuno con le proprie regole ma interconnessi. In Italia, come detto, mastodon.uno è la principale istanza generalista.
Più che un social “alternativo”, è la dimostrazione che l’etica digitale può essere codice funzionante. Si, persone e magari anche istituzioni pubbliche possono scegliere infrastrutture che non estraggono dati.
Gli algoritmi della dignità umana
Cosa dovrebbe fare, concretamente, un algoritmo progettato per servire la dignità umana invece dell’engagement? Provo a definire alcune caratteristiche tecniche.
Un “algoritmo della dignità”, anzitutto, non massimizza il tempo di permanenza. Non cerca di tenerti incollato allo schermo. Al contrario, ti segnala quando hai passato troppo tempo sulla piattaforma. Non come reminder passivo, ma come scelta architettonica: dopo un certo limite, l’app si chiude proprio. Finché non decidi consapevolmente di riaprirla.
Un algoritmo della dignità non personalizza per polarizzare. La personalizzazione non è il male in sé. Il male è quando ti mostra solo contenuti che confermano le tue opinioni, creando bolle informative. L’etica digitale deve esporre anche a prospettive diverse, senza forzarti, ma senza nasconderle. La differenza tra “ecco cosa ti piace” e “ecco anche cosa potrebbe farti cambiare idea”.
Un algoritmo della dignità è trasparente per design. Non è “spiegato” con un PDF di 200 pagine, ma è verificabile nel codice. Open source e modificabile dalle comunità che lo usano. Quando l’algoritmo decide cosa mostrarti, tu puoi vedere perché. E se non ti piace, puoi cambiarlo o scegliere un’istanza che usa regole diverse.
Un algoritmo della dignità non estrae valore dalle tue emozioni. La rabbia genera engagement, quindi i feed ti mostrano contenuti che ti fanno arrabbiare. Un algoritmo etico riconosce le emozioni forti e le mitiga, non le amplifica. Non censura, ma rallenta. Ti chiede: “Sei sicuro di voler rispondere ora? Magari rileggi domani”.
Un algoritmo della dignità serve la comunità, non gli azionisti. Le decisioni su come funziona non vengono prese in una saletta riunioni ma attraverso una governance distribuita, votazioni trasparenti, proposte pubbliche, implementazione verificabile. La differenza tra “il CEO ha deciso” e “la comunità ha votato”.
Nota su Andromeda e altri algoritmi
Mentre chiudevo questo articolo, ho ricevuto uno spunto interessante per analizzare algoritmi come “Andromeda” di Meta, che promettono efficienza ma con l’etica digitale hanno poco a che vedere. Sono sistemi di raccomandazione sempre più sofisticati, ma costruiti sugli stessi principi estrattivi. Meritano un’analisi approfondita, e contiamo di parlarne quanto prima.
Per ora, teniamo il punto: la sofisticazione tecnica non è etica per default. Anzi, spesso la rende più pericolosa.
Etica digitale, il punto scomodo
Questa architettura figlia dell’etica digitale può essere progettata, siatene certi. Ma progettare non è implementare, e implementare non è adottare, e adottare non è mantenere. Ci sono almeno tre modi in cui tutto questo potrebbe collassare.
Primo: la complessità d’uso. La privacy matematica è bellissima, ma se tua nonna non riesce a usarla diventa un privilegio per smanettoni. La dignità non può essere elitaria. Secondo: cattura lenta. Anche i sistemi di governance distribuita possono essere catturati. Lentamente, con pazienza, trovando le crepe. Anche il Bitcoin era decentralizzato, ora il mining è concentrato in poche mani. Mi sbaglio? Terzo: il problema dello scale. Piccole comunità possono funzionare con mediazione e trasparenza. Ma che succede se superi, per dire, un miliardo di utenti? La complessità può esplodere, la governance spaccarsi, gli incentivi distorcersi.
Sono domande reali. Non retoriche. E la risposta onesta è: ancora non lo sappiamo del tutto. Io non lo so di certo.
Allora che facciamo: costruiamo o ci arrendiamo?
Voi mi chiederete se il mondo ha davvero bisogno di un’altra “soluzione tech” che promette di cambiare tutto. Io vi posso dire solo che le piattaforme attuali non si fermeranno da sole, io non ci credo più. Continueranno a estrarre, polarizzare, monetizzare fino a quando non avremo bruciato tutta la fiducia disponibile.
Approfondisci
Ti interessa il tema della tecnologia e dell’etica? Leggi anche come Anthropic affronta il dibattito sull’AI cosciente. Oppure scopri perché Gen Z sta abbandonando gli smartphone per capire il contesto di questa rivolta silenziosa contro l’estrazione digitale.
L’etica digitale come architettura non è perfetta. Avrà buchi, fallimenti, momenti in cui sembrerà ingenua. Ma parte da un presupposto diverso: la tecnologia può servire la dignità umana, non solo l’engagement. E questo, anche se il progetto dovesse fallire in parte, è un presupposto che vale la pena difendere.
Perché l’alternativa non è “un’architettura migliore”. È arrendersi all’idea che la tecnologia sia intrinsecamente estrattiva.
Per me, francamente, è troppo presto per arrendersi.