Madrid, novembre 2025. Gerd Leonhard sale sul palco di un festival organizzato dal giornale El Pais e sistema il microfono. Dietro di lui scorrono slide con grafici esponenziali, timeline che si accorciano, aziende che macinano miliardi. Davanti a lui, una platea che forse ancora pensa che l’intelligenza artificiale sia solo un assistente (molto) più veloce. Leonhard parte da una premessa semplice: stiamo vivendo il momento più critico della storia moderna. Non perché la tecnologia avanzi troppo velocemente. Perché chi la controlla ha deciso che il futuro dell’umanità è una questione di margini di profitto, non di persone. E noi restiamo a guardare come se questa fosse solo una serie Netflix particolarmente avvincente.
Il futurologo tedesco, autore di “Tecnologia contro Umanità” (ve lo consiglio, non ho preso un euro per questo) e tra i keynote speaker più scomodi d’Europa, ha chiamato questo momento “pivot point”. Il punto in cui si biforca la strada. Da una parte c’è un futuro di possibilità illimitate dove risolviamo cancro, fame ed energia. Dall’altra il tecnoautoritarismo, dove perdiamo il controllo sull’intelligenza artificiale e diventiamo dati gestibili da qualche server.
Il problema non è l’AI, è il capitalismo
Leonhard, che da Zurigo osserva Silicon Valley con l’occhio di chi ha vissuto la bolla delle dot-com negli anni ’90, dice una cosa che fa male: stiamo applicando logica economica del XX secolo a tecnologie esponenziali del XXI.
Crescita infinita. Profitto come unico metro. Potere concentrato. Funzionava (male) quando producevamo frigoriferi. Ma con la prospettiva di creare una intelligenza artificiale generale diventa un suicidio bello e buono.
OpenAI vuole creare AGI per “risolvere tutti i problemi dell’umanità”. Ma chi decide quali problemi risolvere? OpenAI, che nel frattempo cerca di diventare anche (tra browser e dispositivi fisici) il “sistema operativo” delle nostre vite?
Se la disumanizzazione diventa un business model
Ecco il punto su cui Leonhard martella da anni e che a Madrid ha ribadito con ancora più urgenza: nella corsa all’intelligenza artificiale, la disumanizzazione della forza lavoro non sarà un guasto, ma una caratteristica. Una caratteristica strutturale e venduta come progresso, efficienza, “liberazione dal lavoro ripetitivo”. In realtà, dice, è semplicemente più profittevole sostituire umani con macchine che non chiedono ferie, non si sindacalizzano, non hanno coscienza.
Il futurologo tedesco lo chiama “techno-optimism trap”: la trappola di credere che ogni problema abbia soluzione tecnica. Clima? Geoingegneria. Povertà? Automazione totale. Senso della vita? App di mindfulness. Come se complessità umana potesse ridursi a dataset gestibili. Marc Andreessen, venture capitalist tra i più influenti della Silicon Valley, lo predica apertamente: la tecnologia risolve tutto. La regolamentazione rallenta il progresso, e il mercato decide meglio dei governi. È tutto vero? Ha ragione lui?
Leonhard propone un cambio di paradigma: passare dallo schema “Profitto-Crescita-Potere” a quello che lui chiama le 4P. People, Planet, Purpose, Prosperity. Le persone prima dei margini. Il pianeta prima dei bilanci. Lo scopo prima della valutazione azionaria. E soprattutto prosperità condivisa, non accumulazione asimmetrica. Sembra utopia? Forse. Ma l’alternativa è distopia garantita.
Futuro dell’umanità: la convergenza esponenziale (e perché dovrebbe preoccuparci)
La Legge di Moore sta per incrociarsi con ingegneria genomica, informatica quantistica e intelligenza artificiale generale. Simultaneamente. Leonhard lo chiama “exponential convergence”: quando tecnologie dirompenti si potenziano a vicenda in cicli sempre più rapidi. Tipo reazione a catena nucleare, solo che invece degli atomi ci sono le capacità cognitive, biologiche, computazionali.
Il problema non è velocità, ma è che stiamo usando una logica finanziaria per guidare strumenti che potrebbero alterare biologicamente la specie umana. Delle decisioni su futuro dell’umanità vengono prese in sale riunioni dove l’unica domanda è “quanto vale?” e “quando rende?”.
Ray Kurzweil, un vero e proprio “profeta” della Singolarità, prevede che entro il 2045 intelligenza umana e virtuale si fonderanno. Nanobot nel cervello, connessione diretta al cloud, conoscenza infinita. Meraviglioso, no? Solo che nessuno sta chiedendo: chi controlla il cloud? Chi decide quali informazioni arrivano al tuo cervello? Chi ha accesso ai tuoi pensieri? Dettagli non trascurabili.
I 5 anni che contano
Leonhard a Madrid ha detto chiaro: abbiamo una finestra di 5 anni. Non per fermare il progresso tecnologico (impossibile, inutile) ma per decidere CHI lo guida e COME. Dopo, le dinamiche esponenziali renderanno irreversibile qualsiasi scelta presa prima. Se nei prossimi 5 anni lasciamo che sia solo la logica di mercato a decidere sviluppo di AGI, genomica, quantum computing, il futuro dell’umanità sarà scritto da chi ha più GPU e capitale di rischio.
Non è luddismo, sapete che qui dentro osserviamo tutto: rischi e meraviglie. Non siamo luddisti, non siamo tecnoentusiasti.
È semplice consapevolezza del fatto che gli strumenti che possono modificare natura umana richiedano una governance che vada ben oltre la “fiducia nel libero mercato”. Serve quello che Leonhard chiama “human alignment”: allineamento delle macchine agli umani, non viceversa. Serve custodire gli “androrithms” (algoritmi umani: etica, empatia, creatività) mentre sviluppiamo algoritmi artificiali.
Il dato più inquietante? Secondo le proiezioni che circolano tra ricercatori AI, intelligenza artificiale generale potrebbe arrivare tra 2027 e 2030. Non come singolo modello, ma come sistema di AI specializzate che collaborano.
A quel punto, dice Leonhard, non sarà più questione di SE le macchine supereranno capacità umane in quasi tutti i campi. Sarà questione di COME gestiamo la transizione senza perdere ciò che ci rende umani.
Cosa possiamo fare (secondo me)
Leonhard ha ragione su molte cose. Ma c’è un paradosso che lui stesso incarna: parliamo di futuro dell’umanità in conferenze a Madrid, scriviamo libri che vendono bene, facciamo keynote pagati profumatamente. Tutti d’accordo che Silicon Valley sta sbagliando. Poi torniamo a usare ChatGPT, a scrollare feed algoritmici, a comprare prodotti consigliati da AI.
Il problema del futuro dell’umanità non si risolve con le conferenze. Si risolve con scelte concrete. Serve una regolamentazione seria dell’intelligenza artificiale. Servono investimenti massicci in alfabetizzazione tecnologica (non i corsi di coding, ma comprensione profonda di come funzionano i sistemi che ci governano). Soprattutto, serve fare pressione sui governi perché riprendano controllo sulle infrastrutture critiche (e l’AI è un’infrastruttura critica, punto).
Soprattutto: bisogna smettere di credere che tecnologia sia neutra. Non lo è, non lo è mai stata. Il frigorifero non è neutro (ha cambiato agricoltura, commercio, ruoli familiari). L’automobile non è neutra (ha ridisegnato città, economia, geopolitica). L’Intelligenza artificiale non sarà per niente neutra, peggio delle altre cose. Sarà ciò che decidiamo che sia. Ma dobbiamo decidere noi, non lasciare che decidano i report trimestrali di OpenAI, Google, Anthropic e compagnia bella.
Il keynote di Leonhard a Madrid è finito con una slide che mostrava due timeline parallele. In una, lq tecnologia serve l’umanità. Nell’altra, l’umanità serve la tecnologia. La distanza tra le due curve si assottiglia ogni anno: nel 2030 potrebbero incrociarsi. Questione di scelte che facciamo oggi, non domani.
Il futuro dell’umanità si costruisce un algoritmo alla volta, una regolamentazione alla volta, una decisione di acquisto alla volta. Leonhard lo sa.
Noi forse non ancora.