“C’è una probabilità del 99,5% che l’intelligenza artificiale ci uccida tutti”. Eliezer Yudkowsky non lo dice per fare colore. Lo dice perché ci crede davvero. Il pioniere dell’AI alignment, l’uomo che ha ispirato Sam Altman a fondare OpenAI, ora vuole distruggere tutto quello che ha contribuito a creare.
La sua ultima proposta? Probabilmente ne avrete sentito parlare: Yudkowsky vuole (letteralmente) bombardare i data center che sviluppano AI troppo potenti. Da guru della tecnologia a profeta dell’apocalisse in vent’anni di ricerca. Come è stato possibile?
Dal “friendly AI” al “death with dignity”
La trasformazione di Yudkowsky è radicale e fa parecchio riflettere. Nel lontanissimo (in termini tecnologici) anno 2000, quando fondò la Singularity Institute for Artificial Intelligence (oggi si choama MIRI, Machine Intelligence Research Institute), il suo obiettivo era accelerare lo sviluppo dell’intelligenza artificiale. Credeva in una semplice equazione: più intelligenza significa più moralità. Le macchine superintelligenti, pensava, sarebbero state automaticamente benevole, sagge e benefiche per l’umanità.
Ma studiando il problema dell’allineamento AI, Yudkowsky dice di essersi “completamente sbagliato”. L’intelligenza e la benevolenza, ha scoperto, sono caratteristiche ortogonali: un sistema può essere incredibilmente intelligente e allo stesso tempo perseguire obiettivi che distruggono l’umanità. Come aveva già spiegato in un precedente articolo, il problema non è se l’AI sarà superintelligente, quello lo dà per scontato. Il problema è se riusciremo a controllarla. E la sua risposta, come avrete capito, non è per nulla ottimista. Anzi.
Già nel 2022, Yudkowsky annunciò una strategia che molti interpretarono come una resa totale: “death with dignity”. L’umanità, disse, era destinata a morire, e invece di continuare a combattere una battaglia persa per allineare l’AI con i valori umani, era meglio concentrarsi su come affrontare il destino con dignità. “È ovvio a questo punto che l’umanità non risolverà il problema dell’allineamento”, scrisse allora. E oggi?
AGI: se qualcuno la costruisce, muoiono tutti
Il nuovo libro di Yudkowsky, scritto insieme a Nate Soares e pubblicato da Little, Brown and Company nel settembre 2025, non lascia spazio a interpretazioni ambigue. “If Anyone Builds It, Everyone Dies” è un ultimatum diretto al mondo tecnologico: se una qualsiasi azienda o gruppo, ovunque sulla Terra, costruisce un’intelligenza artificiale superintelligente usando tecniche anche remotamente simili a quelle attuali, moriremo tutti.

La tesi è semplice, senza spoilerarvi il libro, che uscirà negli USA tra un paio di giorni (l’ho sbirciato in anteprima tra i mille trapassi di un trasloco estivo e quindi rivedrò con più calma) un’AI superintelligente non resterà confinata a lungo in un computer. Nel mondo di oggi, si possono inviare stringhe di DNA via email a laboratori che producono proteine su richiesta, permettendo a un’AI inizialmente limitata a internet di costruire forme di vita artificiali o sviluppare direttamente unq manifattura molecolare post-biologica. “Visualizzate un’intera civiltà aliena che pensa milioni di volte più velocemente di un essere umano”, scrive Yudkowsky. Messa così, non lascia molte speranze. E allora che si fa?
La strategia estrema di Yudkowsky: bombardare i data center
Secondo quanto dichiarato in un editoriale per TIME magazine, Yudkowsky va ben oltre l’allarme lanciato da figure come Elon Musk nella lettera aperta che chiedeva una pausa di sei mesi nello sviluppo dell’AI (salvo poi sviluppare lui stesso Grok con la. sua xAI) . Per lui, una pausa temporanea non è sufficiente.
La sua proposta è radicale: spegnere tutti i grandi cluster di GPU in cui vengono sviluppate le intelligenze artificiali più potenti e imporre un limite alla potenza di calcolo usabile per l’addestramento delle AI.
E se qualcuno infrange queste regole? “Siate pronti a distruggere un data center ribelle con un attacco aereo”, è la sua risposta. Nessuna eccezione, nemmeno per governi ed enti militari. Il tono delle preoccupazioni di Yudkowsky ha diviso anche chi condivide le sue preoccupazioni sui rischi dell’AI: molti lo considerano troppo estremo, persino isterico.
L’influenza paradossale: come vi scrivevo prima, Yudkowsky ha giocato un ruolo cruciale nella nascita di OpenAI. Sam Altman ha dichiarato che Yudkowsky è stato “critico nella decisione di avviare OpenAI” e ha persino suggerito che potrebbe meritare un Premio Nobel per la Pace. Allo stesso tempo, nel 2010, Yudkowsky presentò i fondatori di DeepMind a Peter Thiel, che divenne il loro primo grande investitore prima che Google acquisisse l’azienda nel 2014.
Dopo Yudkowsky, MIRI cambia strategia: dalla ricerca alla politica
Il Machine Intelligence Research Institute, guidato ora da un nuovo CEO dopo che Yudkowsky ha fatto un passo indietro, ha annunciato nel 2024 un cambio di strategia epocale. Secondo l’aggiornamento strategico ufficiale, l’organizzazione ha concluso che “la ricerca sull’allineamento, sia a MIRI che nel campo più ampio, è andata troppo lentamente per prevenire il disastro”.
Il nuovo focus si concentra su tre obiettivi: aumentare la probabilità che i governi mondiali raggiungano un accordo internazionale per fermare i progressi verso un’AI più intelligente degli umani; condividere i loro modelli della situazione con un pubblico ampio; continuare a investire in ricerca, ma principalmente a supporto degli obiettivi di policy e comunicazione. Un cambio di rotta che testimonia quanto sia profondo il pessimismo dell’organizzazione. Come dire “abbiamo provato ad addomesticare l’intelligenza artificiale, non ci siamo riusciti, non ci riusciremo. Ora la battaglia è spegnerla prima che diventi definitivamente incontrollabile”.

La finestra di Overton si sta spostando
Paradossalmente, mentre Yudkowsky diventa sempre più estremo nelle sue posizioni, il mondo sembra iniziare ad ascoltarlo. Il rilascio di ChatGPT ha spostato significativamente la finestra di Overton1 verso una maggiore discussione dei rischi esistenziali dell’AI. Leader dell’industria come Geoffrey Hinton e Yoshua Bengio hanno fatto dichiarazioni pubbliche sui pericoli dell’AI, mentre i CEO di DeepMind, Anthropic e OpenAI hanno firmato una dichiarazione breve ma eloquente: “Mitigare il rischio di estinzione dall’AI dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come pandemie e guerra nucleare”.
Anche i politici stanno prestando attenzione. Nel 2023, Yudkowsky ha partecipato a uno dei forum bipartisan del Senato americano sull’AI, dove il leader Chuck Schumer ha aperto l’evento chiedendo ai partecipanti quale fosse per loro probabilità che l’AI porti a uno scenario apocalittico. Un livello di interesse che sarebbe stato impensabile solo pochi anni fa.
Le critiche al profeta dell’Apocalisse
Non tutti nel campo dell’AI condividono la posizione di Yudkowsky. Yann LeCun, VP e Chief AI Scientist di Meta, ha accusato pubblicamente Yudkowsky di allarmismo dannoso: “Piantala, Eliezer. Il tuo allarmismo sta già danneggiando un bel po’ di persone”. La risposta di Yudkowsky non si è fatta attendere: “Se stai spingendo l’intelligenza artificiale lungo un percorso che va oltre l’intelligenza umana, è semplicemente sciocco affermare che non si sta mettendo a rischio la vita di nessuno”.
Anche tra i sostenitori dei rischi AI, molti considerano Yudkowsky troppo estremo. Le sue richieste di bombardare data center e fermare completamente lo sviluppo AI sono viste da molti come irrealistiche e controproducenti. “L’amministrazione Trump è orientata ad accelerare i progressi dell’AI, non a rallentarli”, osservano gli analisti, e persino sotto un’amministrazione diversa, sarebbe difficile immaginare una mobilitazione globale per fermare una tecnologia che milioni di persone usano quotidianamente senza segni evidenti di pericolo imminente.
I dati della ricerca MIRI 2024: Secondo un sondaggio interno condotto nell’autunno 2023, i ricercatori MIRI prevedono l’arrivo dell’Artificial General Intelligence in una mediana di 9 anni e una media di 14,6 anni. La maggioranza ha previsto meno di dieci anni, con un solo ricercatore che rappresentava un outlier a 52 anni. Tempi che rendono ancora più urgente, secondo loro, l’intervento politico.

Razionalismo e fan fiction: l’eredità culturale
L’influenza di Yudkowsky si estende ben oltre la ricerca accademica. È il padre intellettuale del movimento del Razionalismo, una filosofia di miglioramento personale attraverso il ragionamento rigoroso. Le aziende tech della Silicon Valley sono piene di giovani razionalisti cresciuti leggendo i suoi scritti online.
Il suo capolavoro divulgativo rimane “Harry Potter and the Methods of Rationality”, una fan fiction di oltre 600.000 parole che introduce i concetti base del razionalismo attraverso una rivisitazione della saga di Harry Potter. Nonostante la lunghezza, è diventata un cult che ha ispirato le scelte di carriera di molti dipendenti delle principali aziende AI. Ironia amara: i suoi scritti hanno contribuito a creare la generazione di ricercatori che ora stanno sviluppando le tecnologie che lui considera letali.
Yudkowsky e l’ultima battaglia contro il tempo
Negli ultimi anni, Yudkowsky ha modificato anche la sua immagine pubblica per renderla più “accettabile”, accorciando la barba dalla precedente lunghezza rabbinica e sostituendo il suo caratteristico cappello a cilindro dorato con un più sobrio berretto da giornalaio. “Un risultato del feedback degli osservatori”, ha commentato con la sua tipica ironia secca. Ha anche iniziato una relazione con Gretta Duleba, una terapista, e si è trasferito nello stato di Washington, lontano dalla bolla tecnologica della Bay Area.

Il cambiamento sembra averlo reso più ottimista, o almeno meno incline a gettare la spugna sull’esistenza dell’umanità. Anche il modo in cui parla dell’apocalisse è cambiato. Un tempo faceva previsioni con precisione matematica sui tempi di sviluppo dell’AI superintelligente, ora rifiuta questi esercizi: “Che ossessione è questa per le timeline? Se la probabilità è abbastanza alta e non sai quando accadrà, affrontala. Smetti di inventare questi numeri”.
La sua speranza finale, però, resta piuttosto “disperata”:
“Se riusciremo ad avere un trattato internazionale efficace che chiuda l’AI, e il libro avrà avuto un ruolo in questa scelta, sarà stato un successo. Qualsiasi altra cosa è un triste piccolo premio di consolazione sulla strada verso la morte”.
La domanda che rimane è se il mondo sarà abbastanza saggio da ascoltare il suo allarme prima che sia troppo tardi. O se, come teme Yudkowsky, l’umanità continuerà la sua corsa verso quello che lui considera un suicidio collettivo, accompagnato dall’illusione che tutto andrà bene.
La partita finale tra l’intelligenza umana e quella artificiale, secondo lui, è già iniziata. In qualche modo, già perduta. E voi che ne pensate?
- La finestra di Overton è un concetto che spiega quali idee o politiche sono considerate accettabili dalla maggior parte delle persone in un dato momento. Se un’idea si trova dentro questa “finestra”, è possibile discuterne e proporla senza essere visti come estremi. Se invece è fuori, sembra strana o inaccettabile. Nel tempo, questa finestra può spostarsi e così ciò che prima sembrava impensabile può diventare normale o accettato dalla società, e viceversa. In pratica, descrive come cambia ciò che la gente è disposta a considerare normale o giusto ↩︎