Genialità e follia spesso condividono lo stesso spazio nella mente umana. Nel caso di Ilya Sutskever, il cervello dietro ChatGPT e co-fondatore di OpenAI, questa coabitazione ha prodotto tanto innovazioni rivoluzionarie quanto visioni al limite del misticismo. Mentre completava algoritmi capaci di imitare il linguaggio umano, Sutskever pianificava in segreto un bunker per proteggere gli scienziati dalla possibile “apocalisse” scatenata dal rilascio dell’AGI.
Un paradosso rivelatore: gli stessi creatori dell’intelligenza artificiale più avanzata temono così tanto la loro creazione da prepararsi a un cataclisma tecnologico. Il termine con connotazioni quasi religiose che ha usato rivela quanto il confine tra scienza e fede sia diventato sfumato nel mondo dell’IA.
La proposta shock: un bunker anti apocalisse per scienziati
Durante una riunione con un gruppo di nuovi ricercatori nell’estate del 2023, Sutskever ha pronunciato una frase che ha dell’incredibile: “Una volta che saremo tutti nel bunker…”. Un ricercatore confuso lo ha interrotto chiedendo chiarimenti sul “bunker”, e la risposta è stata ancora più sorprendente: “Costruiremo sicuramente un bunker prima di rilasciare l’AGI”. Una battuta, una iperbole?
Niente di tutto questo. Secondo quanto riportato da Karen Hao nel suo libro “Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI“, il piano sarebbe stato quello di proteggere gli scienziati chiave di OpenAI dal caos geopolitico o dalla violenta competizione tra potenze mondiali che Sutskever prevedeva potesse scoppiare dopo il rilascio dell’intelligenza artificiale generale (AGI). L’episodio, riportato in un saggio tratto dal libro e pubblicato sul sito The Atlantic, mette in luce le paure esistenziali che pervadono i vertici delle aziende di IA.
Con una nonchalance sconcertante, avrebbe poi aggiunto: “Ovviamente, sarà opzionale se vorrai entrare nel bunker o meno”. Come se stesse parlando di un’opzione per il pranzo aziendale, non di un rifugio dall’apocalisse tecnologica.
Bunker anti apocalisse AI: un’ossessione, non un caso isolato
Il riferimento al bunker anti apocalisse non è stato un episodio isolato. Altre due fonti hanno confermato alla giornalista che Sutskever menzionava regolarmente questa struttura nelle discussioni interne. Un ricercatore di OpenAI si è spinto addirittura a dichiarare: “C’è un gruppo di persone, Ilya tra loro, che credono che la costruzione dell’AGI porterà a una sorta di evento apocalittico. Letteralmente, un’apocalisse tecnologica”.
Questa visione quasi religiosa del futuro tecnologico rivela quanto profondamente alcune delle menti più brillanti nel campo dell’IA siano influenzate da timori esistenziali riguardo alle loro stesse creazioni. Sutskever era noto tra i dipendenti come “un pensatore profondo e persino una sorta di mistico”, che parlava regolarmente in termini spirituali, secondo quanto riportato nel libro di Hao.
Il paradosso di OpenAI: tra catastrofe e profitto
I timori apocalittici di Sutskever non erano completamente fuori luogo nell’ecosistema di OpenAI. Nel maggio 2023, l’amministratore delegato Sam Altman aveva co-firmato una lettera aperta che descriveva l’IA come un potenziale rischio di estinzione per l’umanità, come riportato sia nel libro di Karen Hao che in diversi articoli di settore.
Tuttavia, questa narrativa catastrofista doveva convivere con ambizioni commerciali sempre più aggressive. ChatGPT stava diventando un fenomeno globale e OpenAI si trasformava rapidamente da laboratorio di ricerca a colosso tecnologico multi-miliardario. Una contraddizione che ha alimentato tensioni interne, culminate nel tentativo (fallito) di rimuovere Altman dalla sua posizione nel novembre 2023.

La frattura interna: il dito sul pulsante dell’AGI
La tensione tra la visione apocalittica e quella capitalistica è esplosa alla fine del 2023. Sutskever, insieme all’allora Chief Technology Officer Mira Murati, orchestrò un breve colpo di stato aziendale, rimuovendo temporaneamente Altman dalla carica di CEO.
Alla base di questa decisione c’era la preoccupazione che Altman stesse aggirando i protocolli di sicurezza interni e consolidando troppo potere. Secondo note esaminate dalla Hao e riportate in esclusiva nel suo libro, Sutskever avrebbe dichiarato: “Non penso che Sam sia la persona che dovrebbe avere il dito sul pulsante per l’AGI”. La documentazione di queste tensioni interne, riportata sia su The Atlantic che su MIT Technology Review, offre uno spaccato inedito della crisi di leadership che ha scosso OpenAI.
La metafora del “dito sul pulsante” è particolarmente rivelatrice: evoca scenari da guerra fredda, con l’AGI nel ruolo di arma nucleare. Una visione che colloca l’intelligenza artificiale non come strumento di progresso, ma come potenziale causa di distruzione.
Dopo OpenAI: la missione continua con Safe Superintelligence
Dopo il fallimento del “colpo di stato” e il reintegro di Altman, Sutskever ha lasciato OpenAI nel maggio 2024 per fondare Safe Superintelligence (SSI), un’azienda dedicata allo sviluppo di sistemi di intelligenza artificiale sicuri.
A differenza di OpenAI, SSI ha un focus molto più specifico: “Il nostro primo prodotto sarà l’intelligenza artificiale sicura, e non faremo nient’altro fino ad allora”, ha dichiarato Sutskever in un’intervista. L’azienda ha raccolto 1 miliardo di dollari inizialmente e poi altri 2 miliardi, raggiungendo secondo TechCrunch una valutazione di 32 miliardi di dollari ad aprile 2025, a dimostrazione che le preoccupazioni sulla sicurezza dell’IA trovano eco anche tra gli investitori.
Il bunker come simbolo: paranoia o preveggenza?
Il bunker anti apocalisse proposto da Sutskever, sebbene mai realizzato, è diventato un potente simbolo delle contraddizioni e dei timori che permeano l’industria dell’IA. Da un lato rappresenta una paranoia quasi religiosa, dall’altro una prudenza forse necessaria di fronte a tecnologie potenzialmente trasformative.
Come vi scrivevo ben 5 anni fa: “Mai come ora il mondo è a un bivio. Può finire in guerra e soffocarsi di veleni, o rinascere con tecnologia ed etica”. Il bunker di Sutskever rappresenta proprio questo bivio: la paura del disastro e la speranza di poterlo evitare. Se poi considerate il contesto geopolitico sempre più teso, la competizione tecnologica tra Stati Uniti e Cina viene ormai paragonata a una nuova guerra fredda, con l’IA come campo di battaglia principale.
In questo scenario, l’idea di un bunker per proteggere le menti dietro l’intelligenza artificiale non sembra più una folliama una considerazione strategica in un mondo dove il controllo della tecnologia determina gli equilibri di potere.
Bunker anti apocalisse, il terrore della prima linea
La storia del bunker anti apocalisse di Sutskever ci mette di fronte al paradosso dell’innovatore: chi spinge più avanti i confini della tecnologia è spesso anche il primo a temerne le conseguenze. Questo duplice atteggiamento (entusiasmo e paura, ambizione e cautela) caratterizza la frontiera dell’intelligenza artificiale.
Che si tratti di paranoia o di preveggenza, la proposta dell’ex di OpenAI ci costringe a confrontarci con domande fondamentali: quanto controllo abbiamo veramente sulle tecnologie che stiamo creando? E se i loro stessi creatori ne temono le conseguenze al punto da considerare di rifugiarsi in bunker sotterranei, non dovremmo tutti prestare maggiore attenzione?