Nel 1965, Gordon Moore osservò una cosa banale: i transistor nei chip raddoppiavano ogni due anni. La scrisse su carta, la chiamò previsione per il decennio successivo, e quel foglio ha guidato sessant’anni di progresso tecnologico. La legge di Moore non era una legge della fisica: era una profezia economica che si è autoavverata. Finché ha potuto.
Adesso i transistor si avvicinano alle dimensioni degli atomi, e gli atomi non si dividono ulteriormente così, per fare un favore agli investitori. Che si fa? Sulla traiettoria esponenziale impostata da Moore erano stati costruiti tutti i piani per la singolarità tecnologica, l’AGI, il futuro che ci cambia la vita. E adesso nessuno ha ancora un piano B.
Una profezia che ha funzionato troppo bene
Moore era direttore della ricerca alla Fairchild Semiconductor quando scrisse il suo famoso articolo per la rivista Electronics. Fece una previsione pensando che reggesse dieci anni: ha retto per sessanta. E non perché fosse una legge della natura, ma perché un’intera industria globale ha lavorato per mantenerla vera: ingegneri, governi, università, produttori di chip in tutto il mondo si sono organizzati attorno a quella curva come fosse un binario obbligato. Un’aspettativa da parte di tutto il mondo.
Per questo, se vogliamo definire “profezia” la Legge di Moore, è giusto dire che questa profezia si è autoavverata grazie a miliardi di dollari investiti ogni anno per renderla possibile.
Dai 65.000 componenti per chip nel 1975 siamo arrivati a quasi 50 miliardi di transistor nei chip più avanzati di oggi: una progressione difficile anche solo da immaginare.
E poi cosa è successo? Il MIT lo ha sintetizzato in modo molto asciutto: Intel ha impiegato cinque anni per passare dai 14 ai 10 nanometri, invece dei due previsti dalla legge di Moore. Charles Leiserson, professore del MIT CSAIL (Computer Science and Artificial Intelligence Lab), ha dichiarato che la legge è di fatto finita almeno dal 2016. Jensen Huang di Nvidia concorda. Pat Gelsinger di Intel no, ma Gelsinger nel frattempo ha lasciato Intel. Beh, beh.
Il muro degli atomi
Il problema fisico che “uccide” la Legge di Moore è semplice da spiegare, anche se ha richiesto decenni per diventare urgente. Un transistor è un interruttore: apre (o chiude) il passaggio di corrente elettrica. Più transistor riesci a infilare in uno spazio ridotto, più calcoli puoi fare nello stesso tempo. Ma quando un transistor diventa più piccolo di pochi nanometri, cominciano a manifestarsi effetti quantistici: gli elettroni passano attraverso le barriere invece di fermarsi, i circuiti si surriscaldano, il controllo diventa impossibile. I transistor attuali, nei chip più avanzati di TSMC e Samsung, misurano 3 nanometri. Un atomo di silicio ne misura circa 0,2. Il margine rimasto non è molto.
Cosa sappiamo sulla fine della legge di Moore:
- I chip più avanzati oggi usano nodi a 3nm (TSMC, Samsung) e 2nm in arrivo
- Intel ha impiegato 5 anni per passare da 14nm a 10nm (invece dei 2 previsti)
- Il costo di una nuova fabbrica di chip cresce del 13% ogni anno, avviandosi verso i 20 miliardi di dollari
- Lo sforzo di ricerca per mantenere il ritmo della legge di Moore è aumentato di 18 volte dal 1971, secondo economisti di Stanford e MIT
Dove stavamo andando con la Legge di Moore
Come vi dicevo prima, la legge di Moore è stato il motore silenzioso sotto ogni grande promessa tecnologica degli ultimi vent’anni. L’intelligenza artificiale generale (AGI), la singolarità tecnologica, l’AI che supera l’umanità: tutti questi scenari presumevano che la potenza di calcolo continuasse a crescere in modo esponenziale, a costi decrescenti, indefinitamente. Ray Kurzweil ci ha costruito sopra un libro (“The Singularity Is Near”), una carriera e una previsione ormai celebre: singolarità entro il 2029. OpenAI e i loro investitori ci hanno costruito sopra valutazioni da centinaia di miliardi di dollari.
Il punto è questo: più potenza di calcolo, e senza limiti, è l’assunzione di base. Toglila, e devi ricominciare a fare i conti. I grandi modelli linguistici attuali girano su cluster enormi che consumano quantità di energia comparabili a quelle di piccole città. GPT-4 ha richiesto una quantità di calcolo che, raddoppiata ogni due anni secondo la vecchia curva di Moore, sembrava sostenibile. Raddoppiata costruendo computer sempre più grandi, con sempre più chip, senza che il costo per unità di calcolo scenda… non è la stessa cosa.
I piani B, e quanto sono lontani
Ogni volta che qualcuno chiede che un medico legale certifichi la morte della Legge di Moore, tutti citano 3 alternative.
La prima è il quantum computing: computer che sfruttano la meccanica quantistica per risolvere certi problemi in modo radicalmente più efficiente. IBM, ad esempio, punta ad avere un vantaggio quantistico misurabile entro fine 2026 in applicazioni specifiche. Google, con il chip Willow, ha dimostrato progressi nella correzione degli errori. Ma i computer quantistici attuali devono operare vicino allo zero assoluto (273°C sotto zero), vengono assemblati a mano da fisici specializzati, e sono lontanissimi dall’essere una soluzione scalabile per addestrare modelli di AI generalisti. Servono anni? Eh. Per qualcuno decenni. Più o meno il senso comune è: 2030 per qualcosa di utile in nicchie specifiche, molto di più per qualsiasi cosa di universale.
La seconda alternativa è la fusione nucleare, energia quasi illimitata che alimenterebbe data center di qualsiasi dimensione. Commonwealth Fusion Systems punta al “first plasma” nel suo reattore SPARC in Massachusetts nel 2026, e il Dipartimento dell’Energia americano ha una roadmap che punta agli anni ’30. Tutto vero. Poi potrebbero servire almeno dieci anni per vedere produzione energetica reale.
La terza alternativa, quella ipotizzata da Sam Altman, è costruire una Sfera di Dyson: una struttura che avvolgerebbe il Sole intero per catturarne l’energia. Si, ciao. Non è una proposta ingegneristica. È quasi magia anni ’60, citata dal CEO di OpenAI in una conversazione pubblica per spiegare dove potrebbe andare a prendere l’energia la sua AI. Un piano solido.
Quando e come ci cambierà la vita
La legge di Moore rallenta, ma il progresso non si ferma: si sposta su chip specializzati (come le GPU di Nvidia, progettate apposta per l’AI), con un packaging 3D che impila strati di transistor in verticale, e architetture software più efficienti.
L’AI continuerà a migliorare, ma più lentamente e a costi crescenti. La singolarità tecnologica nel senso più forte, quella che supera l’intelligenza umana e si autoaccellera, dipende da salti tecnologici che ancora non esistono.
Una aspettativa realistica? Vedremo una AI sempre più capace in domini specifici entro 3-5 anni, mentre la vera AGI è in un orizzonte molto più lungo e incerto. E comunque, credo, non la vedremo arrivare.
Approfondisci
Ti interessa capire dove va davvero l’intelligenza artificiale? Leggi anche AGI: l’intelligenza artificiale generale potrebbe superarci già nel 2026. Oppure scopri Chip AI e gigawatt: verso la superintelligenza con IQ 1000 per capire le cifre reali della corsa alla potenza di calcolo.
La cosa più onesta che mi sento di dire sulla Legge di Moore e su quello che viene dopo è questa: sessant’anni di progressi esponenziali ci hanno abituati a pensare che le barriere fisiche siano sempre provvisorie. Ed è bellissimo pensarlo, davvero: anche perché a volte lo sono. Il transistor stesso è nato per superare i limiti dei tubi a vuoto.
Ma ogni tanto il muro è davvero un muro, e ci vogliono anni o decenni di lavoro vero prima che qualcuno trovi la porta.
Chi vende certezze sull’AGI entro il 2029 sta vendendo la stessa cosa che vendeva Wanna Marchi: un sacchetto di sale e la promessa di guarire dal cancro recitando una formula magica.
La fisica, nel frattempo, continua a non rispondere alle email.