Quelli di Google hanno presentato qualcosa che, almeno a detta loro, non è solo un modello. È un principio attivo: AlphaEvolve, un sistema in grado di ottimizzare algoritmi, risorse computazionali, formule matematiche—e sé stesso. Il nome è eloquente: non si limita a eseguire. Evolverebbe.
L’obiettivo, dichiarato, è semplice: accelerare lo sviluppo dell’intelligenza artificiale, rimuovere colli di bottiglia, trovare scorciatoie nei problemi che, fino a ieri, venivano considerati… difficili. O impossibili. Ma ciò che colpisce non è tanto l’ambizione. È la meccanica.
AlphaEvolve, tanti nuovi datacenter senza costruirne neanche uno
Uno dei primi risultati attribuiti a AlphaEvolve è il recupero dello 0,7% della capacità di calcolo mondiale di Google, semplicemente ottimizzando la gestione interna dei server. In pratica, è come se avessero aggiunto interi datacenter senza versare un grammo di cemento.
La stessa logica si applica ai modelli. AlphaEvolve ha migliorato di oltre il 30% la velocità dei kernel FlashAttention, ridotto i tempi di training, e reso possibile un tipo di calcolo che da 56 anni nessuno riusciva a ottimizzare: la moltiplicazione di matrici.
Problemi di 300 anni, risolti in giorni
Sul fronte scientifico, AlphaEvolve ha iniziato a muoversi in territori dove finora si erano avventurati solo matematici solitari e lavagne infinite. Ha risolto problemi aperti da tre secoli e ha raggiunto il 75% di successo su 50 problemi matematici ancora attivi nella comunità accademica. Tra questi, una nuova stima del “kissing number” in 11 dimensioni: 593 sfere tangenti.
Questi non sono record sportivi. Sono modifiche alla struttura stessa del sapere. E non arrivano da un gruppo di studiosi sotto pressione. Arrivano da un modello che si migliora da solo mentre lavora.

AlphaEvolve inaugura (stavolta davvero) la fase in cui smettiamo di capire cosa stia succedendo
AlphaEvolve crea un loop: ottimizza un sistema, che genera un modello migliore, che a sua volta lo rende più efficiente. In gergo, si chiama recursive self-improvement. Nel mondo reale, è l’inizio di una fase (l’abbiamo già intravista per i chip) in cui i modelli diventano troppo veloci per essere analizzati nel dettaglio.
Il progresso non è più lineare. È composto. Google parla già di un’espansione 1 trilione di volte della capacità computazionale entro il 2030. Se i numeri reggono, questa cosa potrebbe accelerare al punto da non lasciare dietro nemmeno una scia.
Un vantaggio strutturale, e poco visibile
Mentre altri lavorano su interfacce, chatbot e assistenti vocali, Google spinge sulla parte sommersa dell’iceberg: ottimizzazione profonda, sistemi invisibili, architetture che migliorano altre architetture.
Secondo i dati presentati, entro il 2027 oltre il 50% dei nuovi algoritmi sarà progettato con supporto AI, con gli ingegneri umani focalizzati non sull’implementazione, ma sulla formulazione dei problemi.
In sostanza: gli umani pongono le domande, le macchine si danno da fare.
È una corsa che si gioca sul piano basso dell’ecosistema. Ma è da lì che si decide chi detta il ritmo. E se AlphaEvolve funziona come dicono, Google potrebbe avere tra le mani non solo un vantaggio. Ma una leva.