Il 7 dicembre 2025, la startup Integral AI ha annunciato di aver sviluppato “il primo modello capace di AGI della storia”. Robot che imparano da soli, senza dataset, senza supervisione umana. Test condotti in segreto, criteri rigorosi, risultati “senza precedenti”. Jad Tarifi, ex veterano di Google AI, parla di “capitolo nuovo nella storia della civiltà umana”. Il comunicato stampa è enfatico, le promesse enormi.
Ma c’è un problema: nessuno ha ancora visto prove concrete. Nessun paper scientifico, nessuna peer review, nessun accesso pubblico al sistema. Solo demo controllate e claim audaci. È davvero l’AGI che aspettiamo da decenni, o un’operazione di marketing mascherata da svolta tecnologica? Mi sono preso due giorni per ragionarci su, senza farmi prendere dalla smania di valutare a caldo. Ed ecco che idea mi sono fatto.
Tre criteri per definire l’AGI (secondo Integral AI)
Integral AI ha deciso di risolvere il problema alla radice: ridefinire cosa significhi AGI. Troppo facile dire “abbiamo raggiunto l’intelligenza generale” quando nessuno è d’accordo su cosa significhi davvero. Così l’azienda ha proposto tre criteri misurabili.
1. Apprendimento autonomo: il sistema deve insegnarsi nuove competenze in domini sconosciuti, senza dataset preesistenti o intervento umano.
2. Sicurezza affidabile: l’apprendimento deve avvenire senza effetti collaterali catastrofici (un robot da cucina che impara a cucinare non può incendiare la casa).
3. Efficienza energetica: il costo energetico totale per apprendere una competenza deve essere paragonabile a quello di un essere umano che apprende la stessa abilità.
Criteri sensati, in teoria. Il problema è che l’azienda si è inventata il proprio metro di giudizio e poi ha dichiarato di averlo superato. Un po’ come organizzare una gara di corsa, decidere tu le regole e poi proclamarti vincitore senza che nessun altro abbia corso. Gli esperti interpellati sulla notizia sono stati chiari: senza verifiche indipendenti, questi claim restano solo parole.
Le demo (controllate) mostrate al pubblico
Integral AI ha mostrato alcuni esperimenti per dimostrare le capacità del sistema. Un robot che impara nuove abilità fisiche in autonomia. Software generato da istruzioni ad alto livello. Test su Sokoban (un gioco di puzzle logici) in cui il sistema raggiunge livelli professionali in una frazione del tempo necessario a un umano. Tutto molto suggestivo. Ma le demo sono state condotte in ambienti controllati, senza accesso esterno al codice o ai dati. L’equivalente di dire “fidatevi, funziona” senza mostrare come.
Il sito ufficiale di Integral AI presenta anche visualizzazioni su come il modello analizza immagini, dirigendo l’attenzione su dettagli specifici (prima la bocca per rilevare un sorriso, poi gli occhi per capire se è genuino). Affascinante dal punto di vista teorico. Ma la comunità scientifica chiede altro: paper peer-reviewed, benchmark standardizzati, test replicabili da terze parti. L’annuncio ufficiale su Business Wire contiene molte affermazioni enfatiche e pochissimi dati verificabili.
Il precedente della “supremazia quantistica”
Non è la prima volta che un’azienda tech dichiara di aver raggiunto un traguardo epocale. Google ha annunciato la “supremazia quantistica” nel 2019. IBM ha contestato immediatamente la definizione e i risultati. La comunità scientifica ha dibattuto per mesi su cosa significasse davvero quel risultato. Oggi, anni dopo, il consenso è che si trattasse di un passo avanti importante ma non della svolta definitiva promessa inizialmente.
Con l’AGI il rischio è simile. Integral AI ha costruito un sistema che probabilmente fa cose interessanti. Ma definirlo “AGI” sulla base di criteri scelti internamente e test non verificabili equivale a spostare i pali della porta a metà partita. Come raccontavamo poche settimane fa, l’AGI rimane un concetto sfuggente proprio perché manca un accordo condiviso su cosa significhi davvero “intelligenza generale”.
François Chollet, creatore del framework Keras e del benchmark ARC-AGI, ha ripetuto più volte che i modelli linguistici attuali, per quanto potenti, non hanno la capacità di generalizzare davvero.
Faticano a trasferire conoscenza in contesti nuovi, anche leggermente diversi da quelli su cui sono stati addestrati. E questo è esattamente il cuore dell’intelligenza generale: adattarsi a situazioni mai viste prima senza bisogno di esempi specifici.
L’architettura “ispirata al neocortex”
Integral AI sostiene che il proprio modello replica la struttura stratificata della neocorteccia umana, consentendo crescita dinamica, astrazione gerarchica e pianificazione integrata. L’idea è che il sistema crei rappresentazioni esplicite del mondo (i cosiddetti “Universal Simulators”) e poi usi queste rappresentazioni per pianificare azioni tramite “Universal Operators”. In teoria, questo approccio supererebbe i limiti delle reti neurali tradizionali, che funzionano come scatole nere senza rappresentazioni interne esplicite.
Un po’ come se, invece di imparare solo schemi statistici, il sistema costruisse veri e propri modelli mentali del mondo. Interessante, ma non nuovo. DeepMind lavora su architetture simili da anni con MuZero e altri progetti. Yann LeCun, premio Turing e padre delle reti convoluzionali, sta sviluppando “world models” basati su video e dati spaziali anziché testo.
Nessuno di loro, però, ha dichiarato di aver raggiunto l’AGI. Perché sanno che il salto qualitativo richiesto è ancora enorme.
La roadmap verso la “superintelligenza”
Integral AI non si ferma all’AGI. L’azienda ha già delineato una roadmap in tre fasi per arrivare alla superintelligenza: simulatori universali, operatori universali, e infine ottimizzazione verso un “obiettivo universale” (definito, senza ironia, come “Freedom”). Il tutto integrato con un backend chiamato Genesis e un frontend chiamato Stream. La visione è ambiziosa: un’intelligenza che non solo eguagli l’uomo, ma lo superi in modo etico, sicuro e allineato ai valori umani.
Tarifi ha dichiarato:
“La nostra missione ora è scalare questo modello AGI-capace, ancora in fase iniziale, verso una superintelligenza embodied che espanda libertà e agency collettiva.”
Parole che suonano bene in un comunicato stampa. Ma la storia dell’AI è piena di roadmap ottimistiche che si sono scontrate con limiti tecnici imprevisti. L’allineamento, in particolare, è un problema irrisolto: anche ammettendo di avere un’AGI funzionante, come garantire che persegua obiettivi umani senza deviazioni?
Per gli esperti mancano (almeno) due anni
Le previsioni sull’arrivo dell’AGI variano enormemente. Ben Goertzel parla del 2027-2029. Shane Legg di DeepMind dà una probabilità del 50% entro il 2028. Sam Altman di OpenAI ha dichiarato più volte di avere una roadmap chiara per raggiungerla entro pochi anni. Demis Hassabis, premio Nobel e CEO di DeepMind, parla di “ultimi anni della civiltà pre-AGI”. Ma nessuno di loro ha mai detto: “L’abbiamo costruita, è qui, funziona.”
C’è una differenza sostanziale tra avvicinarsi a un traguardo e dichiarare di averlo raggiunto. Integral AI salta quel passaggio intermedio. Annuncia il risultato senza fornire le prove che la comunità scientifica richiederebbe. E questo solleva un sospetto legittimo: si tratta di ricerca seria o di un’operazione di PR per attirare investimenti?
Secondo PitchBook, Integral AI ha raccolto solo 100.000 dollari di finanziamenti. Una cifra irrisoria per standard di Silicon Valley, soprattutto se paragonata ai miliardi investiti da OpenAI, DeepMind, Anthropic.
Possibile che con così poche risorse abbiano risolto un problema su cui colossi tech con budget illimitati stanno ancora lavorando?
La vera AGI richiede benchmark condivisi
Per determinare se un sistema è davvero AGI servono test standardizzati, accettati dalla comunità scientifica. Benchmark come ARC-AGI (creato da Chollet), MMLU (conoscenza multidisciplinare), BIG-bench (ragionamento oltre l’imitazione), IntPhys-2 (fisica intuitiva). Servono valutazioni su generalizzazione, ragionamento causale, memoria a lungo termine, adattamento a domini completamente nuovi. Integral AI non ha presentato risultati su nessuno di questi benchmark.
Ha invece mostrato performance su Sokoban, un puzzle game. Utile per dimostrare capacità di pianificazione, ma lontano dalla complessità richiesta dall’intelligenza generale. Un sistema può essere bravissimo a Sokoban e completamente incapace di cucinare un piatto o diagnosticare una malattia. L’AGI, per definizione, dovrebbe eccellere in tutti questi compiti senza training specifico. Fino a prova contraria, Integral AI ha dimostrato competenza in task limitati, non generalità vera.
La lezione dalla storia dell’AI
Non pensiate che sia solo storia di oggi: l’intelligenza artificiale ha attraversato diversi “inverni” proprio perché le promesse erano sempre più grandi dei risultati concreti. Negli anni ’60 si prevedeva l’AGI entro un decennio. Negli anni ’80 i sistemi esperti dovevano rivoluzionare ogni settore. Nei primi anni 2000 le reti neurali sembravano sul punto di risolvere tutto. Ogni volta, l’hype iniziale si è scontrato con limiti tecnici reali, portando a disillusione e tagli ai finanziamenti.
Oggi siamo in una fase di entusiasmo simile. ChatGPT o3, Claude Sonnet 4.5, Gemini 2.0: modelli sempre più capaci, ma ancora lontani dall’intelligenza generale. Dichiarare di aver raggiunto l’AGI senza prove solide rischia di danneggiare la credibilità dell’intero settore. Non perché la ricerca non sia seria, ma perché gli annunci prematuri alimentano aspettative irrealistiche.
Insomma, Gianluca: Integral AI ha raggiunto l’AGI?
La risposta breve: no, o almeno non nel senso accettato dalla comunità scientifica. Integral AI ha probabilmente costruito un sistema interessante con capacità di apprendimento autonomo in domini specifici. Potrebbe anche rappresentare un passo avanti rispetto a modelli puramente statistici. Ma definirlo “AGI” sulla base di criteri autoprodotti, test non verificabili e demo controllate è prematuro.
L’intelligenza artificiale generale richiede generalizzazione vera: la capacità di affrontare qualsiasi compito intellettuale umano con flessibilità, creatività e adattamento. Finché un sistema non sarà in grado di imparare a suonare il pianoforte, diagnosticare malattie rare, scrivere saggi filosofici e riparare motori diesel partendo da zero e senza training specifico, non avremo AGI. Avremo AI molto capaci, magari impressionanti, ma ancora specializzate.
Tarifi e il suo team hanno scelto il Giappone per fondare Integral AI proprio per la tradizione robotica del paese. Una scelta sensata. Ma costruire robot abili e avere AGI sono due cose diverse. La strada è ancora lunga. E annunci come questo, senza basi solide, rischiano di essere ricordati come l’ennesima bolla di hype piuttosto che come la svolta storica promessa.
Forse non dovremmo neanche chiedercelo, se Integral AI abbia raggiunto l’AGI oppure no. Forse dovremmo anzitutto chiederci se l’AGI la stiamo cercando nel posto giusto e con gli strumenti giusti. O se, forse, il concetto stesso di intelligenza artificiale generale non vada ridefinito con più onestà intellettuale… e meno entusiasmo da comunicato stampa.