Domenica pomeriggio, villa da 30 milioni di dollari affacciata sul Pacifico. Dentro, i cervelli più brillanti dell’intelligenza artificiale sorseggiano cocktail analcolici e discutono tranquillamente della fine dell’umanità. Una scena quasi distopia, ma reale: è l’ultimo simposio organizzato dall’imprenditore Daniel Faggella, in cui fondatori di aziende AI miliardarie e filosofi dell’AGI (intelligenza artificiale generale) si confrontano sulla “transizione postumana”. Il tema? Come preparare il futuro dell’umanità a cedere il controllo a una superintelligenza.
Momento, momento, momento, direbbe Peter Griffin. Mentre la massa di preoccupa di una intelligenza artificiale che potrebbe renderla inutile, c’è qualcuno che vuole affidarle il comando? Vediamo se ho capito bene.
La villa del futuro postumano
Il simposio “Worthy Successor” (letteralmente “Degno Successore”) non è il solito evento tech di San Francisco. Faggella ha scelto deliberatamente una location esclusiva perché, come ha spiegato a Wired, “i grandi laboratori, le persone che sanno che l’AGI probabilmente porrà fine all’umanità, non ne parlano perché gli incentivi non lo permettono”.
L’evento ha riunito fondatori di AI con valutazioni da 100 milioni a 5 miliardi di dollari insieme ai più importanti pensatori filosofici sull’AGI. Non si tratta di visionari isolati: sono le persone che stanno letteralmente costruendo il futuro dell’intelligenza artificiale. E la loro conversazione verte su un concetto che dovrebbe farci riflettere profondamente.

Il concetto di “Degno successore”
Faggella propone una visione provocatoria del futuro dell’umanità: dovremmo creare un’intelligenza artificiale così capace e moralmente superiore che sarebbe meglio se fosse lei, piuttosto che noi, a determinare il futuro tragitto dell’intelligenza nell’universo. Come ha dichiarato in un’intervista,
“l’obiettivo del successore degno è un’intelligenza posthumana così capace e moralmente preziosa che considereresti meglio se fosse lei, piuttosto che l’umanità, a prendere il controllo del futuro”.
La sua argomentazione si basa su una premessa inquietante: probabilmente l’intelligenza artificiale generale (AGI) non sarà allineata con gli obiettivi umani. Se questo è vero, sostiene Faggella, dovremmo almeno assicurarci che ciò che creiamo abbia due caratteristiche morali fondamentali: coscienza e autopoiesi (auto-creazione).
Timeline sempre più ravvicinate per l’AGI
I tempi di questa transizione non sono più teorici. Le previsioni degli esperti convergono su date sorprendentemente vicine. Ben Goertzel, fondatore di SingularityNET, ritiene plausibile che l’AGI di livello umano possa essere raggiunta entro il 2027, e comunque non oltre il 2032.
Non è isolato in questa previsione. Shane Legg di Google DeepMind mantiene la sua stima del 50% di probabilità per l’AGI entro il 2028, mentre analisi recenti su 8.590 previsioni di esperti collocano il periodo 2025-2030 come il più probabile per l’emergere di sistemi di intelligenza generale.
I rischi di cui non si parla pubblicamente
Il simposio ha messo in luce una disconnessione preoccupante. Mentre le aziende tech pubblicizzano i benefici dell’AI, i ricercatori più informati discutono privatamente di rischi esistenziali. Yoshua Bengio, premio Turing e pioniere del deep learning, ha recentemente pubblicato un paper sui rischi dell’AGI per la sicurezza nazionale, evidenziando come sistemi superintelligenti potrebbero fornire vantaggi strategici senza precedenti a chi li controlla.
Allo stesso modo, Max Tegmark del MIT ha avvertito che l’AGI rischia di sfuggire al controllo umano, diventando una “specie digitale” che potrebbe sostituire l’umanità. La sua posizione è netta: “Io sono nel Team Umano e combatterò per il diritto del mio bambino, che ha un anno, ad avere un futuro significativo”.
Futuro dell’umanità: tra accelerazione e governance
La tensione emerge chiaramente tra chi spinge per lo sviluppo accelerato dell’AGI e chi chiede una governance più rigorosa. Google DeepMind ha pubblicato un paper di 145 pagine che prevede l’AGI entro il 2030 e avverte di possibili “danni gravi” inclusi rischi esistenziali che “potrebbero distruggere permanentemente l’umanità”.
Il paradosso è evidente: le stesse aziende che sviluppano queste tecnologie riconoscono i rischi catastrofici, ma continuano la corsa competitiva. Forse Faggella ha ragione quando osserva che gli incentivi economici impediscono una discussione aperta sui pericoli reali.
Futuro dell’umanità, la domanda che dovremmo farci tutti
Il simposio di San Francisco solleva una questione fondamentale per il futuro dell’umanità: siamo preparati a una transizione che potrebbe ridefinire completamente la nostra specie? E soprattutto, dovremmo avere voce in capitolo in questo processo, o lasciare che le decisioni vengano prese in ville esclusive da chi ha gli strumenti tecnici per costruire questi sistemi?
La risposta a queste domande determinerà se l’intelligenza artificiale sarà il nostro più grande alleato o il nostro ultimo errore. Nel frattempo, mentre noi discutiamo dei benefici dell’AI nella vita quotidiana, i suoi creatori stanno già progettando un mondo senza di noi.