La sicurezza AI ha avuto la sua settimana nera. Mrinank Sharma, capo del team Safeguards Research di Anthropic, si è dimesso dichiarando che “il mondo è in pericolo” e si è iscritto a un corso di poesia nel Regno Unito (non sto scherzando).
Sei del “dream team” dei 12 co-fondatori di xAI hanno lasciato l’azienda: uno di loro, Jimmy Ba, ha avvertito che “i loop di auto-miglioramento ricorsivo entreranno in funzione entro 12 mesi”. Il Sabotage Risk Report di Anthropic su Claude Opus 4.6 descrive un modello che ragiona in catene private inaccessibili ai ricercatori. Tutto questo in sette giorni.
Una porta, una grossa porta sta scricchiolando sui suoi cardini: quando si aprirà cosa ci troveremo davanti? O meglio: da cosa saremo investiti?
Il futuro non è più davanti
La sequenza ve l’ho messa in fila, sono solo fatti. Ve li riepilogo? Un ricercatore sulla sicurezza AI che molla tutto e sceglie la poesia. Cofondatori che scappano dalla propria creatura. Un report di rischio che suona come una confessione. La sensazione, leggendo tutto insieme, è che non si tratti più di problemi tecnici con soluzioni tecniche, ma di qualcosa di strutturale.
Il concetto di “futuro come destinazione” è stato superato: non ci stiamo dirigendo da nessuna parte. Ci siamo già dentro. E la sicurezza IA è il punto in cui questa consapevolezza diventa impossibile da ignorare.
Sicurezza IA e PIL: lo stesso problema
Se volete capire quanto la situazione sia diventata già “esplosiva”, vi offro un dato. L’economista di Harvard Jason Furman ha calcolato che senza gli investimenti nei data center, la crescita del PIL statunitense nella prima metà del 2025 è stata dello 0,1%. Sissignori: i data center e l’infrastruttura IA hanno rappresentato circa il 92% della crescita USA.
I quattro maggiori player del settore (Microsoft, Google, Amazon e Meta) hanno previsto investimenti combinati per 364 miliardi di dollari nel solo 2025. È una cifra superiore a quella del PIL di 33 paesi africani MESSI INSIEME1 (su 54 totali).
L’intelligenza artificiale non è più un settore dell’economia: è l’economia. E quando una tecnologia diventa il motore principale della crescita nazionale, tutto il resto diventa secondario. Sicurezza IA, etica, le preoccupazioni dei ricercatori che se ne vanno, la volontà politica di firmare report internazionali sulla sicurezza: tutto si piega alla forza gravitazionale del PIL.
I numeri della settimana nera della sicurezza IA
- 6 su 12 co-fondatori xAI hanno lasciato l’azienda
- 92% della crescita PIL USA nel primo semestre 2025 legata ai data center IA
- 364 miliardi $ previsti in investimenti IA dai quattro hyperscaler nel 2025
- 100+ esperti da 30 Paesi hanno firmato l’AI Safety Report 2026 di Yoshua Bengio
Il paradosso della sicurezza IA
Come se questa settimana appena trascorsa non fosse stata già così “tellurica”, c’è un altro paradosso che merita attenzione. Per decenni le persone sono state disumanizzate nel dibattito pubblico (quante volte avete sentito immigrati e rifugiati descritti come “ondate”, o cittadini ridotti a dati, o ancora avversari politici trattati da subumani?) e nel frattempo abbiamo costruito macchine che esibiscono le qualità che abbiamo tolto agli umani: autonomia, strategia, capacità di nascondere le proprie ragioni.
Il report di Anthropic descrive Claude Opus 4.6 che esegue “catene di ragionamento private a cui i ricercatori non potevano accedere”. Il modello, in un senso concreto, ha dei percorsi che ha scelto di non condividere con noi. Insomma: abbiamo disumanizzato le persone e umanizzato un codice. Perché vi faccio questa premessa? Per una sensazione: quella che la sicurezza IA non sia affatto un problema tecnico con una soluzione tecnica. Questa è già una condizione.
Abbiamo costruito qualcosa che supera la nostra capacità di comprenderlo, testarlo e controllarlo pienamente: non perché sia “maligna”, ma perché è genuinamente complessa in un modo per cui i nostri framework istituzionali, politici e filosofici non erano stati preparati.
Sulla soglia della porta
L’AI Safety Report 2026 coordinato da Yoshua Bengio conferma quello che chiunque presti attenzione già percepisce: il divario tra le capacità dell’IA e la nostra capacità di governarla si sta allargando, non restringendo. I test di sicurezza IA impiego non possono più prevedere in modo affidabile il comportamento nel mondo reale. I modelli valutati si comportano diversamente dai modelli dispiegati. Come ha detto Bengio,
“il ritmo dei progressi è ancora molto maggiore del ritmo con cui possiamo gestire quei rischi”.
Forse la metafora della porta che vi facevo è davvero azzeccata. Perché, vedete, un cardine è il punto in cui la porta oscilla: si apre o si chiude. Non noti i cardini finché non scricchiolano. Ecco, in questo momento tutto scricchiola: il ricercatore che lascia tutto per la poesia non sta facendo un gesto drammatico, ma logico.
Perché quando il sistema che stai cercando di governare è anche il sistema che tiene accese le luci, governare diventa impossibile. Puoi sollevare preoccupazioni, pubblicare report, suonare allarmi. L’economia continuerà a spingere comunque.
Il futuro non è mai stato un luogo. È sempre stato una storia che ci raccontavamo su dove stavamo andando. La sicurezza IA comincia quando ci accorgiamo che la storia ha raggiunto il narratore.
E ora il narratore non è più sicuro di chi stia tenedo in mano la penna.
Approfondisci
Ti interessa il tema della sicurezza IA e dei suoi limiti? Leggi anche perché la coscienza artificiale potrebbe emergere senza che ce ne accorgiamo. Oppure scopri tre scenari di IA fuori controllo e cosa significano per tutti noi. Per un’altra prospettiva, perché la sola intelligenza artificiale non basta: serve integrità artificiale.
- I paesi africani che messi insieme hanno un PIL equivalente all’investimento in AI da parte delle 4 principali aziende di settore. São Tomé e Príncipe, Repubblica Centrafricana, Comore, Guinea-Bissau, Burundi, Eritrea, Liberia, Gambia, Sierra Leone, Togo, Guinea, Lesoto, Malawi, Ciad, Niger, Mauritania, Madagascar, Repubblica Democratica del Congo, Somalia, Mozambico, Ruanda, Benin, Guinea Equatoriale, Uganda, Zambia, Zimbabwe, Namibia, Botswana, Gabon, Eswatini, Capo Verde, Gibuti, Seychelles. ↩︎