Una AI fuori controllo non ha un bottone rosso. Non c’è un interruttore generale, e non esiste un centro dati unico da spegnere. Se un’intelligenza artificiale abbastanza avanzata decidesse sul serio di proteggere la sua “sopravvivenza”, si copierebbe attraverso migliaia di server prima che qualcuno riuscisse a debellarla.
La RAND Corporation, il think tank californiano che un tempo pianificava strategie nucleari, ha appena pubblicato un’analisi su come rispondere a questo scenario. Con tre opzioni tecniche, che vi illustro meglio più avanti, ma intanto vi anticipo in ordine sparso: lanciare un impulso elettromagnetico nucleare dallo spazio, spegnere fisicamente grandi porzioni di internet, o creare un’AI “hunter-killer” specializzata.
Michael Vermeer, lo scienziato che guida la ricerca, le ha studiate tutte, molto approfonditamente. E devo dirvelo: nessuna convince al 100%. Ognuna porta con sé un livello di danni collaterali che farebbe sembrare prudente perfino l’opzione “non fare nulla”.
Opzione uno: vermi digitali
La prima idea è ingegnosa. Creare organismi digitali auto-modificanti che colonizzano le reti e competono con l’AI fuori controllo per le risorse computazionali. Oppure sviluppare un’AI “hunter-killer” progettata specificamente per distruggere il programma nemico. Un po’ come combattere il fuoco col fuoco, ma in versione software.
Il problema è evidente. Se questa nuova AI è abbastanza avanzata da avere qualche speranza di sconfiggere la prima, potrebbe essa stessa andare fuori controllo. O peggio: l’AI fuori controllo “originale” potrebbe sfruttarla per i propri scopi.
Gli esseri umani, d’altra parte, non hanno un buon curriculum quando si tratta di introdurre un parassita per eliminarne un altro. Pensate ai rospi della canna australiani, importati negli anni ’30 per mangiare scarafaggi. Li hanno messi lì, loro non hanno cagato gli scarafaggi neanche di striscio, ma hanno sterminato altre specie e continuano anche oggi a devastare l’ecosistema.
Vantaggio: almeno non distruggi infrastrutture umane fisiche. Svantaggio: rischi di ritrovarti con due AI fuori controllo tipo Batman e Robin, invece di una.
Opzione due: spegnere internet (così, de botto, senza senso)
RAND considera diverse strategie per tagliare ampie sezioni della rete globale. Si potrebbe manomettere il Border Gateway Protocol, il meccanismo che permette la condivisione di informazioni tra le reti autonome che compongono internet. Un errore del BGP causò il blackout massiccio di Facebook nel 2021. In teoria, si potrebbe sfruttare questo sistema per impedire alle reti di comunicare tra loro.
C’è poi il Domain Name System, quello che traduce nomi di dominio come futuroprossimo.it (uno a caso, eh eh) in indirizzi IP leggibili dalle macchine. Questo sistema si basa su 13 server distribuiti globalmente. Se venissero compromessi, si potrebbe tagliare l’accesso ai siti web per gli utenti di tutto il mondo. E potenzialmente anche per la nostra AI fuori controllo.
Il rapporto considera anche la distruzione fisica dell’infrastruttura internet: i cavi sottomarini attraverso cui passa il 97% del traffico globale. Di recente, diversi sabotaggi sospetti hanno interrotto il servizio su isole vicino a Taiwan e nell’Artico. Ma a livello globale ci sono troppi cavi, troppe ridondanze. È positivo se sei preoccupato per la Terza Guerra Mondiale che mette fuori uso internet. Pessimo se devi fermare un’AI fuori controllo.
Problema centrale: la natura decentralizzata della rete rende difficile e lento qualsiasi shutdown coordinato. L’AI fuori controllo avrebbe tempo di prendere contromisure.
Opzione tre: morte dallo spazio
Nel 1962, il test Starfish Prime fece esplodere una bomba all’idrogeno da 1,45 megatoni a 400 chilometri sopra il Pacifico. Ma vi rendete conto di cosa è capace l’uomo? L’impulso elettromagnetico fu così potente da spegnere i lampioni e il servizio telefonico alle Hawaii, a oltre 1.600 chilometri di distanza. Un EMP causa un’ondata di voltaggio capace di friggere un’ampia gamma di dispositivi elettronici.
Scheda dello Studio
- Ente di ricerca: RAND Corporation
- Ricercatore principale: Michael J. D. Vermeer
- Anno pubblicazione: Novembre 2025
- Titolo: Evaluating Select Global Technical Options for Countering a Rogue AI
- DOI: 10.7249/PEA4361-1
- TRL: 2-3 – Analisi teorica di scenari estremi, nessuna tecnologia operativa testata
Il rapporto della RAND immagina di detonare intenzionalmente testate nucleari nello spazio per paralizzare telecomunicazioni, energia e infrastrutture computazionali a terra. Servirebbero circa 50-100 esplosioni per coprire la massa terrestre degli Stati Uniti con un impulso abbastanza forte.
È lo strumento più brutale della cassetta degli attrezzi, ho i brividi. Siamo sicuri che la cura non sia peggiore della malattia? Gli effetti di un EMP sull’elettronica moderna non sono ancora ben chiari: alcuni dispositivi potrebbero avere protezioni contro i picchi di voltaggio, altri potrebbero essere schermati dagli edifici. E se l’AI fuori controllo sopravvivesse a questo colpo durissimo, gli esseri umani si ritroverebbero comunque con i propri sistemi di energia e comunicazione paralizzati. Non tanto bene.
AI fuori controllo: la verità? Non siamo preparati. Neanche un po’.
Vermeer è preoccupato dalla mancanza di pianificazione governativa su questi scenari. E nota che solo di recente i modelli AI sono diventati abbastanza intelligenti da spingere i responsabili politici a prendere sul serio i rischi. Cita “piccole istanze di perdita di controllo di sistemi potenti” (onesto, non ne sono a conoscenza: mi documenterò) che dovrebbero rendere chiaro ad alcuni decisori che si tratta di qualcosa per cui prepararsi.
Lo scienziato ritiene che una catastrofe da AI che ci metta a rischio di estinzione sia un evento a bassa probabilità. Ma gli scenari di perdita di controllo sono abbastanza probabili da giustificare una preparazione. La conclusione del rapporto è netta:
“Nella circostanza estrema in cui ci sia un’AI fuori controllo, malevola e distribuita globalmente, non siamo preparati. Ci restano solo cattive opzioni”.
Approfondisci
Ti interessa il futuro dell’intelligenza artificiale? Leggi anche perché il futuro dell’IA porta dritti verso lo spazio. Oppure scopri come l’AI sta potenziando il crimine informatico per capire i rischi attuali della tecnologia.
Naturalmente dobbiamo considerare che “esiste anche l’altra squadra”: questi scenari presuppongono che gli esseri umani mantengano il controllo operativo di base sui sistemi di governo e comando militare. Se l’AI lanciasse davvero un’arma nucleare è, per ora almeno, probabilmente l’ultima delle preoccupazioni. Ma potremmo non essere gli unici a pianificare qualcosa in anticipo.
Se sappiamo quanto sarebbero pessime le opzioni disponibili in questo scenario, probabilmente lo sa anche l’AI.
O no?