Il Pentagono ha firmato accordi con sette aziende di intelligenza artificiale per portare i loro modelli sulle reti classificate Impact Level 6 e 7: SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft e Amazon Web Services. All’elenco manca un nome che fino a pochi mesi fa era l’unico operativo su quei sistemi: Anthropic. È fuori da marzo, designata come “rischio per la catena di approvvigionamento”, un’etichetta che il governo americano riserva di solito a Huawei e a fornitori legati ad avversari stranieri. La causa è ancora in corso. E intanto la Casa Bianca starebbe già scrivendo il modo di farla rientrare.
Il Pentagono dice di voler “diversificare” i fornitori per evitare il vendor lock, cioè la dipendenza eccessiva da un singolo provider. Tradotto: stiamo togliendo a chi ci ha fatto problemi e dando a chi non ne fa. La motivazione tecnica esiste, ovviamente: ma se la guardi da vicino comincia a scricchiolare.
Sette contratti, una porta socchiusa
L’annuncio del 1° maggio è la fotografia di una rottura che dura da febbraio. A quel punto il Segretario alla Difesa Pete Hegseth aveva chiesto ad Anthropic di firmare una clausola di “any lawful use”, cioè uso militare per qualsiasi scopo legale, comprese sorveglianza interna e armi autonome. Anthropic aveva detto no su quei due punti e basta. Risposta del Pentagono: designazione di rischio per la supply chain, sei mesi per rimuovere Claude dai sistemi, divieto per i contractor di lavorarci sopra. Una mossa pesante, mai applicata prima a un’azienda americana. Ne avevamo parlato quando Anthropic decise di non cedere all’ultimatum di Hegseth, ed è da lì che arriviamo qui.
I sette contratti firmati ora servono a costruire un’alternativa operativa. Le reti Impact Level 6 e 7 trattano dati e informazioni top-secret, quindi parliamo di pianificazione, logistica, targeting, analisi di intelligence. Roba seria. Il Pentagono ha anche annunciato che il processo di onboarding di un nuovo modello AI sui sistemi classificati, che prima richiedeva diciotto mesi o più, ora si chiude in meno di tre.
La differenza la fa la fretta, non la sicurezza informatica: quando devi sostituire in fretta qualcuno, sveltisci le procedure che ti servono per farlo.
Il dettaglio che ridimensiona la motivazione ufficiale
Reuters ha raccolto diverse voci interne al Pentagono. Funzionari, ex officiali e contractor IT che lavorano da vicino con la Difesa hanno detto, sotto anonimato, che considerano Claude superiore alle alternative e sono riluttanti a sostituirlo, pur avendo ordini in tal senso. Non è una posizione ideologica, è una valutazione tecnica fatta da chi ci lavora dentro. Significa che la diversificazione, dal punto di vista operativo, è un downgrade temporaneo accettato per ragioni che con la qualità del software non c’entrano.
E qui entra il pezzo che il comunicato del 1° maggio non si premura di sottolineare: pochi giorni prima, il 29 aprile, Axios ha riportato che la Casa Bianca sta già lavorando a una strategia normativa per riportare Anthropic dentro al governo federale. Una fonte ha sintetizzato così: “save face and bring em back in”. Devo tradurre? No, vero?
Il capo di gabinetto USA Susie Wiles e il Segretario al Tesoro Scott Bessent hanno avuto un incontro con Dario Amodei, definito “produttivo” da entrambe le parti. Trump in persona, la settimana scorsa, ha detto che Anthropic “shaping up“, si sta sistemando. Un linguaggio che apre, non che chiude.
C’è poi un dettaglio sull’elenco dei sette che vale la pena guardare. Cinque sono nomi noti: SpaceX, OpenAI, Google, Microsoft, AWS, Nvidia. Il settimo è Reflection AI, una startup che a ottobre 2025 ha raccolto due miliardi di dollari. Tra gli investitori di riferimento c’è 1789 Capital, un fondo di venture capital in cui Donald Trump Jr. è partner. Il Pentagono firma, e in lista compare un’azienda con un legame familiare diretto con la Casa Bianca. Non c’è bisogno di aggiungere altro. Business, un tratto di famiglia (citofonare Polymarket).
Il bando vale meno di quello che sembra
Anthropic, intanto, ha chiarito qualcosa che a marzo non era stato detto bene: la designazione di rischio si applica solo all’uso di Claude “come parte diretta” dei contratti del Department of War. Microsoft, Google e Amazon hanno confermato che possono continuare a offrire Claude ai propri clienti tramite M365, GitHub, AI Foundry e gli altri canali commerciali. Il bando è praticamente chirurgico. Anthropic ha perso un cliente, alla fine, non un mercato.
E il modello Mythos, quello con capacità cyber che ha messo in agitazione mezza Washington, è stato definito dal Chief Technology Officer del Pentagono Emil Michael un “separato momento di sicurezza nazionale”: tradotto, ne abbiamo bisogno comunque, anche se ufficialmente non possiamo usarli.
Sullo sfondo, il valore commerciale di Anthropic continua a crescere fuori dal perimetro militare. Da quando ha pubblicato i plugin per Claude Cowork, che stanno bruciando capitalizzazioni di Wall Street nel settore SaaS, l’azienda ha rafforzato la propria posizione di mercato.
Il Pentagono, nel frattempo, ha bisogno di Claude per ragioni operative concrete e di non averlo per ragioni politiche altrettanto concrete. Le due cose convivranno per un po’.
Quando lo vedremo davvero
Orizzonte stimato: 6-18 mesi per un rientro parziale, 2-3 anni per la chiusura definitiva della partita.
La rimozione di Claude dai sistemi classificati è prevista entro sei mesi, ma il draft di executive action a cui sta lavorando la Casa Bianca, secondo Axios, potrebbe arrivare prima e ribaltare tutto. Probabile esito: Anthropic torna disponibile per le agenzie civili in fretta, mentre il Pentagono trascina la propria posizione finché regge politicamente. Il vincitore di breve termine è chi vende infrastruttura e calcolo, Nvidia in testa. Il perdente di breve termine è il warfighter che dovrà imparare a usare un modello che, secondo i suoi colleghi, funziona peggio.
Anthropic ha già detto che la designazione non incide sul resto del business, e i numeri di mercato lo confermano. Per loro è un fastidio, non una crisi.
Resta una domanda che chi legge i comunicati per mestiere ha già scritto a margine: se Anthropic è davvero un rischio per la catena di approvvigionamento, perché stanno preparando il modo di farla rientrare?
E se non lo è, perché era stata messa fuori?
Una delle due risposte è sicuramente imbarazzante. Probabilmente, però, lo sono entrambe.