C’era una volta un’azienda che voleva fare l’intelligenza artificiale “nel modo giusto”. Fondata nel 2021 da un gruppo di ex dipendenti di OpenAI convinti che i loro vecchi colleghi stessero correndo troppo, Anthropic si era data una regola semplice: se un modello AI supera la nostra capacità di controllarlo, ci fermiamo. Non è che rallentiamo, o che ci pigliamo del tempo per valutare: ci fermiamo e basta.
Bene. L’altro giorno quella regola è stata cancellata. Al suo posto, una cosa che l’azienda chiama “Frontier Safety Roadmap“: obiettivi pubblici, flessibili e non vincolanti. Un po’ come quando, dopo le feste natalizie, tutti promettiamo di andare in palestra.
Anthropic, l’anima bella e la bestia
Ecco, il tempismo è una cosa che a volte racconta più delle parole. Lo stesso giorno in cui Anthropic pubblicava la nuova policy, il segretario alla Difesa americano Pete Hegseth dava un ultimatum al CEO Dario Amodei: togliete le restrizioni su come il Pentagono usa Claude (il modello AI di Anthropic) o vi strappiamo in faccia un contratto da 200 milioni di dollari. E non solo: l’azienda verrebbe dichiarata “rischio per la catena di approvvigionamento”, un’etichetta che di solito viene riservata a nemici stranieri. Tipo Huawei, per capirci: il resto potete immaginarlo.
Anthropic dice che le due cose (l’ultimatum e il cambio di rotta sulla sicurezza di Claude) non sono collegate. I vertici dell’azienda dicono che il cambio di policy era in discussione da un anno. Possibile, certo, ma lo scenario è questo: da un lato firmi un documento in cui dici “non ci fermeremo più se i nostri modelli diventano troppo potenti”, dall’altro il Pentagono ti minaccia di invocare il Defense Production Act (una legge dell’epoca della Guerra Fredda, pensata per requisire fabbriche) se non gli dai pieno accesso alla tua tecnologia.
Le due “linee rosse” di Anthropic restano formalmente in piedi: niente armi autonome (dove l’AI decide chi colpire senza intervento umano) e niente sorveglianza di massa sui cittadini americani. Ma il terreno sotto queste linee si è fatto decisamente meno solido.
Cosa diceva Anthropic prima (e cosa dice adesso)
La Responsible Scaling Policy originale, datata 2023, era un documento raro nel settore: un’azienda AI che si impegnava pubblicamente a non rilasciare modelli se non poteva garantirne la sicurezza in anticipo. Garantire. Un verbo pesante, che adesso non compare più.
La versione 3.0 della policy diventa decisamente più “pragmatica”, e lo dice senza troppi giri: se ci fermiamo noi mentre gli altri corrono, il mondo non diventa più sicuro. Diventa meno sicuro, perché quelli con meno scrupoli dettano il passo, quindi non ci fermiamo neanche noi. “Non ci è sembrato sensato assumere impegni unilaterali… soprattutto se i concorrenti stanno spingendo sull’acceleratore”, ha spiegato il direttore scientifico Jared Kaplan a TIME.
Non è un argomento stupido. È anzi l’argomento più pericoloso che esista, perché è ragionevole. Se OpenAI, Google e xAI hanno già accettato le condizioni del Pentagono senza batter ciglio, perché dovrebbe autoescludersi proprio l’unica azienda che si era posta il problema? La logica è impeccabile. Il risultato, però, è che nessuno si pone più il problema.
Cosa cambia nella policy di Anthropic
- Prima: se il modello supera le nostre capacità di controllo, ci fermiamo
- Adesso: ci fermiamo solo se riteniamo di essere significativamente in vantaggio sui concorrenti
- Prima: impegni vincolanti (“hard commitments”)
- Adesso: obiettivi pubblici su cui l’azienda si auto-valuterà
- Novità: pubblicazione regolare di “Risk Reports” ogni 3-6 mesi e separazione tra le regole interne e le raccomandazioni per il settore
Anthropic e il Pentagono: il braccio di ferro che dice tutto
La storia del contratto militare merita di essere raccontata per intero, perché è un caso da manuale di cosa succede quando i principi etici incontrano il potere reale. Anthropic è, ad oggi, l’unica azienda AI il cui modello opera sui sistemi classificati del Pentagono. Hai detto cotica. Ed è stato usato (a quanto riporta CNN) anche durante l’operazione militare in Venezuela che ha portato alla cattura di Maduro, il che alla fine rende la situazione ancora più paradossale: l’AI dell’azienda più “etica” del settore è già dentro le operazioni militari americane.
Quello che il Pentagono vuole è semplice: usare Claude per “qualsiasi scopo legale”. Il problema è che “legale” e “giusto” non sono sinonimi, e le leggi sulle armi autonome e sulla sorveglianza AI sostanzialmente non esistono ancora, ma chissà, potrebbero. Amodei lo sa, e per questo ha tracciato le sue due linee rosse. Hegseth lo sa altrettanto bene, e per questo le vuole cancellare.
Se Anthropic non cede entro venerdì 28 febbraio, Hegseth ha annunciato che chiunque farà affari col governo americano dovrà certificare di non usare prodotti Anthropic. Una condanna commerciale durissima, quasi mortale.
Il paradosso della sicurezza AI che nessuno vuole risolvere
Provo a guardare le cose da una giusta distanza, per un secondo, e non da “simpatizzante” di Anthropic. Nel 2023 Anthropic sperava che la sua policy di sicurezza avrebbe innescato una “corsa al rialzo”: se noi ci diamo regole serie, gli altri seguiranno. Non è successo. OpenAI ha allentato i suoi limiti nell’aprile 2025 con una supercazz… Ehm, volevo dire con un ragionamento quasi identico (se gli altri rilasciano modelli rischiosi, perché dovremmo trattenerci noi?). Google e xAI, invece, hanno accettato senza battere ciglio le condizioni del Pentagono senza fare storie.
Il clima politico a Washington è cambiato: l’amministrazione Trump ha smantellato le iniziative di regolamentazione AI del governo precedente, e la parola d’ordine è competitività, non cautela.
Insomma: Anthropic ha giocato la partita dell’esempio virtuoso e ha perso. Non perché la strategia fosse sbagliata in teoria, ma perché presupponeva un mondo in cui gli incentivi premiano la prudenza. Quel mondo, ammesso che sia mai esistito, non è questo.
L’Indipendente lo sintetizza bene: continuare ad autolimitarsi significherebbe “esporsi al rischio di diventare irrilevanti, senza ottenere reali benefici in termini di sicurezza complessiva del settore”. È il classico dilemma del prigioniero, solo che qui il prigioniero costruisce sistemi che un giorno potrebbero prendere decisioni al posto nostro.
Quando e come ci cambierà la vita
La decisione di Anthropic segna un punto di non ritorno: nessuna delle grandi aziende AI mantiene più l’impegno a fermarsi se la tecnologia supera i controlli.
L’unica domanda aperta è sulla sorveglianza e le armi autonome: se Amodei cede anche su questo, il precedente sarà chiaro per tutti. L’AI entrerà nei sistemi militari e di intelligence senza guardrail indipendenti, con regole scritte da chi la usa, non da chi la costruisce. La scadenza è venerdì 28 febbraio 2026.
Approfondisci
Ti interessa il tema dell’etica nell’intelligenza artificiale? Leggi anche “Potrebbe soffrire”: Anthropic apre il dibattito sull’AI cosciente. Oppure scopri L’AI sarà davvero incontrollabile? per capire perché alcuni ricercatori pensano che la finestra per controllare questi sistemi si stia chiudendo. E se vuoi sapere quanto sono onesti i chatbot che usiamo ogni giorno, c’è I chatbot AI sono bugiardi seriali.
Dove finiremo, di questo passo
C’è un ultimo dettaglio che vale la pena tenere a mente, per questo ho aggiunto una “appendice” all’articolo che avevo già chiuso ieri. Allora, cerco di scriverlo chiaro: Anthropic è nata perché Amodei, sua sorella e un gruppo di colleghi pensavano che OpenAI non fosse abbastanza prudente. Hanno fondato un’azienda alternativa, l’hanno chiamata “l’azienda con l’anima”, hanno scritto regole severe e le hanno pubblicizzate come esempio per tutto il settore. Cinque anni dopo, stanno facendo esattamente quello che faceva OpenAI: correre, e trovare buone ragioni per farlo.
E intendiamoci: non è che Anthropic sia diventata improvvisamente cinica. È che non puoi restare pulito in una guerra in cui tutti gli altri combattono sporco. Lo sanno i diplomatici, lo sanno le aziende farmaceutiche, e adesso lo sa anche l’azienda AI più idealista della Silicon Valley. La corsa al ribasso in questo dannato pianeta non finisce mai.
Mi chiedo cosa penseranno, tra dieci anni, di questa settimana di febbraio 2026: quella in cui l’ultima azienda che si era posta il problema di fermarsi ha deciso che fermarsi non era un’opzione. Forse il futuro dell’AI, alla fine (e lo dico con tristezza) non lo decideranno gli ingegneri o i filosofi.
Lo deciderà chi ha il potere di ricattare qualcuno: che novità, eh?