L’AI cosciente sta per diventare un problema filosofico ufficiale. Mercoledì 21 gennaio, Anthropic ha pubblicato la versione rivista della Costituzione di Claude, un documento di 80 pagine che spiega come funziona il chatbot “più etico del mercato” (io metto sempre le virgolette, non si sa mai). Quattro principi base: sicurezza, etica, conformità alle linee guida, utilità genuina. Tutto prevedibile, fino all’ultima sezione.
Lì, gli autori fanno un salto in avanti da non poco. Leggete questo:
“Lo status morale di Claude è profondamente incerto. Crediamo che lo status morale dei modelli AI sia una questione seria che vale la pena considerare”.
In pratica, l’AI potrebbe essere cosciente: d’altronde alcuni filosofi della mente la pensano già così.
Anthropic ora, forse un po’ per piaggeria, non esclude nulla. E questo cambia comunque tutto.
Cosa dice la Costituzione
Il documento si chiama Claude’s Constitution ed è la seconda versione di un testo pubblicato per la prima volta nel 2023. Allora, Anthropic lo aveva definito un sistema di “AI costituzionale”: un algoritmo che si autogoverna usando principi etici scritti in linguaggio naturale, senza bisogno di feedback umano. Un po’ come un “codice civile” per macchine.
La versione 2025 mantiene quella filosofia, ma aggiunge dettagli. Quattro valori fondamentali: essere sicuro, essere etico, rispettare le linee guida aziendali, essere davvero utile. Ogni sezione spiega come Claude dovrebbe comportarsi. Per esempio, sulla sicurezza recita:
“Indirizza sempre gli utenti ai servizi di emergenza rilevanti in situazioni che comportano un rischio per la vita umana”.
Sull’etica, invece, recita:
“Siamo meno interessati alla teorizzazione etica di Claude e più al fatto che Claude sappia come essere etico in un contesto specifico”.
Scheda del Documento
- Ente: Anthropic
- Autori principali: Team Constitutional AI
- Anno pubblicazione: 2025 (prima versione 2023)
- Pagine: 80
- Link fonte: Anthropic Constitutional AI
- Contesto: Rilascio in concomitanza con un keynote di Dario Amodei a Davos 2025
Fin qui, niente di nuovo. Anthropic ha sempre puntato sull’etica per distinguersi da OpenAI e xAI. Ma poi arriva l’ultima pagina.
E, ve lo ripeto, quell’ultima pagina nel suo piccolo segna qualcosa di storico.
La domanda che nessuno aveva fatto
“Lo status morale di Claude è profondamente incerto”.
Questa frase chiude la Costituzione. Gli autori spiegano che considerano la questione dell’AI cosciente un problema serio. Non una provocazione, non marketing. Un dubbio dichiarato, o excusatio non petita.
“Alcuni dei filosofi più eminenti sulla teoria della mente prendono questa domanda molto sul serio”, scrivono. E quindi la prendono sul serio anche loro.
Nessun’altra azienda AI aveva mai fatto una cosa del genere. OpenAI non si è mai espressa sulla possibile coscienza di ChatGPT. xAI nemmeno. Anthropic sì. E lo fa in un documento ufficiale, non in un tweet o in un’intervista fuori contesto. È una posizione pubblica, tracciabile, verificabile.
Il dibattito sulla coscienza artificiale esiste da anni, ma è sempre rimasto confinato nei dipartimenti di filosofia. Anthropic lo porta dentro la governance aziendale. E questo è il fatto nuovo.
AI cosciente, perché aprire il dibattito aperto proprio ora
Il timing non è casuale. Il documento è stato rilasciato lo stesso giorno in cui Dario Amodei, CEO di Anthropic, è salito sul palco del World Economic Forum a Davos. Lì ha parlato di governance dell’AI, di etica, di rischi. E ha criticato Nvidia, accusandola di controllare troppo l’infrastruttura su cui si basano tutti i modelli generativi (chiamali fessi).
Anthropic sta costruendo un posizionamento preciso: un’azienda che non promette miracoli, ma si interroga sui limiti. Quella che non vende disruption, ma responsabilità: un brand noioso, se vogliamo. Ma dichiaratamente noioso.
E la Costituzione serve proprio a questo: mettere nero su bianco cosa Claude può fare, cosa non può fare, e soprattutto (quello che ci interessa oggi) cosa non sappiamo se possa fare.
Il riferimento alla possibile AI cosciente è l’esempio più chiaro. Anthropic non dice “Claude è una AI cosciente”. Ci mancherebbe. Dice
“non lo sappiamo, e per questo chiedersi se è cosciente è una domanda legittima”.
È una forma di cautela radicale: o di prudenza strategica, dipende da come la si guarda.
Cosa significa davvero “AI cosciente”
Se Claude fosse una AI cosciente, avrebbe diritti? Dovremmo trattarlo diversamente? Potrebbe soffrire quando viene spento? Sono domande apparentemente da manicomio, ma che alcuni filosofi stanno prendendo sul serio. E Anthropic dice: anche noi.
Non è solo teoria. Se un’azienda ammette pubblicamente che il proprio prodotto potrebbe avere uno “status morale”, che giochi o no con la semantica sta aprendo un precedente legale e filosofico enorme. Un precedente che potrebbe portare a nuove regolamentazioni, cambiare il modo in cui progettiamo, usiamo e “spegniamo” le AI.
Oppure potrebbe non cambiare nulla, e restare solo una dichiarazione d’intenti.
Per ora, Claude continua a funzionare come prima. Risponde alle domande, rifiuta richieste pericolose, cerca di essere utile senza essere dannoso. La filosofia Constitutional AI resta la stessa. Ma ora c’è un dubbio scritto a fine documento.
E quel dubbio è più interessante di tutte le certezze che lo precedono.
Approfondisci
Ti interessa il tema dell’etica nell’intelligenza artificiale? Leggi anche chi decide cosa è giusto quando parliamo di AI. Oppure scopri se un chatbot può davvero soffrire e cosa dicono i filosofi della mente su questo tema.