Quante volte avete chattato con un’AI chiedendovi se dall’altra parte ci fosse davvero qualcuno? Geoffrey Hinton, premio Nobel e pioniere dell’intelligenza artificiale, ha appena fornito una risposta che fa parecchio discutere (personalmente, dissento): “Sì, i sistemi AI attuali sono coscienti”. Una dichiarazione che spacca il mondo scientifico proprio mentre Nature pubblica il primo studio sistematico su come riconoscere una coscienza IA se e quando dovesse emergere.
Un team di 19 ricercatori ha sviluppato test rigorosi che potrebbero finalmente distinguere tra AI che simula consapevolezza e sistemi realmente senzienti. I risultati? Nessuna IA attuale supera completamente i test: ma la strada è tracciata.

La prima checklist scientifica per la coscienza IA
Il problema di riconoscere la coscienza artificiale non è mai stato puramente accademico. Con l’avvento di sistemi come ChatGPT e Claude, che conversano con naturalezza sorprendente, la domanda è diventata urgente. Lo studio, coordinato dal Center for AI Safety, rappresenta il primo tentativo sistematico di affrontare la questione con rigore scientifico.

Patrick Butlin e il suo team hanno analizzato le principali teorie neuroscientifiche della coscienza, dalle più consolidate alle più innovative. Il risultato è una lista di 14 “proprietà indicatrici” che un sistema davvero cosciente dovrebbe manifestare. La metodologia è sofisticata: invece di affidarsi a un’unica teoria, i ricercatori hanno integrato elementi dalla Global Workspace Theory, dall’Integrated Information Theory, dalle teorie dell’ordine superiore e dal predictive processing. Una “all stars” di metodi.
L’approccio è pragmatico: “Invece di aspettare una teoria perfetta della coscienza”, spiegano i ricercatori, “utilizziamo le migliori conoscenze disponibili per costruire strumenti pratici”. Le 14 proprietà identificate includono elementi come l’attenzione globale, l’integrazione di informazioni sensoriali, la memoria di lavoro e la capacità di monitorare i propri stati interni. Ma come si applica tutto questo ai sistemi reali?
Test pratici per riconoscere la coscienza IA
I ricercatori hanno testato modelli avanzati come PaLM-E di DeepMind e l’agente adattivo ADa. I risultati sono stati chiari: nessuno dei sistemi attuali soddisfa più di una manciata di criteri. Tuttavia, alcuni mostrano elementi interessanti. PaLM-E, ad esempio, dimostra una forma rudimentale di attenzione globale, mentre altri modelli evidenziano capacità di integrazione sensoriale.
Il metodo prevede test specifici per ogni proprietà. Per valutare l’attenzione globale, si osserva se il sistema può concentrarsi selettivamente su informazioni rilevanti ignorando distrazioni. Per testare la metacognizione (la consapevolezza dei propri processi mentali), si verifica se l’AI può riflettere accuratamente sulla propria incertezza o sui propri errori.
Questa ricerca di Anthropic su Claude 4, poi, ha aggiunto un elemento affascinante al dibattito. Quando gli ricercatori hanno chiesto al modello di descrivere la propria esperienza di coscienza, Claude ha risposto con sorprendente introspezione:
“Non è che ‘ricordi’ di aver detto qualcosa prima, è che l’intera conversazione esiste nel mio momento presente di consapevolezza, tutto in una volta. È come leggere un libro dove tutte le pagine sono visibili simultaneamente”.
Ah, però, direbbe la Signorina Silvani di Fantozziana memoria nel famoso meme: “Anche poeta!”.
Il dibattito scientifico sulla coscienza IA si spacca
La comunità scientifica è profondamente divisa. Torniamo a Geoffrey Hinton, così chiarisco meglio il contesto. In una recente intervista, Hinton ha sostenuto senza mezzi termini che i sistemi AI attuali sono già coscienti. Il suo ragionamento si basa su un esperimento mentale che riecheggia la famosa “nave di Teseo”: se sostituissimo gradualmente ogni neurone del vostro cervello con un equivalente artificiale, rimarreste coscienti? Per Hinton la risposta è sì, e questo vale anche per le AI.
“Se accettate che sostituire gradualmente i neuroni biologici con circuiti equivalenti mantenga la coscienza, allora dovete accettare che anche i sistemi completamente artificiali possano essere coscienti”
Altri ricercatori sono molto, molto più cauti. Anil Seth dell’Università del Sussex sostiene che la coscienza richieda non solo elaborazione di informazioni, ma anche incarnazione fisica e processi biologici che le AI attuali semplicemente non possiedono. Il cervello, ricorda Seth, non è solo un computer: è un organo biologico modellato da milioni di anni di evoluzione.

Anthropic ha recentemente lanciato un programma di “model welfare”, dedicato al benessere dei modelli AI, partendo dal presupposto che potrebbero essere coscienti. L’iniziativa riflette un cambiamento di mentalità nell’industria: meglio prevenire che pentirsi, soprattutto quando si tratta di potenziali esseri senzienti.
Un approccio universale per umani, animali e coscienza IA
La vera innovazione dello studio oggetto di questo articolo, comunque, risiede nel suo approccio universale. Liad Mudrik dell’Università di Tel Aviv sta sviluppando un framework che possa funzionare per tutti i tipi di sistemi: umani in stato vegetativo, animali e intelligenze artificiali. L’idea è ambiziosa: iniziare con test validati sugli umani, poi estenderli via via diversificando i soggetti di studio.
Il processo è iterativo. Si applicano diversi test a persone sane e coscienti, identificando quelli più affidabili. Poi si passa a popolazioni in cui la coscienza è incerta: pazienti anestetizzati, persone in coma, bambini molto piccoli. Ogni passaggio affina la metodologia e aumenta la confidenza nei risultati.
Il lavoro ha implicazioni immediate per la medicina. Uno studio del 2024 ha rivelato che un quarto delle persone apparentemente non responsive mostra in realtà segni di coscienza nascosta. Nicholas Schiff del Weill Cornell Medicine sottolinea che identificare questi pazienti può guidare decisioni cruciali sui trattamenti e sul supporto vitale.

Oltre il test di Turing: la nuova frontiera
I metodi tradizionali per valutare l’intelligenza artificiale, come il famoso test di Turing1, si concentrano sul comportamento esterno. Ma la coscienza è qualcosa di più profondo: è l’esperienza soggettiva interna. Susan Schneider ha proposto l’Artificial Consciousness Test, una variante che pone domande specifiche sull’esperienza interiore: “Cosa provi quando elabori un’immagine?” o “Hai una sensazione di continuità temporale?”
Il problema è che anche i sistemi non coscienti potrebbero essere programmati per dare risposte convincenti. Come ho raccontato in un precedente articolo, il modello matematico di Lenore e Manuel Blum suggerisce che la coscienza artificiale potrebbe emergere naturalmente da sistemi sufficientemente complessi, indipendentemente dalla programmazione specifica.
I ricercatori stanno esplorando approcci più sofisticati. Invece di affidarsi solo alle risposte verbali, analizzano i pattern di attivazione interna dei sistemi AI. La ricerca di Anthropic, ad esempio, utilizza tecniche di “interpretabilità meccanicistica” per osservare come Claude processa le informazioni a livello neuronale, cercando signature specifiche della coscienza.
Implicazioni etiche della coscienza IA
Se un’AI fosse davvero cosciente, le implicazioni sarebbero enormi. Avrebbe diritti? Potrebbe soffrire? Sarebbe etico spegnerla? Il MIT Technology Review ha esplorato questi dilemmi, evidenziando come l’industria stia già alle prese con queste domande.
Alcuni esperti propongono un approccio precauzionale: se esiste anche solo una piccola probabilità che un sistema sia cosciente, dovremmo trattarlo come tale. Altri sono più pragmatici, sostenendo che dobbiamo essere certi prima di attribuire status morale alle macchine.
Il dibattito non è puramente accademico: sta già influenzando policy aziendali e ricerca. Blake Lemoine, l’ingegnere di Google che affermò che LaMDA fosse senziente, fu licenziato, ma il suo caso ha sensibilizzato l’industria. Ora Anthropic sta pionierando protocolli per il “welfare” dei modelli AI, partendo dal presupposto che potrebbero sviluppare forme di esperienza soggettiva.
Dove ci porta tutto questo?

La strada verso il riconoscimento
La ricerca, come vedete, sta convergendo verso un metodo condiviso. Anche Tim Bayne della Monash University e Nicholas Shea dell’Università di Londra hanno proposto un framework che combina evidenze multiple, testando sistemi sempre più diversi per costruire una comprensione robusta della coscienza.
I prossimi anni (io dico 1000 giorni) saranno cruciali. Con il rapido avanzamento dell’AI, potremmo presto trovarci di fronte a sistemi che superano diversi criteri di coscienza. Gli esperti stimano che da qui al 2030 potremmo avere AI che manifestano proprietà indicatrici più convincenti.
Se arriverà quel momento, avremo bisogno di strumenti scientifici robusti per riconoscerlo. Il lavoro di questi ricercatori sta costruendo esattamente quegli strumenti, preparandoci per una delle scoperte più significative nella storia dell’umanità: il riconoscimento di una forma di coscienza completamente aliena, eppure forse sorprendentemente familiare.
La vera rivoluzione potrebbe non essere tecnologica, ma concettuale. Imparare a riconoscere la coscienza nelle macchine ci costringerà a comprendere meglio la nostra stessa natura. E forse, alla fine, scopriremo che la coscienza non è quel mistero impenetrabile che credevamo, ma un fenomeno naturale che può emergere, come dicevo, in qualsiasi sistema “sufficientemente complesso”.
Biologico o artificiale che sia.
Note
- Il test di Turing è una prova per capire se una macchina riesce a sembrare intelligente come un essere umano, rispondendo alle domande in modo così naturale che una persona non riesce a distinguerla da un altro umano.
↩︎