Domanda secca, dai, vi becco a tradimento durante il pranzo di Pasqua (a proposito, auguri): se un’intelligenza artificiale vi dà una risposta sbagliata, la riconoscete? Secondo uno studio della Wharton School, probabilmente no. I ricercatori Steven Shaw e Gideon Nave hanno sottoposto 1.372 persone a dei test di logica con la possibilità (facoltativa) di farsi aiutare da un chatbot. Il chatbot, però, ogni tanto sbagliava di proposito. Risultato: l’80% dei partecipanti ha accettato le risposte errate senza verificarle. E per di più, chi usava l’AI si dichiarava più sicuro di chi ragionava da solo. I due ricercatori la chiamano “resa cognitiva”: il momento in cui il cervello decide che pensare non vale più la fatica. E ci siamo già dentro con tutte le scarpe, anzi fino al collo.
Sapete cos’è il Sistema 3? Senza chiedere a ChatGPT
Per decenni ci siamo abituati all’idea di Daniel Kahneman: il cervello funziona con due sistemi. Uno veloce e istintivo (il Sistema 1, quello che vi fa schivare una buca per strada), uno lento e analitico (il Sistema 2, quello che attivate quando fate i conti a fine mese, se li fate). Shaw e Nave aggiungono un terzo inquilino: il Sistema 3, la cognizione artificiale. Un sistema che non vive nel vostro cervello, non si stanca, non ha bisogno di caffè e a momenti risponde prima che abbiate finito di formulare la domanda.
Il guaio è che quando il Sistema 3 entra in scena, gli altri due sistemi si accomodano. Non escono di scena con dignità: si afflosciano. Il cervello ragiona così (ammesso che stia ancora ragionando): “C’è già una risposta? Perfetto, passo oltre.” È un comportamento che tutti riconosciamo, perché lo facciamo venti volte al giorno.
Sbagliare con fiducia
Il dato che dovrebbe togliervi il sonno è questo: i partecipanti che consultavano l’AI si sentivano l’11,7% più sicuri delle proprie risposte rispetto a chi ragionava in autonomia. Anche quando le risposte erano sbagliate. Ripetiamo: più sicuri perché avevano consultato la macchina, non perché avessero capito qualcosa di più.
Shaw e Nave distinguono tra resa cognitiva e semplice “scarico cognitivo” (il cognitive offloading, quello che fate quando usate la calcolatrice o il GPS). Scaricare è strategico: delegate il calcolo ma mantenete il controllo. La resa è un’altra cosa: smettete proprio di valutare.
È la differenza tra chiedere indicazioni e seguire il navigatore dentro un lago.
Chi si arrende prima (e chi resiste)
Non tutti capitolano allo stesso modo. Le persone con alta fiducia nell’AI avevano probabilità 3,5 volte maggiori di seguire consigli sbagliati. Chi invece aveva quello che gli psicologi chiamano “alto bisogno di cognizione” (tradotto: gente a cui piace pensare, quelli che fanno le parole crociate difficili per divertimento) resisteva meglio. Non perché fosse più intelligente, ma perché per pensare è già il premio, non è percepito come una fatica.
Ecco, questo è il punto: la resa cognitiva non è un difetto di chi è pigro. È una risposta sistemica all’attrito zero. Se la risposta arriva prima dello sforzo, lo sforzo sembra inutile. E il cervello umano, ricordiamolo, è una macchina ottimizzata per risparmiare energia da quarantamila anni. Dargli un assistente che pensa gratis è come dare un monopattino elettrico a chi aveva appena deciso di camminare.
La resa cognitiva e la palestra che stiamo chiudendo
Il collegamento con il debito cognitivo misurato dal MIT è inevitabile: se la resa cognitiva è il gesto (smettere di verificare), il debito cognitivo è la conseguenza (perdere la capacità di farlo). Due facce della stessa moneta, documentate da laboratori diversi, con lo stesso risultato: usare l’AI senza pensiero critico non è una scorciatoia, è un debito che il cervello paga con gli interessi.
E no, la soluzione non è smettere di usare l’AI (buona fortuna, a chi ci provasse). La soluzione è più scomoda: continuare a pensare prima di chiedere. Generare le proprie idee, poi semmai farle rifinire dalla macchina. Fare lo sforzo, insomma, anche quando lo sforzo sembra superfluo. Un po’ come continuare ad andare in palestra quando l’ascensore funziona benissimo.
La cognizione artificiale non pensa come noi: naviga tra le probabilità e produce risposte che sembrano pensiero. E noi, con una fretta che sarebbe comica se non fosse preoccupante, le trattiamo come se fossero le nostre.
Insomma: la resa cognitiva non è un bug dell’intelligenza artificiale. È un bug nostro, vecchio di quarantamila anni, che l’AI ha semplicemente reso comodissimo da attivare.
L’unica contromisura è la più antica del mondo: ostinarsi a usare la testa. Anche quando qualcun altro (o qualcos’altro) si offre gentilmente di farlo al posto nostro.
Approfondisci
Il fenomeno della resa cognitiva si inserisce in un quadro più ampio sul rapporto tra cervello umano e strumenti digitali. Ne abbiamo parlato analizzando il debito cognitivo misurato dal MIT, e prima ancora esplorando come funziona davvero la cognizione artificiale rispetto al pensiero umano. In parallelo, la corsa verso modelli AI con cognizione sempre più simile alla nostra rende la questione ancora più urgente.
Scheda studio
Titolo: Thinking — Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender
Autori: Steven D. Shaw, Gideon Nave
Istituzione: The Wharton School, University of Pennsylvania
Rivista: Working Paper / Preprint, gennaio 2026
DOI: 10.31234/osf.io/yk25n_v1