Yukiyasu Kamitani ha passato dieci anni a svegliare persone nel sonno più profondo. Tremila volte, quattromila, forse di più. Ogni volta la stessa domanda: cosa stavi sognando? (non sono il volontario ideale per questi studi). Le risposte venivano trascritte, classificate, infilate in un database. Un edificio. Una persona. Un albero. Dal 2013 il suo laboratorio di Kyoto sta costruendo il primo atlante scientifico dei sogni. Non con Freud o Jung, ma con risonanze magnetiche e algoritmi. La decodifica dei sogni, dice, funziona. Non benissimo, non sempre, ma funziona.
2013: nasce la decodifica dei sogni scientifica
Quando Science pubblica lo studio di Kamitani nel “lontano” aprile 2013, il titolo è prudente: “Neural Decoding of Visual Imagery During Sleep”. Niente promesse esagerate. I risultati però fanno già rumore: accuratezza del 60-70% nell’identificare categorie visive nei sogni usando fMRI.
Il metodo è semplice nella logica, complesso nell’esecuzione. Fase uno: mostrare a tre volontari centinaia di immagini da svegli (automobili, volti, edifici) e registrare quali neuroni si attivano. Fase due: farli dormire nello scanner, svegliarli dopo nove secondi di sonno REM, fargli descrivere il sogno. Fase tre: confrontare i pattern cerebrali del sogno con quelli della veglia.
La scoperta chiave: il cervello durante i sogni attiva le stesse aree visive della percezione consapevole. Non è una simulazione diversa, è proprio lo stesso identico “hardware” che gira con dati interni invece che esterni.
Questo permette la decodifica dei sogni per correlazione: se vedo pattern simili a “automobile” mentre dormi, probabilmente stai sognando un’automobile.
Mark Stokes dell’Università di Oxford commenta all’epoca, con giusta prudenza:
“È una importante prova della bontà del concetto, ma siamo lontanissimi dal decodificare sogni e leggerli come libri, o guardarli come fossero film”.
Il limite è la risoluzione: distingui “c’era una persona” da “c’era una casa”, ma non “era tua zia” da “era Jennifer Lawrence” (me ne sarei accorto, dai). Servirebbero database giganteschi, uno per ognuno di noi. Ogni cervello connette i neuroni in modo unico. I miei percorsi cerebrali che corrispondono a “gatto” non sono identici ai tuoi.
2017: arrivano le reti neurali profonde
Quattro anni dopo, lo stesso gruppo di Kyoto pubblica un upgrade. Invece di classificare solo categorie ampie, usano reti neurali per decodificare caratteristiche gerarchiche degli oggetti. Non più solo “edificio” generico, ma “edificio alto” vs “edificio basso”, “struttura di legno” vs “struttura di metallo”. La scansione cerebrale viene confrontata con layer multipli di reti neurali addestrate su milioni di immagini. Risultato: decodifica dei sogni con accuratezza leggermente superiore, ma soprattutto comprensione più elevata dei dettagli onirici.
Il paper su Frontiers in Computational Neuroscience dimostra che i sogni non sono blob indistinti di attività casuale. Hanno struttura gerarchica: forme base, poi oggetti, poi scene composite. Questo suggerisce che sognare non è rumore neurale, ma elaborazione visiva vera che usa gli stessi meccanismi percettivi della veglia. Un’implicazione enorme, e fino ad allora, forse, sottovalutata: se i sogni usano lo stesso “processore” della realtà, allora la linea tra percepire e immaginare è molto più sottile di quanto pensassimo.
2020-2024: l’era dell’intelligenza artificiale generativa
A un certo punto, lo sapete, arriva il salto. Non più solo decodifica dei sogni e classificazione, ma ricostruzione. Laboratori in Giappone e Cina iniziano a usare Stable Diffusion, DALL-E e modelli generativi per trasformare segnali fMRI in immagini vere. Nel 2023 l’Università di Osaka pubblica ricostruzioni sorprendentemente accurate: prendi attività cerebrale mentre qualcuno guarda una foto, fai girare il decodificatore, ottieni un’immagine simile. Non identica, ma riconoscibile. Ora applicano lo stesso metodo ai sogni. Risultati? Immagini sfocate, surreali, ma con elementi coerenti rispetto ai racconti dei sognatori.
Nel gennaio 2025 un framework pubblicato su arXiv va oltre: non singole immagini, ma video narrativi. L’idea è collegare snapshot cerebrali successivi per ricostruire sequenze temporali. L’intelligenza artificiale riempie i buchi tra un frame e l’altro, creando transizioni plausibili.
Il limite resta enorme: i video generati sono astratti, impressionistici. Catturano atmosfera più che dettagli. Un po’ come descrivere un sogno anche bene, ma parole: prendi l’essenza, perdi la precisione.
Il database internazionale DREAM, lanciato nel 2023, raccoglie dati fMRI ed EEG da 18 laboratori globali. Obiettivo: standardizzare protocolli, condividere dataset, costruire modelli che funzionino su più individui senza re-addestrare da zero ogni volta.
Attualmente contiene oltre 31 ore di registrazioni da 38 partecipanti. Piccolissimo, ma è un inizio. Un giorno, forse, sarà nei libri di storia della scienza.
Dove siamo oggi: capacità reali vs aspettative
Dicembre 2025. Facciamo il punto. La decodifica dei sogni scientifica può fare tre cose con affidabilità discreta: uno, identificare categorie generali di oggetti sognati (persone, luoghi, veicoli) con accuratezza 60-75%. Due, ricostruire immagini approssimative usando AI generativa, utili per ricerca ma non per “registrare” sogni. Tre, rilevare stati emotivi durante il sonno usando EEG portatile (ansia, calma, paura).
Cosa NON può fare: ricostruire narrazioni complete. Decodificare conversazioni o suoni onirici (ci sono esperimenti iniziali, ma primitivi). Distinguere volti specifici o dettagli fini. Funzionare senza addestramento personalizzato di ore su ogni individuo. Accedere a sogni dimenticati al risveglio (se non li ricordi, i pattern si dissolvono rapidamente dalla memoria a breve termine). Leggere sogni non-REM (la maggior parte degli studi si concentra su REM perché più vivido e stabile).
Rebecca Dewey dell’Università di Nottingham riassume così:
“Possiamo vedere quali aree del cervello sono attive, ma i sogni sono esperienze multisensoriali temporali complesse con emozioni, memorie, interazioni sociali. Decodificare tutto questo? Non a breve”.
Il gap tra “classificare pattern” e “ricostruire esperienze soggettive” resta abissale. È la differenza tra riconoscere che qualcuno sta ascoltando musica e capire quale canzone sta ascoltando, chi la canta, e pure cosa prova mentre la sente.
La guerra delle tecnologie: fMRI vs EEG
Due approcci dominano attualmente nel campo della tecnologia per la decodifica dei sogni. fMRI (risonanza magnetica funzionale): risoluzione spaziale eccellente, vede dettagli precisi di quali neuroni si attivano. Costo: milioni di euro, laboratori specializzati, volontari che dormono in tubi rumorosi con la testa immobilizzata. Praticamente inapplicabile fuori dall’ambito della ricerca. EEG (elettroencefalografia): cuffia con elettrodi, costa centinaia di euro, puoi usarla a casa. Risoluzione spaziale pessima, ma cattura tempistiche rapide e stati emotivi. Perfetta per applicazioni consumer.
Le startup come REMspace puntano su EEG domestico. Non ricostruiscono immagini, ma rilevano fasi del sonno, emozioni dominanti, e tentano di indurre sogni lucidi con stimoli mirati. Nel 2024 hanno dimostrato che si può controllare un avatar virtuale dormendo. Le applicazioni terapeutiche per chi ha incubi ricorrenti stanno entrando in trial clinici. Questi sono i segnali deboli che mi fanno pensare che la decodifica dei sogni consumer sarà probabilmente EEG-based: meno spettacolare, ma più accessibile.
Scheda della Ricerca Principale
- Ente di ricerca: ATR Computational Neuroscience Laboratories, Kyoto
- Ricercatore principale: Yukiyasu Kamitani
- Anni attivi: 2013-presente
- DOI studio originale: 10.1126/science.1234330
- TRL attuale: 4-5 – Validato in laboratorio, prime applicazioni consumer in arrivo (EEG), fMRI ancora ricerca pura
2025-2030: cosa aspettarsi (realisticamente)
Nei prossimi cinque anni potremmo avere: dispositivi EEG consumer per monitoraggio qualità del sonno con rudimentali rilevamenti emotivi. App che ti dicono “hai sognato qualcosa di ansioso tra le 3 e le 4” senza specificare cosa. Miglioramento progressivo degli algoritmi di ricostruzione AI, ma sempre con limiti di privacy (servono database enormi di sogni etichettati, chi li fornirà?). Trial clinici per terapia assistita di PTSD e disturbi del sonno usando decodifica dei sogni parziale. Niente “videocamere mentali” commerciali.
La risonanza magnetica, invece, resterà strumento solo per i ricercatori. Lo stesso Kamitani nel 2024 ha dichiarato:
“Stiamo espandendo verso colori, forme base, e forse suoni. Ma un sogno completo con dialoghi, volti riconoscibili, trama? Decenni”.
Il problema non è solo tecnico. È anche etico: chi possiede i dati dei tuoi sogni? La Società Europea di Neuroetica ha chiesto moratorie su commercializzazione senza regole. I sogni sono l’ultimo spazio privato non sorvegliato. Una volta violato (magari mettendoci dentro anche la pubblicità), cosa resta di intimo?
Usi plausibili entro 2030: psicologi che usano ricostruzioni approssimative per aiutarsi nel curare un trauma. Ricercatori di neuroscienze che studiano come il cervello elabora memorie durante il sonno. Artisti che “registrano” ispirazioni oniriche (molto approssimative) per lavori creativi.
No, niente magistrati che estraggono testimonianze dai sogni. E niente aziende che profilano desideri inconsci per pubblicità: almeno, non legalmente (ma quanto mi piace lanciare queste provocazioni?).
Approfondisci
Ti interessano il sonno e la coscienza? Leggi anche come i sogni lucidi permettono di controllare avatar virtuali. Oppure scopri perché alcuni neuroni predicono eventi futuri già durante i sogni.
Dodici anni di ricerca. Tremila risvegli notturni. Centinaia di studi pubblicati. E siamo ancora qui a dire: sì, possiamo vedere qualcosa, ma non abbastanza. La decodifica dei sogni assomiglia alla storia dell’intelligenza artificiale: ogni decennio pensiamo di essere vicini, poi scopriamo un altro strato di complessità. Il cervello ha passato milioni di anni a evolvere meccanismi per proteggere pensieri e sogni.
Forse resisterà ancora un po’ prima di consegnarci le chiavi.