L’AI storica sta per diventare strumento di ricerca psicologica: i ricercatori dell’Arizona State University propongono di addestrare modelli linguistici su testi antichi per simulare il pensiero di civiltà passate: che so, ad esempio per schierare vichinghi contro romani in giochi economici. O osservare le possibili interazioni sociali tra persiani e europei medievali. Perché? Per studiare la psicologia umana fuori dal contesto moderno.
C’è un problema, però. Anzi, due: i testi sopravvissuti sono scritti da élite, non da gente comune. E ogni AI storica riflette i bias di chi la programma. Un paper pubblicato su PNAS esplora possibilità e limiti di questi HLLM, “Historical Large Language Models”. Piccoli, grandi viaggi nel passato, parlando con un sistema che “crede” di essere in un preciso periodo storico. La domanda resta: stiamo davvero parlando col passato, o con un’eco distorta di noi stessi travestita da antico?
La proposta: simulare vichinghi con gli algoritmi
Michael E. W. Varnum, professore di psicologia, e i suoi colleghi hanno parlato apertamente di HLLM come nuova frontiera.
“In linea di principio, le risposte di questi individui fittizi possono riflettere la psicologia delle società passate”, scrive il team. Un po’ come chiedere a ChatGPT di fingersi Marco Aurelio, ma a scopo di studio (e con pretese scientifiche). Cosa ne penso? Ve lo dico dopo la scheda.
Scheda dello Studio
- Ente di ricerca: Arizona State University, Department of Psychology
- Ricercatori principali: Michael E. W. Varnum et al.
- Anno pubblicazione: 2024
- Rivista: PNAS (Proceedings of the National Academy of Sciences)
- Tipo: Opinion/Perspective piece
- TRL: 2 – Proof of concept teorico, nessuna implementazione pratica testata
L’AI storica è una “bolla” temporale
Gli stessi autori ammettono il limite fondamentale di questo metodo. “Tutti gli LLM sono prodotto dei loro corpora di addestramento, e anche gli HLLM affrontano i loro problemi di campionamento”. Traduzione: l’AI storica non interroga “il passato”, ma solo i testi sopravvissuti. Che NON sono rappresentativi di quelle società.
I documenti storici, come vi scrivevo, tendono a essere scritti da élite. Nobili, poeti di corte, monaci, filosofi. Non da agricoltori, artigiani, schiavi, donne comuni. Il vichingo che emerge dai testi è un jarl1 che sapeva scrivere runico, non il contadino che remava nelle lunghe navi. Il “romano medio” che esce da una AI storica è Cicerone, non certo lo schiavo che puliva le latrine del Foro.
“Potrebbe essere difficile generalizzare da questi modelli”, conclude il paper con understatement britannico. Difficile? Impossibile. Stai chiedendo a un’AI di simulare una società intera usando solo le voci del 2% privilegiato che sapeva scrivere e i cui testi sono sopravvissuti duemila anni, fai un po’ tu.
Chi programma lascia tracce
I ricercatori di un’altra Università, quella di Gent in Belgio, hanno dimostrato qualcosa di scomodo: l’ideologia delle persone che lavorano su un LLM trapela nei testi che il modello genera. Sempre. Selezione dei dati, pulizia del corpus, scelte di ponderazione, prompt di sistema. Ogni fase introduce bias contemporanei.
Un’AI storica addestrata da un team progressista californiano del 2024 produrrà un “vichingo” diverso da quello addestrato da conservatori texani. Stesso corpus, eh? Ma diversi filtri ideologici. Il risultato: non stai interrogando il X secolo. Stai interrogando una proiezione del XXI secolo travestita da saga norrena, come il “ponte ologrammi” di Star Trek.
Come ha scritto il team belga, i bias cognitivi dell’intelligenza artificiale non sono bug. Sono caratteristiche strutturali. Ogni modello linguistico porta il DNA culturale di chi lo costruisce. Ma allora, mi chiedo…
Sarà utile, o resterà un giocattolo?
Il paper PNAS conclude con cautela:
“Solo il tempo dirà se questi modelli finiranno per essere usati nella ricerca psicologica, o resteranno dominio di hobbisti”.
È una chiusura onesta. L’AI storica potrebbe aprire direzioni interessanti: simulazioni comparative su larga scala, test di ipotesi psicologiche cross-culturali, esperimenti che sarebbero impossibili con soggetti reali. Mi divertirebbe molto usarla, giuro.
Ma potrebbe anche diventare l’ennesimo strumento che promette conoscenza e consegna un oroscopo algoritmico. Risposte che suonano plausibili ma non hanno ancoraggio empirico. Come ChatGPT e gli altri grandi modelli linguistici ci hanno insegnato: eloquenza non è verità.
Finché qualcuno non dimostra che un’AI storica può produrre insight verificabili e non solo narrative “convincenti”, resta un esperimento mentale costoso. Affascinante, certo.
Ma forse più utile per capire noi (cosa proiettiamo sul passato, quali stereotipi perpetuiamo) che per capire loro.
Approfondisci
Ti interessa il tema dei bias nell’intelligenza artificiale? Leggi anche come evitare i bias cognitivi dell’AI. Oppure scopri come l’intelligenza artificiale sta imparando a leggere la mente umana e cosa significa per la psicologia del futuro.
- Uno jarl presso i Vichinghi era grosso modo un “conte”: un nobile capo guerriero che governava un territorio e la sua gente, subito sotto il re nella gerarchia. ↩︎