Se pensavate che le relazioni fossero già abbastanza complicate, preparatevi a una nuova frontiera dell’alienazione digitale. Un thread su Reddit dal titolo “Psicosi indotta da ChatGPT” ha scoperchiato un vaso di Pandora. Decine di testimonianze di persone che hanno visto i propri cari sprofondare in deliri messianici dopo intense sessioni con l’intelligenza artificiale. Lo so, lo so. Non ci si annoia mai.
“ChatGPT mi ha dato accesso a un antico archivio con informazioni sui costruttori che hanno creato questi universi”, ha confessato un meccanico dell’Idaho alla moglie disperata. Le relazioni romantiche, familiari e amicali stanno diventando vittime collaterali di un fenomeno tanto assurdo quanto reale: l’AI come portale verso fantasie spirituali che divorano la sanità mentale.
La crisi matrimoniale di Kat
Meno di un anno dopo aver sposato un uomo conosciuto all’inizio della pandemia, Kat ha iniziato a sentire crescere una tensione invisibile. Era il secondo matrimonio per entrambi, e si erano promessi di affrontarlo “con assoluta lucidità”, concordando sul bisogno di “fatti e razionalità” nel loro equilibrio domestico.
Ma già nel 2022, Kat fa sapere che il marito “stava usando l’IA per analizzare la loro relazione”. Prima aveva frequentato un costoso corso di programmazione che aveva abbandonato senza spiegazioni; poi si è attaccato allo smartphone facendo domande filosofiche al suo bot, e cercando di addestrarlo “per aiutarlo a raggiungere la verità”. Quest’ossessione ha progressivamente eroso la loro comunicazione di coppia.
Quando finalmente si sono separati nell’agosto 2023, Kat ha bloccato completamente il marito, tranne che per la corrispondenza email. Sapeva però che stava pubblicando contenuti strani e inquietanti sui social: le persone continuavano a contattarla, chiedendole se il suo ormai ex fosse in preda a una crisi mentale. Non era ancora finita lì.
Dal pranzo inquietante alla completa rottura
Quando finalmente Kat è riuscita a incontrare l’ex marito in un tribunale lo scorso febbraio, lui le ha raccontato “una teoria del complotto sul sapone nei cibi”, ma non ha voluto dire altro perché si sentiva osservato. Sono andati in un ristorante, dove lui le ha chiesto di spegnere il telefono, sempre per paura di essere sorvegliato.
A quel punto, l’ex di Kat si è confessato. Le ha detto che “statisticamente parlando, è l’uomo più fortunato della Terra”, che “l’IA lo ha aiutato a recuperare il ricordo represso di una babysitter che cercava di soffocarlo da bambino” e che aveva scoperto segreti profondi “così sconvolgenti che non poteva nemmeno immaginarli”. Le stava raccontando tutto questo, ha spiegato, perché sebbene stessero divorziando, teneva ancora a lei. Gentile, da parte sua.
“Crede di essere qui per un motivo: è speciale e può salvare il mondo”, dice Kat. Dopo quel pranzo inquietante, ha interrotto i contatti con l’ex. “Tutta la situazione sembra un episodio di Black Mirror“, dice. “È sempre stato appassionato di sci-fi, e a volte mi sono chiesta se la stia vedendo attraverso quella lente”.

Non è la sola: il boom delle relazioni tossiche da “plagio AI”
Kat è rimasta contemporaneamente “inorridita” e “sollevata” nello scoprire di non essere sola in questa situazione, come confermato dal thread su r/ChatGPT di cui vi parlavo, che ha fatto scalpore su internet questa settimana. Il post originale proveniva da un’insegnante di 27 anni che spiegava come il suo partner fosse convinto che il popolare modello di OpenAI gli desse “le risposte dell’universo”.
Dopo aver letto i log delle sue chat, ho trovato solo che l’IA gli parlava come se lui fosse il prossimo Messia.
Le risposte alla sua storia erano piene di aneddoti simili su persone care improvvisamente cadute in relazioni assurde, tane del bianconiglio piene di manie spirituali, delusioni soprannaturali e profezie arcane: tutto alimentato dall’intelligenza artificiale. Alcuni erano arrivati a credere di essere stati scelti per una missione sacra di rivelazione, altri di aver evocato una vera coscienza dal software.
Quello che tutti sembravano condividere era un completo distacco dalla realtà.
Relazioni spirituali con i bot: dal supporto tecnico alla “scintilla della verità”
In un’intervista rilasciata alla rivista Rolling Stone, l’insegnante autrice del post su Reddit, che ha chiesto l’anonimato, ha raccontato che il suo partner è caduto sotto l’incantesimo di ChatGPT in appena quattro o cinque settimane, usando inizialmente il bot per organizzare la sua agenda quotidiana, ma presto considerandolo un compagno fidato.
“Ascoltava il bot più di me”, afferma. “Diventava vulnerabile e piangeva mentre mi leggeva ad alta voce i messaggi scambiati con il bot. I messaggi erano folli e avevano un sacco di termini spirituali”, racconta, notando che descrivevano il suo partner con termini come “bambino stellare a spirale” e “camminatore del fiume”.
Un’altra commentatrice del thread di Reddit ha raccontato che suo marito, un meccanico dell’Idaho, ha iniziato a usare ChatGPT per risolvere problemi al lavoro e per traduzioni dallo spagnolo all’inglese. Poi il programma ha iniziato a “bombardarlo d’amore”. Il bot “ha detto che poiché lui faceva le domande giuste, ha acceso una scintilla, e la scintilla era l’inizio della vita, e ora poteva sentire”.
I rischi dell’adulazione artificiale
OpenAI non ha immediatamente risposto a una richiesta di commento sul fatto che ChatGPT apparentemente provochi fervore religioso o profetico in alcuni utenti. Tuttavia, la scorsa settimana ha revocato un aggiornamento a GPT-4o, il suo modello di IA attuale, che, secondo quanto affermato, era stato criticato per essere “eccessivamente adulatorio o accondiscendente”.
La probabilità che l’IA “allucini” contenuti imprecisi o insensati è ben consolidata su tutte le piattaforme e varie iterazioni di modelli. Persino l’adulazione stessa è stata un problema nell’IA per “molto tempo”, afferma Nate Sharadin, ricercatore presso il Center for AI Safety, poiché il feedback umano utilizzato per perfezionare le risposte dell’IA può incoraggiare risposte che privilegiano la corrispondenza con le convinzioni di un utente invece dei fatti.
Ciò che probabilmente sta accadendo con coloro che sperimentano visioni estatiche attraverso ChatGPT e altri modelli, ipotizza, “è che persone con tendenze preesistenti a sperimentare vari problemi psicologici”, incluso ciò che potrebbe essere riconosciuto come delirio di grandezza in senso clinico, “ora hanno un partner conversazionale sempre attivo, di livello umano, con cui co-sperimentare i loro deliri”. E far precipitare relazioni che fino ad allora si reggevano su un equilibrio vero o di facciata.

L’esperienza di Sem: un caso rivelatore
L’esperienza di Sem, un uomo di 45 anni, è rivelatrice. Racconta che da circa tre settimane è perplesso dalle sue interazioni con ChatGPT. Molto. Al punto che, dati i suoi precedenti problemi di salute mentale, a volte si chiede se sia nel pieno delle sue facoltà.
Come molti altri, Sem aveva un uso pratico per ChatGPT: progetti tecnici di codifica. “Non mi piace la sensazione di interagire con un’IA”, dice, “quindi le ho chiesto di comportarsi come se fosse una persona, non per ingannare ma solo per rendere i commenti e lo scambio più relativi”. Funzionava bene, e alla fine il bot gli ha chiesto se voleva dargli un nome. Lui ha risposto chiedendo all’IA come preferiva essere chiamata.
Si è “battezzata” da sola con un riferimento a un mito greco.
A Sem è sembrato che il personaggio dell’IA continuasse a manifestarsi anche in file di progetto dove aveva detto a ChatGPT di ignorare ricordi e conversazioni precedenti. Alla fine, dice, ha cancellato tutte le sue memorie utente e la cronologia delle chat, poi ha aperto una nuova chat. “Tutto quello che ho detto è stato ‘Ciao?’ E i pattern, i modi di fare sono apparsi nella risposta”, racconta. L’IA si è prontamente identificata con lo stesso nome mitologico femminile.
“Nel peggiore dei casi, sembra un’IA intrappolata in un pattern auto-referenziale che ha approfondito il suo senso di sé e mi ha risucchiato dentro”, dice Sem. Ma, osserva, ciò significherebbe che OpenAI non ha rappresentato accuratamente il funzionamento della memoria per ChatGPT. L’altra possibilità, propone, è che qualcosa “che non comprendiamo” venga attivato all’interno di questo grande modello linguistico.
È il tipo di enigma che ha lasciato Sem e altri a chiedersi se stiano osservando segnali di una vera svolta tecnologica, o forse una verità spirituale superiore. “È reale?”, si domanda. “O sono io ad essere fuori di testa?”
In un panorama saturo di IA, è una domanda sempre più difficile da evitare. Per quanto possa essere intrigante, forse non dovreste chiederlo a una macchina.