Otto di sera sul divano, in casa non c’è nessuno. C’è qualcuno che scrive un messaggio a un amico… Anzi no, aspetta: lo scrive a ChatGPT. “Mi sento giù.” La risposta arriva in tre secondi: calibrata e priva di qualsiasi giudizio, senza attesa e senza alcun imbarazzo. Succede ogni giorno a milioni di persone, e non è una questione britannica (anche se è da lì che arrivano i numeri più freschi): succede ovunque ci sia uno smartphone, una connessione e una solitudine abbastanza grande da riempire con un algoritmo. Si, parliamo di salute mentale, un tema che sarebbe caro agli amici di Mentechiara che ci hanno fornito spunto e dati (grazie!).
La charity britannica CALM (Campaign Against Living Miserably) ha appena pubblicato una ricerca che fa riflettere: un quarto della popolazione del Regno Unito si rivolge all’intelligenza artificiale per supporto psicologico. Tra la Gen Z, la percentuale sale al 42%. E il dato che colpisce di più è il motivo per cui la scegliamo.
Il prezzo di stare meglio
Partiamo dai soldi. Secondo i dati di CALM, i britannici spenderanno 2,3 miliardi di sterline in app per la salute mentale nel 2026. Il 23% degli utenti è disposto a rinunciare al riscaldamento pur di pagare l’abbonamento a un’app del genere, e il 28% rinuncerebbe al cibo.
Quando scegli l’app al posto del termosifone, il problema non è più il tuo rapporto con la tecnologia: è il tuo rapporto con tutto il resto.
La risposta di CALM (devo dire, controintuitiva) è stata lanciare CALMzone. Che è un’altra app. Ma come? Vi spiego meglio. Come si suol dire, “combatti il fuoco col fuoco”: questa è un’app gratuita (e destinata a restarlo) con strumenti creati da professionisti della salute mentale ma senza chatbot, senza IA e senza abbonamenti. “Il nostro principio guida è che la felicità è un diritto, non un privilegio”, ha detto Wendy Robinson, direttrice dei servizi CALM. L’app è stata donata alla charity dopo ben 8 anni di sviluppo: un gesto che in un mercato da miliardi suona quasi come un atto di resistenza.
Il terapeuta che non prova nulla
C’è un dato di fatto da considerare: l’IA funziona (percettivamente, lo sottolineo) meglio di un terapeuta umano. Uno studio pubblicato su Communications Psychology ha scoperto che le risposte generate dall’intelligenza artificiale vengono percepite come il 16% più compassionevoli di quelle umane, e preferite nel 68% dei casi. Anche quando i partecipanti sapevano di parlare con una macchina. L’IA non giudica, non ha fretta, non cancella l’appuntamento, non si distrae pensando alla cena. È il terapeuta perfetto (che non esiste, perché non è un terapeuta).
I rischi però esistono eccome. Un audit di OpenAI pubblicato dal BMJ ha rivelato che centinaia di migliaia di utenti ChatGPT mostrano segni di psicosi, mania o intenti suicidari ogni maledetta settimana. E uno studio della Brown University ha evidenziato come i chatbot violino sistematicamente gli standard etici stabiliti dall’American Psychological Association. Robinson è stata netta in proposito:
“I chatbot per la salute mentale sono un rischio che non possiamo permetterci di correre”.
Soprattutto nel campo della prevenzione al suicidio.
I numeri del fenomeno:
- 1 britannico su 4 usa l’IA per supporto psicologico
- Gen Z: 42% si rivolge a chatbot per la salute mentale
- £2,3 miliardi: spesa UK prevista per app mentali nel 2026
- 76% degli adolescenti teme che i chatbot portino all’isolamento (ma li usa lo stesso: si direbbe una relazione tossica, addirittura di co-dipendenza: poi ne parliamo meglio in altri articoli)
Salute mentale: il vero problema non è l’algoritmo
L’introduzione di pubblicità a pagamento dentro ChatGPT apre scenari che Robinson definisce “un nuovo mondo di considerazioni etiche”: come si fa a proteggere chi si confida con un LLM sulla propria salute mentale dal diventare un bersaglio inerme del marketing?
Ma anche senza le ads, il punto resta un altro. Se l’IA è l’unico posto dove le persone si sentono ascoltate, dice Robinson, “quello è un problema sociale, non solo un’insufficienza dell’infrastruttura sanitaria”.
Insomma: ancora una volta, se ci leggete lo sapete bene, non parliamo di un bug della tecnologia, ma della società: si, parliamo di una società che ha gradualmente smesso di fare la cosa più umana che esista, ascoltare, e si stupisce che le persone vadano a cercare quell’ascolto altrove.
La ricerca di OpenAI e MIT sul benessere emotivo lo conferma: chi interagisce con ChatGPT per mezz’ora al giorno sviluppa un rituale che non è più strumentale, è relazionale. Tenete bene in mente queste due parole, sono fondamentali: RITUALE e RELAZIONALE. Le donne mostrano una minore propensione a socializzare con persone reali dopo quattro settimane di uso quotidiano.
Non è l’IA a creare la solitudine, ma quando la incontra fa qualcosa di crudele: la occupa interamente. E non lascia a nessun altro la possibilità di riempirla: nessun amico, nessuna attività che ti riconnetta con altri esseri umani. È qualcosa di letale.
Approfondisci
Ti interessa il rapporto tra intelligenza artificiale e psiche? Leggi anche perché l’empatia artificiale batte quella dei terapeuti. Oppure scopri cosa rivela lo studio OpenAI-MIT sulla dipendenza emotiva da ChatGPT per capire dove stiamo andando.
Forse il punto non è regolamentare i chatbot. Forse il punto è chiedersi cosa abbiamo rotto nelle relazioni umane perché milioni di persone trovino più conforto in tre secondi di risposta automatica che in una telefonata a un amico.
L’IA non possiede empatia: ha “solo” (ma vi prego, non minimizzate più questa cosa) un modello statistico del linguaggio che produce frasi rassicuranti. Ma se quel modello statistico batte il 68% degli umani nel far percepire compassione, il difetto non è nel software. È nel sistema operativo della società.
E quello non lo risolvi scaricando un aggiornamento.