Forse l’avevate vista anche voi. Una salciccia (la vedete in foto copertina) che balla su TikTok, muovendosi con un’agilità disarmante, raccogliendo milioni di follower e contratti pubblicitari. Si chiama Nobody Sausage, non esiste, e guadagna più di tanti di noi. L’Iperrealismo dell’intelligenza artificiale non è più una cosa da film. È qui, ora, e sta mettendo in discussione la nostra intera comprensione di ciò che è “reale”, mescolando il finto col vero in un modo che a volte fa quasi sorridere, altre volte un po’ paura.
Il mondo degli influencer, delle celebrità, persino delle notizie, non è già più lo stesso. E forse, nemmeno la nostra testa.
L’era dell’Iperrealismo: tra percezione e inganno
La storia dei deepfake è iniziata un po’ come un gioco, uno scherzo digitale per far dire a politici cose che non avevano mai detto o per mettere il volto di un attore in un film. Poi, si è trasformata in qualcosa di più. Il caso di Tom Hanks, il cui volto è stato usato senza permesso per una pubblicità di assicurazioni, o quello di Taylor Swift, vittima di un deepfake pornografico, hanno acceso i riflettori su una realtà scomoda: la tecnologia ha già ampiamente superato la nostra capacità di gestirla.
Il vero rischio, in fondo, non è l’IA che sbaglia. Il rischio è l’IA che fa tutto dannatamente bene, tanto da non lasciarti un appiglio per dubitare. Il confine tra ciò che è vero e ciò che non lo è si assottiglia sempre di più, e noi non siamo attrezzati per capire la differenza.
I volti dell’Iperrealismo: quando il falso è più vero del vero
Pensavamo che un robot non potesse essere convincente, che ci sarebbe sempre stato un segnale: l’incertezza, un dettaglio fuori posto. Ma non è più così. Uno studio congiunto della Lancaster University e dell’Università di Berkeley, pubblicato sulla rivista scientifica PNAS (Proceedings of the National Academy of Sciences), ha dimostrato un dato inquietante: il nostro cervello percepisce i volti generati dall’AI non solo come reali, ma spesso come “più rassicuranti” e degni di fiducia rispetto a quelli veri.
Sembra che l’AI abbia imparato a correggere quelle piccole, impercettibili imperfezioni che rendono umano un volto umano. Il risultato? Una sorta di persona ideale, una versione “migliorata” di noi stessi. Ci fidiamo di più di un’immagine che non esiste, perché è stata creata per essere perfetta.
Cos’è l’uncanny valley? È un concetto che descrive la sensazione di disagio che proviamo di fronte a un’immagine o un robot che ci somiglia quasi, ma non del tutto, in modo perfetto. L’Iperrealismo dell’AI sta superando questo problema, ma sta creando qualcosa di nuovo: una “valle” emotiva, dove ciò che è falso è così ben fatto che ci porta a dubitare della nostra stessa percezione.
A questo punto, la domanda non è più solo tecnologica. È psicologica. Che impatto ha tutto questo su di noi?
Secondo la psicologa Martina Cassani, l’interazione con contenuti così fluidi e malleabili può portare a una vera e propria “ansia da intelligenza artificiale”.

La nostra fiducia epistemica (la fiducia che riponiamo nella testimonianza degli altri) si incrina. Smettiamo di credere a ciò che vediamo e sentiamo, e questo mina le fondamenta della nostra interazione sociale.
È un rischio che va oltre la truffa: è una minaccia alla nostra sanità mentale collettiva.
Come ha scritto il professor Milton Mueller, il problema è che l’AI generativa è un “ecosistema globale e decentrato”, e nessuna legge, neanche l’EU AI Act, potrà davvero controllarlo del tutto. L’articolo di Futuro Prossimo sull’iperrealismo nei videogiochi (che puoi leggere a questo link: www.futuroprossimo.it/2023/10/videogiochi-e-fotorealismo-confine-sempre-piu-sottile-tra-gioco-e-realta/) era una prima avvisaglia, ma oggi il problema è uscito dagli schermi e ci ha raggiunto nella vita di tutti i giorni.
E così, eccoci qui. Il mondo non è più diviso tra reale e virtuale. È un unico, confuso, incredibile luogo in cui una salciccia animata può diventare una star globale, le celebrità devono smentire di aver fatto cose che non hanno mai fatto e noi, seduti in poltrona, proviamo a capire se quella foto che ci ha appena mandato un amico è vera o meno.
L’era dell’Iperrealismo, anzi: dell’iperrealtà è arrivata. E il silenzio, il vecchio, confortante silenzio tra la verità e la finzione, quello sì, è andato perduto per sempre.
Citazioni e Fonti:
- Studio su PNAS: Proceedings of the National Academy of Sciences, “Deepfakes e percezione del falso: l’AI altera il senso del reale?”. https://tech4future.info/deepfake-percezione-falso-intelligenza-artificiale/
- Futuro Prossimo: “Videogiochi e fotorealismo: confine sempre più sottile tra gioco e realtà”. https://www.futuroprossimo.it/2023/10/videogiochi-e-fotorealismo-confine-sempre-piu-sottile-tra-gioco-e-realita/
- Ricerca sull’ansia da AI: Martina Cassani, “Intelligenza Artificiale e Salute Psicologica: connessioni e ruolo delle organizzazioni”. https://stimulus-consulting.it/intelligenza-artificiale-e-salute-psicologica/