La verità è morta, viva la verità. Sintetica. Quello che è successo con la crisi in Venezuela non è solo un cambio di regime (o un tentativo), è il crash test definitivo per la nostra percezione. Le immagini AI non servono più solo a creare “arte digitale” o meme divertenti: servono a scrivere la storia in tempo reale, anche se la storia non è mai successa.
Sabato 3 gennaio 2026. Donald Trump lancia un messaggio che incendia la rete: attacco su larga scala in Venezuela. In pochi minuti, il caos. Ma non è il caos dei tank nelle strade, è quello dei pixel sugli schermi. Twitter (pardon, X), Instagram e TikTok vengono inondati di contenuti. Vediamo Nicolás Maduro in manette, folle oceaniche che esultano a Caracas, truppe americane che sbarcano come in un film di Michael Bay. C’è solo un piccolo, insignificante problema: buona parte di quella roba non esiste.
Le immagini AI e il pigiama del presidente
Il simbolo di questa follia collettiva che ci ostiniamo a circoscrivere col nome (limitante) di “crisi in Venezuela” è una foto specifica, la vedete in copertina: Maduro in pigiama bianco, scortato da agenti su un aereo cargo militare USA. L’avete vista tutti. Ha fatto milioni di visualizzazioni. Politici locali della Florida, come Vince Lago, il sindaco di Coral Gables, l’hanno ricondivisa con foga patriottica. (Spoiler: il sindaco ci è cascato con tutte le scarpe).
Quello scatto non era giornalismo, era generazione procedurale. Era un prompt dato in pasto a Grok o a qualche altro modello avanzato. Eppure, per quelle prime ore critiche, quelle immagini AI sono state la realtà. Hanno iniziato il lavoro di narrazione, indirizzato e plasmato l’opinione pubblica, hanno scatenato reazioni emotive, hanno forse persino influenzato decisioni tattiche sul campo. La velocità con cui si sono diffuse ha polverizzato ogni tentativo di verifica. E quando i fact-checker hanno alzato la mano per dire “Ehi, guardate che le mani del soldato hanno sei dita”, la narrazione era già consolidata.
Scheda del report
- Ente di ricerca: NewsGuard
- Oggetto: Analisi disinformazione crisi Venezuela
- Anno pubblicazione: 2026
- Dati chiave: Identificate 5 foto generate da AI e 2 video manipolati divenuti virali nelle prime 24 ore.
- Link fonte: Substack NewsGuard su Venezuela e AI
Crisi in Venezuela, trovate armi di confusione di massa
Il fatto è questo: non siamo davanti a semplici “fake news”. Quelle le conosciamo, sono vecchie come la stampa. Qui siamo di fronte a una realtà hackerata. Le immagini AI sono diventate armi tattiche di saturazione. L’obiettivo non è necessariamente convincerti di una bugia specifica, ma riempire tutti gli spazi di pensiero critico con dei “segnaposto” che ti dicono qualcosa e non ti lasciano pensare per conto tuo. Inondare il canale informativo di così tanto rumore verosimile che la verità diventa irriconoscibile.
Il report di NewsGuard è impietoso. Mentre analisti e giornalisti cercavano di capire se ci fosse davvero un golpe, milioni di utenti stavano già vivendo un film parallelo, interamente sintetico. È il paradosso definitivo del 2026: abbiamo più strumenti di informazione di qualsiasi altra epoca storica, eppure non siamo mai stati così ciechi.
Queste immagini AI sfruttano i bias di conferma delle persone, e li “educano” in modo brutale: serviva cucinare e vendere “la caduta del dittatore narcotrafficante”? L’algoritmo ha provveduto subito, partendo e arrivando a destinazione come una “bomba intelligente”, prima ancora della realtà.
Se l’AI diventa l’unico scudo contro se stessa
C’è un’ironia di fondo in tutto questo (c’è sempre). Mentre le immagini AI incasinavano la crisi in Venezuela e confondevano il mondo in un “gioco delle tre carte” fatto con carte infinite, un’altra AI cercava di rimetterlo in ordine. In Venezuela, dove (dato di fatto, questo) la stampa libera è comunque un ricordo sbiadito, organizzazioni come Efecto Cocuyo hanno lanciato “La Tía del WhatsApp”. La zia di WhatsApp, letteralmente. Un chatbot AI addestrato per verificare i rumor e dire alla gente cosa sta succedendo davvero.
Mi chiedo se non sia questo il nostro futuro prossimo: una guerra di trincea tra algoritmi che generano immagini AI per ingannarci e algoritmi che le analizzano per salvarci. E noi in mezzo, a scrollare il feed cercando di capire se quel video è storia o solo un ottimo rendering.
La crisi in Venezuela passerà, in un modo o nell’altro, come passano tutte. Ma quello che abbiamo visto (o creduto di vedere) il 3 gennaio 2026 resta. È l’ennesimo giorno della marmotta in cui abbiamo smesso ufficialmente di poter dire “l’ho visto con i miei occhi”. Ogni volta che la nostra mente ricorre ad un concetto o a farsi un’idea sui fatti, dovremo chiederci se questa nostra idea è stata in realtà “sognata” da una scheda grafica.
E la risposta, temo, non ci piacerà.
Quando e come ci cambierà la vita
È già successo. Ogni notizia visiva è colpevole fino a prova contraria. L’onere della prova si sposta: non serve più provare che una foto è falsa, servirà certificare crittograficamente che è vera (standard C2PA). Preparatevi a un web “filigranato” entro il 2027.
Approfondisci
Ti interessa capire come l’AI sta cambiando la percezione della realtà? Leggi anche come i deepfake rischiano di riscrivere la nostra memoria collettiva. Oppure scopri la guerra cognitiva: quando il campo di battaglia è la tua mente.