Il telefono squilla. È tua figlia, la voce è quella: concitata, quasi in lacrime. “Papà, ho avuto un incidente, mi serve subito del denaro per uscire dai guai”. Il panico sale, il cuore batte forte. Ma qualcosa non torna. Quella pausa, quel tono leggermente metallico. Fai un respiro, e riesci a trovare una attimo per dire: “Qual è la nostra parola d’ordine?”. Silenzio. Poi, la chiamata cade. Non era tua figlia.
Era un deepfake vocale generato da un’intelligenza artificiale che aveva clonato la sua voce da pochi secondi di audio rubati dai social. Benvenuti nell’era delle truffe vocali intelligenti, dove basta una registrazione per diventare chiunque. E dove una semplice parola d’ordine può essere l’unica cosa che ti separa dal versare migliaia di euro a dei criminali.
Clonare una voce costa 5 dollari al mese
Una volta la clonazione vocale era roba da film di spionaggio. Ora è qui, accessibile a chiunque abbia un abbonamento mensile a piattaforme come ElevenLabs o Play.ht. Uno studio pubblicato a luglio 2025 su Scientific Reports dimostra che il 70% delle persone non riesce a distinguere una voce clonata dall’originale. I sistemi di intelligenza artificiale analizzano frequenze, pause, intonazioni e le replicano con precisione quasi perfetta. Bastano cinque secondi di audio: un messaggio vocale su WhatsApp, un video su Instagram, una chiamata Zoom registrata. E il gioco è fatto.
In Italia, secondo la Polizia Postale, le truffe vocali basate su deepfake sono aumentate del 456% tra il 2024 e il 2025. I dati di Resemble.AI raccontano un’escalation impressionante: 22 incidenti registrati tra 2017 e 2022, 42 nel 2023, 150 nel 2024. Solo nel primo trimestre del 2025, gli episodi sono stati 179, superando l’intero anno precedente del 19%.
Gli anziani sono i bersagli preferiti. La truffa del “nipote in difficoltà” ha fatto danni milionari. Ma anche dirigenti d’azienda finiscono nella rete: a Hong Kong, un dipendente ha trasferito 25 milioni di dollari durante una videochiamata con il CFO e altri colleghi. Tutti erano deepfake. La videoconferenza sembrava reale. Lo era anche la perdita economica.
Una parola d’ordine: difesa low-tech contro minacce high-tech
La soluzione esiste ed è estremamente semplice: adottare una “safe word”, una parola d’ordine segreta da usare per verificare l’identità di chi chiama. Se ricevi una chiamata sospetta da qualcuno che dice di essere tuo figlio e chiede denaro urgente, chiedi la parola: se non la sa, riagganci. Se sei tu in difficoltà e devi chiamare un familiare, pronuncia la parola d’ordine: così chi ti ascolta sa che sei davvero tu. Punto.
Le regole per scegliere una buona parola d’ordine sono poche ma precise. Dev’essere facile da ricordare ma impossibile da indovinare. Non usare nomi di animali domestici, indirizzi o date di nascita: queste informazioni sono spesso pubbliche sui social. Meglio un aneddoto familiare, la prima parola detta da tuo figlio (se diversa da “mamma” o “papà”), un episodio che solo voi conoscete. Condividila solo con i familiari più stretti, di persona o al telefono. E non cambiarla a meno che non ci sia una violazione: introdurre una nuova parola crea confusione e rischia di vanificare lo scopo.
Quando la tecnologia imita troppo bene la realtà
Il caso più clamoroso in Italia è stato quello del falso ministro Guido Crosetto. I truffatori hanno usato un software per clonare la sua voce e contattare imprenditori come Massimo Moratti, Giorgio Armani, Patrizio Bertelli. Chiedevano bonifici urgenti per presunte operazioni riservate legate al caso di Cecilia Sala. Un imprenditore milanese ha versato un milione di euro in due tranche. Moratti ha intuito l’inganno: “Sembrava tutto assolutamente vero”, ha dichiarato. Ma ha fatto la cosa giusta: ha chiuso la chiamata e verificato.
Come spiega uno studio pubblicato su JMIR, anche se i software di clonazione vocale imitano perfettamente frequenze e intonazioni, hanno ancora difficoltà con le pause naturali del parlato umano. Gli esseri umani fanno micropause, esitazioni, respiri irregolari. Le macchine imparano dove inserire le pause dai dati di training, ma il risultato resta comunque leggermente artificiale. È un dettaglio che sfugge alla maggior parte delle persone, soprattutto sotto stress emotivo.
Il problema è umano, non tecnologico. Di fronte a una voce familiare che chiede aiuto urgente, il cervello bypassa la logica e attiva l’istinto protettivo. Per questo serve un filtro cognitivo: qualcosa che interrompa l’automatismo emotivo e costringa il cervello a ragionare. La parola d’ordine funziona proprio così.
Certo, ci sono obiezioni. In momenti di panico, una persona in difficoltà potrebbe dimenticare il codice. È un rischio reale. Ma gli esperti concordano: meglio avere un metodo di verifica imperfetto che non averne nessuno. Alcune famiglie usano domande di sicurezza invece di una parola d’ordine: “Come si chiamava il nostro motel al mare?”, “Cosa hai mangiato al tuo primo compleanno?”. Altri ancora implementano una doppia autenticazione: parola d’ordine più una seconda verifica tramite app come Google Authenticator.
La tecnologia continuerà a migliorare. Come abbiamo già raccontato, sistemi come OmniHuman-1 di ByteDance creano già deepfake video indistinguibili dalla realtà. La clonazione vocale in tempo reale è dietro l’angolo. Ma finché le truffe si basano su chiamate preregistrate o semi-automatizzate, una parola d’ordine rimane la difesa più semplice ed efficace.
Tu hai una parola d’ordine con la tua famiglia? Se la risposta è no, questo è il momento di sceglierne una. Prima che qualcuno lo faccia per te.