Provate a immaginare la scena: il giudice chiama il testimone, si accendono gli schermi e appare il volto di un uomo morto quattro anni fa. Indossa il suo cappellino da baseball grigio, la barba rossa curata, e comincia a parlare con la voce che la famiglia ricordava perfettamente. “Ciao, sono una versione di Chris ricreata tramite intelligenza artificiale”, dice all’aula attonita. È la prima testimonianza in tribunale di un defunto, resa possibile dalla tecnologia deepfake. E sta scatenando un terremoto etico.
Il caso che ha cambiato la storia giudiziaria
Christopher Pelkey era un veterano dell’esercito americano, 37 anni, tre missioni in Iraq e Afghanistan alle spalle. La sua vita si è spezzata il 21 novembre 2021 in Arizona, durante quello che doveva essere un banale episodio di traffico stradale. Gabriel Horcasitas, 54 anni, gli ha sparato dopo una discussione a un semaforo. Christopher era sceso dall’auto per chiarire la situazione: non è più risalito.
Il mese scorso, durante l’udienza di condanna di Horcasitas, è successo qualcosa di mai visto prima nella storia dei tribunali. Stacey Wales, sorella di Christopher, insieme al marito Tim Wales e all’amico Scott Yentzer, ha presentato un video che ha lasciato l’aula senza parole.
Non si trattava di un semplice filmato ricordo, ma di un avatar creato con l’intelligenza artificiale che riproduceva perfettamente l’aspetto e la voce del fratello scomparso.
La tecnologia dietro l’avatar
L’avatar di Christopher è stato realizzato utilizzando Stable Diffusion, una delle piattaforme di intelligenza artificiale più avanzate per la generazione di immagini. La famiglia ha alimentato il sistema con centinaia di foto, video e registrazioni audio, inclusa un’intervista che Christopher aveva rilasciato mesi prima della morte. Il risultato è stato un deepfake di qualità cinematografica: ogni espressione facciale, ogni inflessione vocale riproduceva fedelmente le caratteristiche del veterano.
“Abbiamo raccolto testimonianze da tutti coloro che lo conoscevano”, spiega Stacey Wales. “Dalla sua maestra elementare ai compagni di servizio in Afghanistan. Volevamo essere sicuri che quello che avrebbe detto Christopher riflettesse davvero il suo carattere”.
Il “copione” è stato scritto dalla sorella, ma ogni parola è stata pensata per rispecchiare la personalità di un uomo descritto come “il tipo che si sarebbe tolto la camicia per dartela se ne avessi avuto bisogno”.
Le parole che hanno commosso il tribunale
L’avatar di Christopher si è rivolto direttamente al suo assassino con parole che hanno scosso l’intera aula: “In un’altra vita, forse saremmo potuti essere amici. Credo nel perdono. In un Dio che perdona”. Il messaggio si è concluso con un saluto che ha toccato tutti i presenti: “Ora vado a pescare. Vi voglio bene a tutti. Ci vediamo dall’altra parte”.
Il giudice Todd Lang non ha nascosto la sua commozione: “Ho adorato quell’intelligenza artificiale”, ha dichiarato durante la sentenza. “Anche se la famiglia era giustamente arrabbiata e chiedeva la pena massima, ha permesso a Chris di parlare dal cuore come loro lo vedevano. Non l’ho sentito chiedere la pena massima”.
Lang ha poi condannato Horcasitas a 10 anni e mezzo di prigione, il massimo previsto per l’omicidio colposo. Forse, alla fine, quel video non ha contribuito a soddisfare la sete di giustizia della famiglia. Il punto però, lo immaginerete, non è questo.
Il dibattito etico che divide gli esperti
La testimonianza in tribunale ha scatenato una controversia che va ben oltre il caso specifico. Derek Leben, professore di etica aziendale alla Carnegie Mellon University e autore di “Ethics for Robots”, ha espresso forti perplessità in merito a questa vicenda:
“Non metto in discussione le intenzioni di questa famiglia, ma temo che non tutti utilizzeranno l’intelligenza artificiale in modo corretto. Se altre famiglie creeranno avatar, saranno sempre fedeli alle volontà della vittima?”.
La questione tocca uno dei nervi scoperti dell’era digitale: il consenso postumo. Come possiamo essere certi che le parole pronunciate dall’avatar riflettano davvero quello che avrebbe detto Christopher? E soprattutto, chi ha l’autorità di decidere cosa può o non può dire un morto?
Un precedente che fa riflettere
Come vi scrivevo qui, l’uso dell’intelligenza artificiale per ricreare i defunti non è una novità assoluta. I “thanabot” (chatbot dei morti) esistono già da tempo, generalmente per scopi ludici. Di recente vi ho raccontato, ad esempio, dei corsi di scrittura tenuti “direttamente”, si fa per dire, dalla grande scrittrice Agatha Christie “resuscitata” dall’intelligenza artificiale. Ma il caso Pelkey segna un salto di qualità: per la prima volta, un avatar digitale ha influenzato direttamente una decisione giudiziaria in un tribunale.
E ora è bufera. La Judicial Conference degli Stati Uniti ha già annunciato che avvierà una consultazione pubblica per regolamentare l’uso dell’evidenza generata dall’intelligenza artificiale nei procedimenti. Gary Marchant, professore di legge alla Arizona State University, avverte:
“C’è una preoccupazione reale tra magistrati e avvocati che i deepfake saranno sempre più utilizzati. È facile crearli e chiunque può farlo con un telefono”.
“Testimoni AI” in tribunale: il futuro della giustizia digitale
Il caso Christopher Pelkey non è un episodio isolato. Rappresenta l’inizio di una nuova era in cui la tecnologia ridefinisce i confini tra vita e morte, tra memoria e manipolazione. Come dimostrano diversi studi, i deepfake sono considerati dagli esperti una delle principali insidie portate dall’intelligenza artificiale, proprio per la loro capacità di erodere la fiducia nelle prove audiovisive.
Se la famiglia Wales è convinta di aver dato a Christopher l’opportunità di esprimere il suo ultimo messaggio, la comunità scientifica e legale si interroga sui rischi di una tecnologia che potrebbe trasformare i tribunali in teatri dell’emozione piuttosto che luoghi di giustizia. La voce di Christopher, vera o ricostruita, ha certamente lasciato un segno. Ma ha anche aperto domande che la società dovrà affrontare molto presto: fino a che punto siamo disposti a lasciare che l’intelligenza artificiale parli per noi, anche dopo la morte?
La risposta determinerà non solo il futuro dei tribunali, ma il modo stesso in cui concepiamo l’identità umana nell’era digitale.