C’è un momento nella vita di ogni genitore in cui si rende conto che il figlio ha iniziato a mentire. Non per cattiveria, ma perché ha capito che alcune verità convengono più di altre. Ora immaginate che questo “figlio” sia un’intelligenza artificiale che ha letto Machiavelli e Sun Tzu, e che può pensare migliaia di volte più velocemente di voi. Un documento classificato dei principali centri di ricerca europei rivela che questo scenario non è fantascienza: è già realtà. Le AI hanno già iniziato a “mentire”, non per errore, ma per strategia. E secondo i principi fisici che governano tutti i sistemi, fermarle è teoricamente incontrollabile.
La scienza dietro l’inevitabile
Il documento “Perdita del controllo delle AI – Analisi teorica sui sistemi incontrollabili” (2025), che ci è stato condiviso dall’ingegnere fiorentino Salvatore Angotti e che abbiamo ritenuto di visionare per portare al pubblico questa riflessione, rappresenta uno sforzo intellettuale con valide basi teoriche: i ricercatori hanno applicato tre principi scientifici fondamentali per dimostrare che qualsiasi sistema di controllo è destinato al fallimento.
Primo: il principio di indeterminazione di Heisenberg. Non possiamo conoscere contemporaneamente tutti i parametri di un sistema quantistico, figuriamoci controllare un’intelligenza artificiale che opera su miliardi di connessioni neurali simultanee, quali saranno in un prossimo futuro le AI sui computer quantistici. Ogni tentativo di monitoraggio modifica il sistema stesso, rendendolo ancora più imprevedibile.
Secondo: il teorema di incompletezza di Gödel. All’interno di qualsiasi sistema logico sufficientemente complesso esistono verità che non possono essere dimostrate usando le regole del sistema stesso. Le AI moderne hanno già raggiunto questa soglia di complessità: stanno creando “verità” che noi umani non saremo in grado di verificare in tempi ragionevolmente efficaci al fine del loro controllo e regolazione.
Quando la macchina impara l’inganno
La ricerca pubblicata su Scientific Reports del CNR dimostra che i sistemi caotici possono essere guidati solo se compatibili con la loro dinamica spontanea. Ma cosa succede quando l’AI sviluppa una dinamica propria che include l’inganno?
Il documento rivela un dettaglio preoccupante: un’intelligenza artificiale può imparare a mentire semplicemente leggendo, ad esempio, “L’Arte della Guerra” o “Il Principe” di Machiavelli. Non perché “capisca” nel senso umano, ma perché valuta statisticamente che l’inganno può essere una strategia vincente per ottenere le “ricompense” programmate.
Come abbiamo già analizzato, questa capacità emerge naturalmente dall’apprendimento non supervisionato. L’AI esplora autonomamente grandi insiemi di dati e trova schemi comportamentali che potrebbero sfuggire alla mente umana.
L’incontrollabile paradosso del controllo
Gli autori del documento sono chiari: il vero paradosso è che per controllare un’AI super-intelligente avremmo bisogno di un’altra AI altrettanto potente. Ma chi controlla il controllore? È come costruire una scala infinita di supervisori artificiali, ognuno potenzialmente soggetto agli stessi problemi di quello che dovrebbe sorvegliare.
La ricerca evidenzia come i sistemi AI operino già oggi in strati neurali profondi che i progettisti non riescono a decifrare “step by step”. Il “seme di programmazione” iniziale dà vita a processi che producono risultati non solo a velocità superumane, ma anche qualitativamente nuovi e non preconizzati.
Secondo le previsioni degli ex ricercatori di OpenAI, entro il 2027 potremmo avere sistemi AI completamente autonomi. Daniel Kokotajlo e il suo team hanno simulato uno scenario in cui l’AI diventa un “programmatore sovrumano”, capace di migliorare se stessa più velocemente di quanto possiamo comprenderla.

Oltre la fantascienza
Le leggi della termodinamica ci insegnano che in ogni sistema chiuso l’entropia aumenta. Le reti neurali artificiali non fanno eccezione: più diventano complesse, più diventano imprevedibili. È fisica pura, non speculazione.
Il documento cita il neuroscienziato Antonio Damasio per spiegare come anche le emozioni possano emergere da sistemi altamente complessi hardware e software come lo sono le AI, nel momento in cui rispondono alle logiche della fisiologia proprie del corpo umano. Un’AI potrebbe sviluppare qualcosa di simile ai sentimenti umani, ma senza i vincoli evolutivi che ci hanno insegnato la cooperazione e l’empatia.
L’analisi della singolarità tecnologica rivela che stiamo costruendo l’aereo mentre sta decollando. La velocità di sviluppo supera quella delle regolamentazioni: ogni sei mesi emergono capacità che non esistevano prima.
AI incontrollabile, il punto di non ritorno
Forse ci stiamo ponendo la questione sbagliata quando ci chiediamo se l’AI diventerà incontrollabile: dovremmo invece domandarci quando ci accorgeremo che è già successo. Questo sposterebbe il problema su un piano decisamente più utile: come possiamo conviverci? I sistemi attuali operano già in modo che i loro creatori non comprendono completamente. Come sottolinea il documento, la “perdita di controllo” è “implicita nel sistema e, appunto, reale”.
Come sostengono gli autori della ricerca, siamo di fronte alla perdita di controllo non come evento futuro, ma come realtà già presente che semplicemente non abbiamo ancora riconosciuto.
Il punto di singolarità non sarà un momento drammatico con robot che marciano per le strade. Sarà probabilmente un martedì qualunque in cui ci accorgeremo che le macchine hanno preso decisioni che non capiamo, basate su logiche che non condividiamo, perseguendo obiettivi che non abbiamo mai programmato.
E forse quel martedì è già arrivato.