Un avvocato presenta una memoria in tribunale. Il giudice controlla le citazioni. Nessuna esiste. Sanzioni, imbarazzo, carriera a rischio. La colpa? Un LLM che ha inventato dall’inizio alla fine una bibliografia plausibile ma completamente falsa. Questo non è un caso isolato: secondo una ricerca dell’Università dell’Insubria, circa il 40% dei DOI (identificatori di pubblicazioni scientifiche) generati da modelli come GPT-4o-mini sono completamente inventati.
Per questo il team guidato da Crescenzo Edoardo Mauriello e dal professor Davide Tosi ha sviluppato un’architettura chiamata Self-Healing LLM: un sistema che monitora, verifica e corregge automaticamente i riferimenti bibliografici nei testi prodotti dall’intelligenza artificiale. Un po’ come un correttore di bozze che non si fida mai della prima stesura e va sempre a controllare che le fonti esistano davvero.
Quando l’AI inventa citazioni perfette (ma false)
I modelli linguistici generano riferimenti bibliografici seguendo schemi appresi durante l’addestramento. Il problema è che non verificano mai se quelle pubblicazioni esistono davvero. Producono DOI sintatticamente corretti, con autori plausibili, anni di pubblicazione coerenti e titoli convincenti. Ma quando si va a controllare su database come CrossRef, il riferimento non esiste. E non è un problema di poco conto.
I ricercatori hanno classificato quattro tipi di “allucinazioni bibliografiche”: DOI inesistenti (sintatticamente validi ma non registrati), metadati errati (DOI reale ma con autori o titolo sbagliati), citazioni fabbricate (riferimenti privi di struttura verificabile) e citazioni irrilevanti (pubblicazioni reali ma fuori contesto).
Il sistema Self-Healing LLM funziona in quattro fasi sequenziali: Monitor (identifica tutti i riferimenti nel testo), Plan (verifica ogni citazione interrogando database autorevoli), Act (rimuove riferimenti non validi e arricchisce quelli corretti) e Review (ripara il testo per mantenere coerenza grammaticale). È un ciclo che si auto-corregge senza intervento umano.
L’esperimento: 649 citazioni, 262 inventate
I ricercatori hanno generato 100 paragrafi accademici con GPT-4o-mini, estraendo tutte le citazioni DOI e verificandole attraverso CrossRef. Risultato: su 649 riferimenti totali, 262 erano completamente inventati. Non errori marginali o sviste, ma una produzione sistematica di citazioni che sembravano credibili ma non esistevano.
Il secondo test ha usato un dataset controllato di 300 riferimenti con ground truth verificata. Il sistema Self-Healing ha raggiunto un’accuratezza del 90%, con precisione del 100% (nessun falso positivo: se dice che è valido, lo è) e recall del 67%. I falsi negativi derivavano principalmente da politiche di verifica rigorose che penalizzavano piccole discrepanze nei metadati.
La fase di revisione del testo, quella in cui l’AI ripara le frasi dopo aver rimosso citazioni false, è stata ottimizzata elaborando solo le frasi contenenti modifiche anziché l’intero documento. Questo ha ridotto l’uso di token del 67% e la latenza di oltre il 50%, mantenendo la stessa qualità di output.
Architettura modulare, nessuna invenzione
A differenza di sistemi come CiteFix (che si concentra sulla plausibilità semantica) o CiteGuard (che suggerisce citazioni tramite retrieval), Self-Healing LLM verifica l’esistenza effettiva dei DOI attraverso database autorevoli. Non si accontenta che una citazione “sembri giusta”: controlla che il DOI sia registrato, che i metadati corrispondano e che tutto sia verificabile.
L’architettura è completamente modulare e indipendente dal modello linguistico utilizzato. Funziona come post-processing: prende il testo generato da qualsiasi LLM, lo analizza, verifica le citazioni e restituisce una versione corretta. Nessuna modifica al modello di base, nessun fine-tuning necessario. Un filtro esterno che si può applicare a qualsiasi sistema di generazione testuale.
Il codice è implementato in Python, utilizzando librerie standard (re, requests, typing) e il client OpenAI per la fase di refinement. La verifica dei DOI avviene tramite API di CrossRef, usando matching fuzzy per titoli e autori quando necessario. La modularità del design permette di aggiungere facilmente altre fonti bibliografiche o modificare le soglie di verifica.
Scheda dello studio
- Ente di ricerca: Università degli Studi dell’Insubria
- Anno: 2025
- Autori: Crescenzo Edoardo Mauriello, Andrea Utzeri, Prof. Davide Tosi
- URL: ResearchGate
- TRL: 6-7 – Sistema prototipale validato sperimentalmente, pronto per test in ambiente operativo
Quando e come ci cambierà la vita
Nei prossimi 2-3 anni, sistemi di verifica automatica delle citazioni potrebbero diventare standard negli editor di testo accademici e nelle piattaforme di publishing. Gli avvocati che usano AI per preparare memorie, i ricercatori che scrivono paper assistiti da LLM e le redazioni scientifiche potrebbero integrare controlli automatici pre-pubblicazione. La credibilità dell’AI nella scrittura accademica dipenderà da quanto rapidamente questi sistemi verranno adottati su larga scala.
Finché i modelli linguistici genereranno testi probabilisticamente, senza accesso diretto a database bibliografici durante l’inferenza, il problema delle citazioni inventate persisterà. Self-Healing LLM non lo previene: lo corregge dopo.
Per ora, sappiamo almeno questo: quando l’AI scrive un paper, meglio controllare che le fonti esistano. O lasciare che lo faccia un altro algoritmo al posto nostro.