Madeleine stava finendo il tirocinio di infermieristica quando è arrivata uma email con oggetto “Academic Integrity Concern”. Dentro, l’accusa (falsa) di aver usato l’intelligenza artificiale per scrivere un compito. Lei non aveva fatto nulla del genere, ma non importava. L’università aveva un report generato da un’altra AI, e quello bastava. Sei mesi dopo, era ancora lì a spiegare perché forse, chissà, il sistema poteva essersi sbagliato.
Nel frattempo il suo curriculum segnalava “risultati sospesi”, e nessun ospedale la voleva. È un cortocircuito perfetto: un’AI che accusa studenti di usare AI, basandosi su un’altra AI che non funziona bene. E a pagare sono le persone, non gli algoritmi. Non è Black Mirror, e non me lo sono inventato: è successo sul serio.
Seimila casi, novanta per cento sbagliati
L’Australian Catholic University ha registrato quasi 6.000 casi di presunto plagio nel 2024. Il 90% di questi riguardava l’intelligenza artificiale. Il problema? Una quantità significativa di quegli studenti non aveva fatto nulla di male. Tutte accuse false. Il detector usato dall’università, Turnitin, aveva semplicemente deciso che quei testi erano troppo ben scritti per essere umani. Un complimento, in teoria. Una condanna, nella pratica.
Tania Broadley, vice-rettore dell’ACU, ha dichiarato alla ABC che le cifre erano “sostanzialmente sovrastimate”. Ha ammesso un aumento dei casi di cattiva condotta accademica, ma si è rifiutata di commentare il numero di studenti vittime di accuse false. Un quarto di tutti i referral è stato archiviato dopo le indagini. Ma i mesi persi non tornano indietro.
Il caso di Madeleine non è isolato. Centinaia di studenti hanno dovuto consegnare cronologie di navigazione complete, appunti scritti a mano e giustificazioni dettagliate su cose che non avevano fatto. Come ha detto uno studente di medicina d’urgenza all’ABC:
“Non sono la polizia. Non hanno mandati per richiedere la tua cronologia di navigazione. Ma quando rischi di dover ripetere un corso, fai quello che vogliono”.

Turnitin, il sistema che ammette di non essere affidabile
Sul suo stesso sito web, Turnitin avverte che il detector AI “non dovrebbe essere usato come unica base per azioni avverse contro uno studente”. L’azienda ha ammesso che il tasso di falsi positivi a livello di documento è inferiore all’1% per documenti con il 20% o più di scrittura AI. Ma a livello di frase, il tasso sale al 4%. E quando il testo mescola scrittura umana e AI, i problemi si moltiplicano.
Uno studente ha raccontato alla ABC: “È AI che rileva AI e quasi tutto il mio saggio era evidenziato in blu: l’84% presumibilmente scritto dall’AI”. Il suo testo era completamente originale. Ma per l’algoritmo non importava.
La Vanderbilt University ha disabilitato completamente il detector AI di Turnitin già nel 2023, citando preoccupazioni sulla sua affidabilità. L’università ha calcolato che con 75.000 paper inviati all’anno e un tasso di falsi positivi anche “solo” dell’1%, circa 750 studenti sarebbero stati accusati ingiustamente. Troppi.
Il problema non è solo tecnico
L’università australiana sapeva dei problemi del sistema da oltre un anno prima di disattivarlo a marzo 2025. Documenti interni visti dalla ABC mostrano che lo staff era consapevole dell’“affidabilità limitata dello strumento” e dell'”incapacità di distinguere l’editing assistito da AI dalla generazione completa”. Ma le accuse false sono continuate per mesi.
Il fenomeno non è limitato all’Australia. In Italia, diverse università stanno implementando software antiplagio avanzati. L’Università di Padova ha introdotto un nuovo server anti-plagio più sofisticato. L’Università di Verona ha integrato software capaci di individuare testi generati artificialmente. E l’Università di Ferrara ha annullato un intero esame di Psicobiologia dopo aver scoperto che alcuni studenti avevano usato ChatGPT, senza poter identificare i responsabili.
Un particolare che non trascurerei: uno studio di Stanford ha rivelato che i detector AI mostrano bias contro chi non è madrelingua inglese. Gli algoritmi tendono a segnalare come “AI-generated” testi scritti da studenti stranieri con maggiore frequenza. Un problema che aggiunge discriminazione al danno.
Accuse false di plagio: situazione paradossale
Le università stanno abbracciando l’intelligenza artificiale. Molte hanno partnership con aziende tecnologiche per integrare strumenti AI nell’insegnamento. Poi accusano gli studenti di usare gli stessi strumenti. Il messaggio è confuso: l’AI è il futuro, ma se la usi sei un imbroglione.
Nel frattempo, secondo un’indagine italiana, il 75% degli studenti che hanno sostenuto la maturità nel 2023 ha ammesso di aver usato strumenti di IA per preparare gli esami. Il 18% degli studenti tra 16 e 18 anni usa l’AI arche durante i normali compiti in classe. La tecnologia è lì, accessibile, e gli studenti la usano. Pretendere che non lo facciano è irrealistico.

Cosa succede ora
Come detto, il sistema “anti plagio” è stato accantonato, e le situazioni personali sono state progressivamente (e troppo lentamente) archiviate. Per Madeleine, ad esempio, ormai è troppo tardi. Ha perso sei mesi, un’opportunità di lavoro, e la fiducia nel sistema. “Non sapevo cosa fare. Tornare a studiare? Rinunciare e fare qualcosa che non fosse infermieristica in ospedale?” ha detto alla ABC.
Il caso mostra cosa succede quando deleghiamo il giudizio a sistemi che non capiamo del tutto. Gli algoritmi possono essere utili, ma non sono infallibili. E quando sbagliano, sono le persone a pagare. Non con dati corrotti o calcoli errati, ma con carriere rovinate e anni persi. L’intelligenza artificiale può sembrare più compassionevole degli umani in certi contesti, ma quando si tratta di lanciare accuse false, dimostra solo quanto sia pericoloso affidarle decisioni che cambiano le vite.
Come sempre, il problema non è l’AI. È la fiducia cieca che qualcuno ripone in lei.