C’è una studentessa australiana, Madeleine, che ha passato sei mesi a dimostrare di essere umana. Il suo crimine? Scrivere troppo bene. Un algoritmo di rilevamento aveva deciso che il suo compito di infermieristica era stato generato dall’intelligenza artificiale, e da quel momento la sua carriera accademica si è fermata. Nessun ospedale la voleva, nessun docente poteva sbloccarle il curriculum. Tutto perché un software aveva confuso la competenza con l’automazione.
Ecco, questa storia racconta un problema che nel 2026 è diventato enorme: distinguere i testi AI da quelli scritti da esseri umani non è più un esercizio accademico. È una questione che tocca studenti, professionisti, giornalisti e chiunque usi una tastiera per lavoro.
Chi controlla cosa scriviamo (e come)
Il panorama dei detector si è complicato parecchio. Turnitin, GPTZero, Copyleaks, Compilatio e chi più ne ha, più ne metta: le università italiane li stanno adottando uno dopo l’altro. Il Politecnico di Milano dal gennaio 2025 ha reso obbligatorio il doppio controllo per tutte le tesi magistrali. La Sapienza ha lanciato workshop sull’uso etico dell’intelligenza artificiale. E il quadro normativo si sta stringendo: l’AI Act europeo impone nuove regole di classificazione che toccheranno direttamente anche questi strumenti di verifica.
Il meccanismo è sempre lo stesso: i detector analizzano due parametri principali, la “perplessità” (quanto il testo è prevedibile) e la “burstiness” (in pratica quanto varia il ritmo delle frasi). Un testo umano ha un ritmo irregolare, con picchi e pause. I testi AI tendono ad avere la regolarità di un metronomo, e molto ritmo spezzato (oltre che il famoso problema delle “triadi”, tre aggettivi di fila, o tre frasi di fila). Ma il problema è che la scrittura accademica italiana è naturalmente “prevedibile” dal punto di vista lessicale: frasi formali, strutture codificate, terminologia ricorrente. Per cui è un po’ come accusare un notaio di essere un robot perché usa sempre le stesse formule.
I numeri confermano il cortocircuito: secondo uno studio del Journal of Academic Ethics, i detector attuali raggiungono un’accuratezza dell’83% sui testi interamente generati dall’intelligenza artificiale, ma scendono al 61% quando il contenuto mescola contributo umano e supporto AI. Per la lingua italiana, le stime sono ancora meno rassicuranti.
Il paradosso della scrittura “troppo perfetta”
Una ricerca di Stanford ha rivelato un dettaglio che io personalmente non trascurerei: i detector AI mostrano un comportamento sistematico contro chi non è madrelingua. Gli algoritmi segnalano come “generati dall’AI” testi scritti da studenti stranieri con maggiore frequenza. In pratica, scrivere un italiano pulito e corretto da non madrelingua diventa sospetto.
E qui si apre un paradosso interessante. Mentre i detector cercano di smascherare i testi AI, milioni di persone usano l’intelligenza artificiale per migliorare la qualità della propria scrittura. Non per barare, ma per comunicare meglio. Un professionista che corregge una mail con un umanizzatore di testi è assolutamente nelle regole, anzi: sta facendo quello che farebbe rileggendo il testo tre volte, solo più velocemente.
La differenza tra usare l’AI come stampella e usarla come protesi cognitiva è sottile, ma esiste. E passa tutta dal concetto di “agency intellettuale”: chi ha preso le decisioni? Chi ha strutturato il ragionamento? Se la risposta è “io, con l’aiuto di uno strumento”, il problema non dovrebbe neanche esistere.

Il linguaggio che ci cambia (senza che ce ne accorgiamo)
C’è un effetto collaterale di cui si parla poco. A forza di interagire con ChatGPT e simili, stiamo modificando il nostro modo di scrivere e parlare. Parole come “approfondire”, “meticoloso”, “sottolineare” hanno registrato un aumento d’uso del 50% nel linguaggio quotidiano. E vogliamo parlare della rutilante espressione “Spero che questa mail ti trovi bene”L’intelligenza artificiale ci sta dando lezioni di lingua, e noi obbediamo senza rendercene conto.
Il risultato è una specie di omologazione linguistica che rende ancora più difficile il lavoro dei detector. Se tutti cominciamo a scrivere come un modello linguistico, come fa un software a distinguere chi ha usato l’AI da chi ne ha semplicemente assorbito lo stile? Un po’ come cercare un pesce in un oceano dove tutti nuotano allo stesso modo.
Piattaforme come JustDone, che offrono strumenti di rilevamento e un umanizzatore di testi che interviene su ritmo, tono e fluidità delle frasi, lavorano proprio su questa zona grigia. L’obiettivo non è ingannare nessuno: è restituire al testo quella variabilità naturale che la scrittura assistita tende ad appiattire. Una questione di leggibilità, prima ancora che di rilevamento.
La corsa ai bollini “AI free”
Nel frattempo, il mercato ha fiutato l’affare. La Authors Guild americana ha certificato oltre 5.000 titoli con il marchio “AI free” in poco più di un anno. In UK, l’86% degli autori afferma che l’intelligenza artificiale generativa ha già ridotto i propri guadagni. E ovunque spuntano iniziative per creare badge e certificazioni che garantiscano l’origine umana di un contenuto.
Ma la domanda resta: cosa significa davvero “AI free”? Un correttore ortografico basato su intelligenza artificiale rende un testo non umano? Un software di impaginazione automatica? La ricercatrice Sasha Luccioni, che si occupa di AI responsabile, lo ha detto chiaramente: l’intelligenza artificiale è così integrata in piattaforme e servizi che stabilire cosa sia “puro” è diventato un problema tecnico, oltre che filosofico.
Oltre il 50% dei contenuti web nel 2025 è stato generato da AI. In un mercato dove la macchina produce cento articoli nel tempo in cui un giornalista ne scrive uno, dimostrare di essere umani costa tempo e denaro. Fingere di non esserlo resta gratuito.
5 cose concrete da sapere se scrivi con (o senza) l’AI
Chi lavora con i testi AI oggi si muove in un campo minato di regole, strumenti e aspettative contraddittorie. Ecco le domande che contano davvero.
1) I detector AI sono affidabili?
No, non completamente. L’accuratezza varia tra il 61% e l’83% a seconda del tipo di testo, e per l’italiano i margini di errore sono più ampi. Turnitin stessa avverte che il suo detector non dovrebbe essere usato come unica base per azioni disciplinari. Il tasso di falsi positivi a livello di frase può arrivare al 4%.
2) Posso usare l’AI per scrivere la mia tesi?
Dipende dall’ateneo. Il principio condiviso dalla maggior parte delle università italiane è: trasparenza totale e predominanza del lavoro originale. Usare l’intelligenza artificiale per brainstorming, ricerca e revisione è generalmente accettato. Incollare interi paragrafi generati senza rielaborazione è vietato praticamente ovunque.
3) Un umanizzatore di testi serve davvero?
Sì, ma non per i motivi che pensi. Strumenti come quello di JustDone intervengono sulla leggibilità: correggono frasi rigide, eliminano ripetizioni, adattano il tono al contesto. È un lavoro di editing, non di camuffamento. Chi scrive per professione lo sa: la prima stesura non è mai quella definitiva, con o senza intelligenza artificiale.
4) I testi AI sono sempre riconoscibili?
Sempre meno. I modelli linguistici imparano a imitare la variabilità umana, e i testi ibridi (parte umana, parte AI) sono i più difficili da classificare. La vera sfida non è più individuare il testo generato, ma definire cosa significhi “scritto da un essere umano” in un’epoca in cui gli strumenti di supporto sono ovunque.
Cosa succede se vengo accusato ingiustamente?
L’esperienza australiana insegna: conserva sempre le bozze, gli appunti e le cronologie di lavoro. La Vanderbilt University ha disattivato il detector di Turnitin già nel 2023 perché con 75.000 paper all’anno, anche un tasso di falsi positivi dell’1% significava 750 accuse ingiuste. Il consiglio migliore resta quello di dichiarare apertamente se e come si è usata l’intelligenza artificiale.
Insomma: il confine tra testi AI e scrittura umana non è una linea netta. È una zona grigia che si allarga ogni giorno, e dove la tecnologia corre più veloce delle regole. La vera questione, forse, non è più chi ha scritto cosa. È se quello che leggiamo ci dice qualcosa di vero, indipendentemente da chi (o cosa) lo ha messo nero su bianco.
Approfondisci
Il rapporto tra intelligenza artificiale e scrittura è un tema che qui su Futuro Prossimo seguiamo da tempo. Se vuoi capire come le università stanno gestendo (piuttosto male, devo dire) i controlli automatici, leggi la storia dei falsi positivi che hanno rovinato la carriera di centinaia di studenti. E se ti incuriosisce come il linguaggio di ChatGPT stia cambiando il nostro modo di parlare, c’è un pezzo che racconta l’omologazione linguistica che non ci accorgiamo di subire. Per il quadro più ampio sulla guerra tra contenuti umani e artificiali, invece, vale la pena dare un’occhiata alla corsa ai bollini AI free che sta dividendo editori e autori.