Tempo fa, in agenzia, ce lo dicevamo davanti al caffè: ma quando le ricerche con AI faranno sì che la gente smetta di andare sui siti, come si sosterranno le testate con le pubblicità? E cosa eviterà che chiudano? A quel punto, chi darà le notizie ai motori di ricerca? Qualcuno, mezzo serio mezzo ironico, sentenziava: “quando i giornalisti non potranno più lavorare, alle AI mancheranno notizie da riassumere. Probabilmente saranno le stesse AI a iniziare a scriversi le notizie da sole.” Sembrava una battuta. Era una previsione. La prima redazione di giornalisti interamente AI esiste già, ha 94 articoli pubblicati in quattro mesi, e indovinate? Il filo che la finanzia porta dritto a OpenAI.
Il caso Acutus Wire, scoperto per sbaglio
L’inchiesta è uscita il 24 aprile su Model Republic, firmata da Tyler Johnston, e parte da un’email. Nathan Calvin, vice presidente di Encode (gruppo che si occupa di policy sull’AI), ne riceve una da un certo Michael Chen, “reporter” di un sito chiamato The Wire by Acutus.
Chen vuole intervistarlo su una legge in Tennessee, formato domande e risposte scritto, indirizzo generico (reporter@acutuswire.com). Calvin lo cerca online: non esiste. Passa l’email a un detector di testi AI: “completamente generata da AI”. Da lì, Johnston tira il filo. E scopre che il sito non è solo gestito da una redazione di giornalisti AI: è anche stato programmato così male da aver lasciato tutte le sue API esposte al pubblico. Bastava aprire il browser per leggere il database interno.
Acutus Wire si presenta come piattaforma di “giornalismo indipendente sostenuto da fonti esperte”. Niente firme reali, niente direttore, praticamente un mistero buffo. Johnston ha passato al detector tutti i 94 articoli pubblicati: il 69% risulta interamente generato da AI, il 28% parzialmente. Solo tre articoli, su 94, hanno qualche traccia di scrittura umana.
Come funziona la finta redazione
Il sito è un’app React, e il codice JavaScript inviato al browser di chiunque visiti la pagina contiene per intero l’interfaccia editoriale interna. Si vedono i campi: “AI Background Context”, “Question Prompts”, un bottone “Generate Story Draft”, un altro “Regenerate”. C’è un sistema multi-pass di revisione editoriale che assegna punteggi (stile Associated Press, accuratezza delle citazioni, verifica delle fonti). Funziona, in media, in 44 secondi dalla prima all’ultima correzione, e il click di pubblicazione cade dieci secondi dopo. In 42 articoli su 94, lo stesso revisore AI revisore aveva segnalato lo stato come “needs_revision”. Sono stati pubblicati comunque.
Le citazioni? Alcune sono prese da pagine web pubbliche e infilate dentro come dichiarazioni rese al sito. Altre arrivano da persone reali che hanno risposto alle email di “Michael Chen”: un professore di Harvard ha scritto su LinkedIn di essere “felice di aver condiviso le sue idee con Acutuswire”, senza sapere che dall’altra parte non c’era nessuno. Era un agente AI. Una stringa nel codice del sito chiarisce tutto: “Le interviste inviate dall’agent compariranno qui per la revisione.”
Il filo che porta a OpenAI
Circa il 15% degli articoli di Acutus tratta di AI. Tutti, sistematicamente, attaccano i critici dell’industria dell’intelligenza artificiale: gettano ombre su Anthropic, attaccano chi vuole regolare l’AI a livello statale, accusano giornalisti e attivisti di alimentare la violenza contro OpenAI.
Curiosamente, questi sono proprio gli argomenti di Leading the Future, il super fondo da 125 milioni di dollari finanziato dal presidente di OpenAI Greg Brockman e da a16z (storico investitore di OpenAI), guidato da Chris Lehane, capo politico… della stessa OpenAI.
Il collegamento passa per una catena di società: Acutus risulta promosso da Patrick Hynes, presidente di Novus Public Affairs, una PR firm che ha tra i clienti Targeted Victory, lo studio repubblicano il cui CEO… è co-fondatore di Leading the Future.
Insomma: un piano di accumulo capitale di OpenAI paga uno studio che paga uno studio che gestisce un sito di “giornalismo indipendente” dove gli articoli scritti da AI attaccano chi critica OpenAI. Una matrioska.
Negli ultimi giorni Leading the Future avrebbe ammesso il legame con la PR firm, sostenendo però di non sapere cosa stesse facendo. Troppo comodo non sapere, quando paghi tu il contratto.
Giornalisti AI: quando precipiterà la situazione?
L’orizzonte stimato è di 1-3 anni perché tutto questo smetta di essere un’eccezione e diventi un sistema.
Acutus Wire è il primo caso documentato, ma il template è già pronto: ogni gruppo di pressione, ogni campagna elettorale, ogni industria con qualcosa da difendere può aprire un sito identico in un weekend. Costa pochissimo.
Ci accorgeremo solo dei siti programmati male, come Acutus. Quelli fatti con un minimo di cura passeranno inosservati.
La profezia del bar
Torno alla battuta in agenzia. Era una previsione meccanica: se l’AI svuota i siti di traffico e i siti chiudono, alle AI manca materia prima, quindi le AI iniziano a generare materia prima da sole. Il passaggio ulteriore che non avevamo fatto è che la materia prima non sarebbe stata neutra.
Qui non si tratta di sostituire il giornalismo, ma di simularlo per ottenere qualcosa che il giornalismo, finché era umano, non concedeva sempre: copertura politica orientata, mascherata da indipendenza, e prodotta a costi industriali. La cosa scomoda è che questa è una notizia che si è scoperta solo perché chi ha fatto il sito non sapeva programmare bene. Pensate a quanti, in questo momento, lo stanno facendo meglio.
OpenAI vieta esplicitamente, nei suoi termini d’uso, di impiegare i suoi modelli per campagne politiche e lobby. Nel suo vecchio safety framework la generazione di influenza politica era classificata come rischio critico. La frase, nella versione recente, è stata rimossa.
I giornalisti AI non sostituiscono il giornalismo. Lo svuotano da dentro, lasciando solo il guscio esterno.
Giornalisti AI, resta la domanda di partenza, quella del caffè: e amara come il caffè c’è anche un’altra considerazione
Se ai siti di news mancheranno i lettori, e ai motori di ricerca mancheranno gli articoli, qualcuno colmerà il vuoto. Ora sappiamo chi paga il primo turno. Per la cronaca, è già stato segnalato che anche Anthropic ha smesso di dire no su parecchie cose. Mentre nel 2019 OpenAI rese pubblico GPT-2 dichiarandosi preoccupata che potesse essere usato proprio per generare disinformazione su scala industriale.
Sette anni dopo, la stessa azienda ha una ricetta per la superintelligenza e, sembra, anche per i finti giornalisti.
Anche qui, come per altre categorie e non senza amarezza (e da giornalista pubblicista) dico: l’AI è un magnifico strumento al servizio dei giornalisti, se usato e supervisionato da una mente umana. Anche io me ne servo.
Se però i giornalisti umani finiscono per scrivere “a gettone” sostenendo idee politiche solo per soldi, se diventano “juke box ideologici” senza più alcuna indipendenza, a quel punto sostituirli con giornalisti AI è solo il passo successivo: la conseguenza naturale.
Come diceva Arbore: meditate, gente. Meditate.