Lo scorso febbraio OpenAI annunciò di aver sviluppato un algoritmo capace di scrivere messaggi spam e fake news del tutto plausibili.
All'epoca la decisione del team fu quella di non diffonderlo perché ritenuto troppo pericoloso. Per questo OpenAI decise di avviare un cauto programma di studio diffondendo solo parti dell'algoritmo per scrivere fake news e valutare gli effetti.
Oggi il gruppo dichiara di aver rivisto la sua stima dei rischi, e di non aver ravvisato eccessivi guasti realizzabili. Per questo ha deciso di rilasciare al pubblico il codice completo dell'algoritmo "bugiardo".
L'intelligenza artificiale, chiamata GPT-2, era disegnata in origine per rispondere a domande, tradurre testi e ordinare contenuti. I ricercatori hanno poi capito (con non poco stupore) che il sistema può servire anche a immettere in rete una enorme quantità di disinformazione.
Falso allarme? Forse.
Per fortuna gli utilizzi fatti nel periodo di monitoraggio sono stati molto più morigerati: l'algoritmo è stato impiegato per strutture narrative e videogiochi testuali.
Nel post ufficiale che annuncia la diffusione pubblica del meccanismo, OpenAI si augura che questa intelligenza artificiale possa servire a sviluppare modelli di riconoscimento del testo che permettano proprio di scovare in rete le fake news. "Stiamo diffondendo questo modello per aiutare la ricerca a individuare testo sintetico," si legge sul sito.
L'idea che ci sia un'AI in grado di produrre una massa gigantesca di fake news non facili da smentire è irritante, ma la Storia ci fa notare che tecnologie del genere arrivano, che noi lo vogliamo o no.
Bene avrebbe fatto OpenAI a condividere il suo lavoro immediatamente, per dare ancora più tempo e modo ai ricercatori di individuare strumenti capaci di combattere, o almeno riconoscere testi creati artificialmente. Meglio tardi che mai, ad ogni modo.