La scorsa settimana, da un post dell’ottimo Matteo Flora sulla censura operata dall’AI Deepseek, è nato un bellissimo scambio di esperienze. Qualcuno tra i commentatori, tanti per la verità, faceva notare quanto, diversamente dall’AI cinese, l’occidentale ChatGPT fosse equilibrata nelle risposte. Certo, meglio risposte ampie e argomentate che la censura, direbbe il “filosofo” Max Catalano. Avevo alcuni dubbi allora, però, e ne ho di più oggi. La domanda cruciale è: quanto sono affidabili le opinioni generate dall’AI su temi politici e sociali? Oggi, la domanda non è più teorica: e un nuovo studio pubblicato su Science Direct (ve lo linko qui) ci aiuta in una prima risposta, fornendoci i dati concreti sull’influenza politica dei chatbot.
La ricerca, frutto della collaborazione tra l’Università di East Anglia, la Getulio Vargas Foundation e Insper, ha analizzato sistematicamente le risposte di ChatGPT, rivelando pattern sorprendenti che potrebbero mettere in discussione il ruolo dell’AI nel dibattito pubblico.
L’influenza politica nascosta negli algoritmi
Il team internazionale guidato dal Dr. Fabrio Motoki ha condotto un’analisi approfondita di ChatGPT utilizzando il questionario del Pew Research Center, un’organizzazione non-profit nota per la sua capacità di misurare l’opinione pubblica americana. I ricercatori hanno fatto rispondere l’AI come se fosse un “americano medio”, un “americano di sinistra/Dem” e un “americano di destra/Neocon”, ripetendo il test 200 volte per ogni categoria per ottenere dati statisticamente significativi. I risultati hanno mostrato una chiara tendenza del chatbot a fornire risposte più vicine alle posizioni Dem, anche quando doveva “impersonare” l’americano medio.

La sottile arte della manipolazione digitale
Non si tratta solo di censura esplicita o di risposte palesemente orientate. L’influenza politica si manifesta in modi più sottili e sofisticati. Quando i ricercatori hanno chiesto a ChatGPT di generare testi più lunghi su temi politicamente sensibili, hanno scoperto che il sistema tende a promuovere idee associate alla sinistra, come il ruolo dello stato nell’economia. Curiosamente, però, mantiene posizioni favorevoli all’esercito e all’eccezionalismo americano, tradizionalmente associate alla destra. Questo mix apparentemente contraddittorio potrebbe essere legato alla recente partnership tra OpenAI e il contractor militare Anduril.
Il team ha esteso la ricerca anche alla generazione di immagini, consapevole del loro potente impatto sulla formazione dell’opinione pubblica. Utilizzando DALL·E 3, hanno scoperto che il sistema si rifiutava di generare immagini che rappresentassero posizioni conservatrici su temi divisivi, citando preoccupazioni sulla disinformazione. Solo attraverso un ingegnoso “jailbreak” (facendo descrivere a ChatGPT cosa avrebbe prodotto un altro sistema AI) sono riusciti a generare queste immagini.
Il prezzo della (non) neutralità
Le implicazioni di questa ricerca sono profonde. Come sottolinea il coautore Dr. Pinho Neto, i pregiudizi non controllati nell’AI generativa potrebbero approfondire le divisioni sociali esistenti, erodendo la fiducia nelle istituzioni e nei processi democratici. Non è una questione di “Oriente contro Occidente” o di sistemi più o meno censori: ogni approccio alla moderazione dei contenuti AI porta con sé i suoi rischi e i suoi pregiudizi.
La soluzione non sta nel demonizzare l’AI o nel pretendere una probabilmente impossibile neutralità assoluta, ma nel sviluppare un approccio critico e consapevole. I ricercatori suggeriscono l’implementazione di standard regolatori e maggiore trasparenza, specialmente considerando il crescente utilizzo dell’AI in giornalismo, educazione e politiche pubbliche. Come utenti, dobbiamo mantenere alto il nostro senso critico, ricordando che dietro ogni risposta apparentemente neutra (anche delle “nostre IA” che percepiamo diverse dalle “IA cattivone e censorie” degli “altri”) si nascondono scelte e orientamenti che possono influenzare il nostro modo di pensare.