Tom Tugendhat alza lo sguardo dai suoi appunti. È un parlamentare conservatore britannico e ha appena scoperto che alcuni colleghi fanno scrivere i loro discorsi a ChatGPT. Non è furioso, è preoccupato. “Non possiamo delegare il nostro giudizio alle macchine”, dice. La scena si ripete in uffici parlamentari di mezza Europa. L’intelligenza artificiale sta bussando alla porta della democrazia, offrendosi come assistente efficiente. Ma dove finisce l’aiuto e dove inizia la sostituzione? Un nuovo studio condotto in UK e Giappone ha cercato la risposta intervistando migliaia di persone. I risultati sono chiari: l’elettorato vuole politici che usano l’AI, non politici sostituiti dall’AI.
Il confine esiste, ed è tracciato con precisione
Il team TrustTracker ha intervistato 990 britannici e 2.117 giapponesi per capire dove il pubblico traccia la linea quando si parla di AI e politica. Nel Regno Unito, quasi la metà dei partecipanti ha dichiarato di non appoggiare affatto l’idea che i parlamentari usino l’intelligenza artificiale come supporto. Quando si è chiesto se fossero favorevoli a delegare decisioni a robot o algoritmi, il rifiuto è salito a quattro persone su cinque.
In Giappone la situazione è leggermente diversa. Il paese ha una lunga storia con l’automazione e la robotica, dal concetto di Society 5.0 ai robot assistenziali nelle case di riposo. Ci si aspetterebbe maggiore apertura. Eppure anche qui il pubblico ha espresso forte opposizione all’idea di macchine che prendono decisioni politiche. L’assistenza? Forse. La delega? Mai.
Chi dice sì e chi dice no
I dati rivelano pattern interessanti. Gli uomini giovani sono più favorevoli all’uso di AI e politica rispetto alle donne e agli anziani. Non sorprende: sono cresciuti con la tecnologia, la usano ogni giorno, ne vedono i vantaggi. Ma c’è un altro fattore determinante: la fiducia nel governo. Chi si fida delle istituzioni è più disposto ad accettare che quelle stesse istituzioni usino l’intelligenza artificiale. Chi invece ha scarsa fiducia politica teme che l’AI diventi uno strumento opaco, un modo per nascondere responsabilità dietro algoritmi.
Anche l’atteggiamento generale verso l’intelligenza artificiale conta. Chi vede l’AI come una tecnologia benefica, chi si sente sicuro nell’usarla, è più aperto all’idea di parlamentari che la utilizzano. Chi invece teme l’AI la rifiuta anche in politica.
C’è poi una curiosità ideologica. Nel Regno Unito, gli elettori di destra sono più favorevoli all’AI in parlamento. In Giappone succede l’opposto: sono quelli di sinistra a mostrarsi più aperti. Le ragioni di questa differenza restano poco chiare, ma il dato è significativo.
Assistenza sì, sostituzione mai
La distinzione tra assistenza e delega è fondamentale. Gli elettori non rifiutano l’AI in quanto tale. Accettano che un parlamentare usi strumenti intelligenti per setacciare migliaia di documenti, per simulare l’impatto di una legge, per scrivere bozze più chiare. Il problema nasce quando l’algoritmo prende decisioni al posto dell’essere umano.
Questo ha senso. La Camera italiana ha introdotto tre chatbot (Norma, MSE e Depuchat) per velocizzare il lavoro legislativo. Norma aiuta a trovare precedenti normativi. MSE suggerisce modifiche agli emendamenti. Depuchat risponde a domande sull’attività parlamentare. Nessuno di questi strumenti sostituisce il giudizio umano. Sono strumenti, non decisori. Funzionano davvero? Restituiscono dati attendibili sempre? Sono manipolabili? Possono manipolare a loro volta? Non è dato sapere.
Anna Ascani, vicepresidente della Camera, lo ha detto chiaramente: «Non si tratta di sostituzione del lavoro dei parlamentari, ma di supporto e potenziamento». Il progetto ha coinvolto il Politecnico di Milano, l’Università di Roma Tre, il Consorzio Alma Human AI. Due anni di lavoro per creare qualcosa che aiuta senza sostituire. Forse.
Il rischio si chiama fiducia
Il vero problema, ci torno su, è la fiducia. Uno studio globale KPMG-University of Melbourne condotto su 48.000 persone in 47 paesi ha rivelato che, nonostante il 66% delle persone usi già l’AI regolarmente, il 58% la considera inaffidabile. Questo vale anche per AI e politica. Se i cittadini sentono che l’intelligenza artificiale sta sostituendo il giudizio umano, il sostegno evapora.
I parlamenti dipendono da fiducia e legittimità. Se l’AI viene percepita come un modo per delegare responsabilità o per nascondere decisioni dietro algoritmi opachi, la reazione pubblica può essere durissima. Per questo la trasparenza è fondamentale. Gli elettori devono sapere quando e come viene usata l’intelligenza artificiale, e devono essere certi che la decisione finale resti umana.
AI e politica, una convivenza possibile
L’intelligenza artificiale arriverà comunque in politica. È già qui. La domanda non è se, ma come. Usata con attenzione, può rendere i parlamenti più efficienti, più trasparenti, più capaci di gestire la complessità legislativa moderna. Usata male, può erodere fiducia e legittimità.
Il messaggio degli elettori è chiaro: l’AI può consigliare, ma non può comandare. Può preparare dossier, non scrivere leggi al posto nostro. Può simulare scenari, non scegliere quale seguire.
La democrazia può diventare più efficiente con la tecnologia, ma deve restare umana. Al momento, per una buona parte delle persone quella linea rossa esiste. E non si può superare.