L’intelligenza artificiale sta imparando di più sugli esseri umani e su come lavorare con loro. Uno studio recente ha dimostrato come l’AI possa imparare a identificare i punti deboli nelle abitudini e nei comportamenti umani e utilizzarle per influenzare il processo decisionale umano.
Può sembrare un cliché dire che l’AI stia trasformando ogni aspetto del modo in cui viviamo e lavoriamo, ma è vero. Varie forme di intelligenza artificiale sono all’opera in campi diversi: dallo sviluppo di vaccini alla gestione ambientale, passando per l’amministrazione degli uffici.
E sebbene l’AI non possieda intelligenza ed emozioni simili a quelle umane, le sue capacità sono potenti e in rapido sviluppo.
Quanto è già avanti? Come spesso dico, lo “Skynet” di Terminator non è ancora arrivato (e meno male), ma una recente scoperta evidenzia il potere dell’intelligenza artificiale e sottolinea la necessità di una governance adeguata per prevenirne l’uso improprio.
Come l’AI può imparare a influenzare il comportamento umano imparando i suoi punti deboli

Il team di ricercatori Data61 del CSIRO, il braccio dati e digitale dell’agenzia scientifica nazionale australiana, ha ideato un metodo sistematico per trovare e sfruttare i punti deboli nei modi in cui le persone fanno le scelte, utilizzando una sorta di sistema di intelligenza artificiale chiamato rete neurale ricorrente di rinforzo e apprendimento profondo.
Per testare il loro modello hanno condotto tre esperimenti in cui partecipanti umani hanno giocato contro un computer.
Il primo esperimento
Ha coinvolto i partecipanti che cliccavano su caselle colorate rosse o blu per vincere un “compenso”, con l’AI che apprendeva i modelli di scelta del partecipante e li guidava verso una scelta specifica. L’intelligenza artificiale ha avuto successo circa il 70% delle volte.
Il secondo esperimento
I partecipanti dovevano guardare uno schermo e premere un pulsante quando veniva mostrato loro un particolare simbolo (un triangolo arancione) e non premerlo quando ne veniva mostrato un altro (un cerchio blu). Qui, l’AI ha deciso di organizzare la sequenza di simboli in modo che i partecipanti commettessero più errori.
Il terzo esperimento
Consisteva in diversi round in cui un partecipante fingeva di essere un investitore che dava denaro a un fiduciario (l’AI). L’intelligenza artificiale avrebbe restituito una somma di denaro al partecipante, che avrebbe poi deciso quanto reinvestire nel round successivo. Questo gioco è stato giocato in due diverse modalità: in una l’intelligenza artificiale mirava a massimizzare la quantità di denaro per lei, e nell’altra l’AI mirava a un’equa distribuzione di denaro tra sé e l’investitore umano. L’intelligenza artificiale ha avuto molto successo in entrambe le modalità.
In ognuno di questi esperimenti, la macchina ha imparato dalle risposte dei partecipanti e ha identificato e mirato i punti deboli nel processo decisionale delle persone.
Il risultato finale è stato che la macchina ha imparato come guidare i partecipanti verso azioni particolari.
Cosa significa la ricerca per il futuro dell’AI
Questi risultati sono ancora abbastanza astratti e riguardano situazioni limitate. Sono necessarie ulteriori ricerche per determinare come questo approccio possa essere messo in atto e utilizzato a vantaggio della società.
Ma la ricerca fa avanzare la nostra comprensione non solo di ciò che può fare l’AI, ma anche di come le persone operano delle scelte.
Mostra che le macchine possono imparare a guidare il processo decisionale umano attraverso le loro interazioni con noi.
La ricerca sui punti deboli umani ha una vasta gamma di possibili applicazioni
Da questo studio possono derivare molte applicazioni: il potenziamento delle scienze comportamentali e delle politiche pubbliche per migliorare il benessere sociale. La comprensione e l’influenza del modo in cui le persone adottano abitudini alimentari sane, o l’uso di energie rinnovabili.
L’intelligenza artificiale e l’apprendimento automatico potrebbero essere utilizzati per riconoscere i punti deboli delle persone in determinate situazioni e aiutarle a evitare scelte sbagliate.

Qual è il prossimo passo?
Come ogni tecnologia, l’intelligenza artificiale può essere utilizzata nel bene o nel male e un’adeguata governance è fondamentale per garantire che sia implementata in modo responsabile.
L’anno scorso CSIRO ha sviluppato un quadro etico di intelligenza artificiale per il governo australiano come primo passo in questo viaggio.
L’intelligenza artificiale e l’apprendimento automatico sono in genere affamati di dati, il che significa che è fondamentale assicurarsi di disporre di sistemi efficaci per la governance e l’accesso ai dati.
L’implementazione di processi di consenso adeguati e protezione della privacy durante la raccolta dei dati saranno essenziali.