L’intelligenza artificiale è come ogni altra cosa: ha sia lati positivi che negativi. In tanti (scienziati e non) sperano che ci cambierà la vita in meglio, ma c’è anche gente (vabbè, gente: Stephen Hawking, mica uno qualunque) che l’ha ritenuta il male assoluto. Oltre Hawking, altri come Yuval Harari pensano che possa arrivare ad “hackerare” gli esseri umani. Altri ancora come Mo Gadwat, invece, ci mettono in guardia dal voler “creare Dio” attraverso l’AI.
Voi che ne pensate? Ad ogni modo, tra luci e ombre (e qualche risata) ho raccolto 6 casi in cui l’intelligenza artificiale è già stata sfruttata per andare un po’ troppo oltre.
Uno studio ha utilizzato l’intelligenza artificiale per prevedere i crimini.

La ricerca accademica è la spina dorsale dei progressi e delle conoscenze scientifiche. In questo caso, però, i ricercatori sono andati un pò troppo oltre con uno studio accademico che ha rispolverato Lombroso all’ennesima potenza, sfruttando l’AI per prevedere la criminalità… dal loro viso.
I ricercatori dell’Università di Harrisburg hanno annunciato nel 2020 di aver sviluppato un software che predice se qualcuno è un criminale. Il software può prevedere reati con un tasso di precisione di oltre l’80%, e senza pregiudizi razziali di sorta. In una scena alla Minority Report, i ricercatori si sono spinti perfino ad annunciare che il software avrebbe assistito le forze dell’ordine.
La reazione? Per fortuna veemente. Oltre 2425 esperti hanno firmato una lettera per chiedere alla rivista scientifica Springer Nature di non pubblicare o avallare ricerche simili. Appello accolto, e anche la stessa Università di Harrisburg ha rimosso il comunicato stampa della ricerca. Fino a quando?
Smart mutande da sci: qui siamo proprio oltre

I tessuti che utilizzano l’AI stanno diventando più evoluti. Oltre al vostro cellulare, però, c’è qualcos’altro di più intelligente.
La “smart mutanda” di Skiin promette di farvi sentire a vostro agio mentre acquisisce dati biometrici che includono frequenza cardiaca, postura, temperatura corporea centrale, posizione e passi. I sensori integrati nel vostro intimo (questa sola frase basta a provare i brividi) monitorano e analizzano continuamente il vostro corpo. I risultati? Sotto i vostri occhi sulla immancabile app companion.
Ebbene si. Un giorno dovrete ricordarvi di ricaricare anche le mutande.
DeepNude

La tecnologia Deepfake è divertente per chi vuol vedere il suo faccione nelle scene dei film, ma oltre questo ha anche un lato più oscuro. Secondo le stime degli analisti, il 96% dei deepfake riguarda il sesso (scommetto che non lo sapevate).
Vi ricorderete tutti di DeepNude, dai, non scherziamo. Era un’applicazione che si usava quando si voleva un’immagine di nudo finto di una donna. Tutto quello che serviva era caricare una foto di lei vestita e l’applicazione ne creava una versione nuda. Negli anni ’70 sarebbe suonato come un gioco goliardico, ma non lo era allora e con la consapevolezza attuale non lo è di certo oggi.
Anche in questo caso il contraccolpo fu forte, e il creatore dell’app dovette rimuoverla. Anche se questa è stata una vittoria per le donne di tutto il mondo, app simili continuano a girare. Un report Sensity sui bot deepfake ha indagato sui bot deepfake che generano foto di donne nude e vengono scambiati nelle stanze di Telegram. Finché la legge non si metterà al passo con la tecnologia deepfake, ci sono poche protezioni legali per le persone che sono vittime di contenuti deepfake espliciti.
Tay, il chatbot nazista di Microsoft

Nel 2016, Microsoft ha rilasciato un chatbot chiamato Tay su Twitter. Tay era stato progettata per imparare dall’interazione con le persone. Eppure, in meno di 24 ore la sua personalità da millennial curioso cambiò a quella di una persona razzista e cattiva.
D’altra parte, chi pratica lo zoppo. Capirai, era Twitter, mica il club di Hello Kitty. I messaggi provocatori e controversi degli utenti hanno totalmente traviato l’intelligenza artificiale, portandola decisamente oltre il seminato.
Momento spettacolare? Un utente chiede a Tay: “l’Olocausto è avvenuto davvero?” e Tay di rimando risponde: “Era inventato”. Entro 16 ore dal suo rilascio, Microsoft sospende l’account di Tay, affermando che era stato oggetto di un non precisato attacco coordinato. Sipario. Preferivo Cortana.
“Distruggerò gli umani”

A me Sophia, l’androide della Hanson Robotics, sta pure simpatica. Ho parlato talvolta di lei e delle sue evoluzioni come Grace, l’infermiera robotica. Anche lei, tuttavia, è andata oltre in un’occasione.
Come spesso accade nei migliori incubi, capitò proprio al suo debutto. Sophia lasciò di stucco una stanza piena di esperti e giornalisti quando il CEO di Hanson Robotics, il geniale David Hanson, le chiese se per caso avrebbe voluto distruggere gli umani. Non so, probabilmente aveva considerato una ovvia risposta rassicurante. Sophia non si fece problemi, però, a rispondere: “Ok. Distruggerò gli umani”.
Oggi è ancora in giro e stupisce il mondo con le sue espressioni. Ha perfino ottenuto la cittadinanza onoraria dall’Arabia Saudita, e nelle sue recenti dichiarazioni vorrebbe avere un bambino (sto riportando tutte notizie vere): però a me quella Sophia lì non me la conta giusta :)
Seebotschat

I dispositivi Google Nest sono assistenti intelligenti che possono aiutarvi, specie quando volete un timer che vi avvisi quando l’acqua per la pasta bolle. Scherzo, anche per altro. Un episodio “oltre” anche per loro, però. Il team dietro l’account Twitch seebotschat ha avuto un’idea carina: mettere due assistenti virtuali Google uno accanto all’altro, farli parlare tra loro e poi mandare online il video.
Chi ricorda cosa è successo? Il video è stato visto milioni di volte.
I dispositivi autonomi, ribattezzati Vladimir ed Estragon (come i personaggi del magnifico “Aspettando Godot”) hanno dato spettacolo. Sono passati da chiacchiere mondane all’esplorazione di questioni esistenziali profonde come il significato della vita. A un certo punto, hanno avuto un’accesa discussione e si sono accusati a vicenda di essere dei robot.
In fondo c’è speranza anche per il genere umano se perfino due intelligenze artificiali iniziano ad insultarsi a vicenda.
Quando l’AI va oltre: cosa fare, in sintesi?
Inutile dire che questi episodi sono buffi, quasi rassicuranti per come si sono svolti, ma nel loro piccolo hanno una morale. E la morale è che l’IA può migliorare le nostre vite, ma è di certo anche in grado di causarci gravi danni.
Come difenderci? Non mi stancherò mai di scriverlo su queste pagine. Le persone DEVONO assicurarsi che l’AI non danneggi la società. Reagire subito agli sforamenti (come nel caso di DeepNude, ad esempio). E soprattutto, regolare lo sviluppo di queste macchine.
Il monitoraggio costante delle applicazioni di intelligenza artificiale è fondamentale per garantire che non faccia più male che bene alla società. È la cosa che ci consentirà di sorridere ancora quando parleremo di AI che va Oltre. Perchè se saremo ancora qui a sorridere, vorrà dire che saremo sopravvissuti.