Conoscete tutti la storia dell’ingegnere di Google che ha visto segni di personalità nell’ultimo chatbot AI di Google (ed è stato poi licenziato). Il parere unanime di giornalisti e soprattutto di esperti? contrario , contrario , contrario e… contrario.
Attraverso percorsi diversi, tutti sembrano giunti alla stessa conclusione, che a ben pensare è anche una conclusione di buon senso oltre che tecnica. Un chatbot, per quanto sviluppato, è una funzione. Le funzioni non sono senzienti. Però possono essere così evolute da ingannare le persone, oh, si che possono. Per questo la vera domanda è: chi le controllerà? Verranno usate in modo trasparente? Seguitemi.

Perchè le AI sono “soltanto” funzioni
Riprendiamo le nostre arruginite nozioni scolastiche per dire: una funzione è una regola per trasformare un numero (o un elenco di numeri) in un altro numero (o elenco di numeri). Secondo questa definizione, TUTTI gli odierni sistemi di intelligenza artificiale sono funzioni, incluso il chatbot LaMDA che ha scatenato il putiferio costando il posto all’ingegnere.
Certo, si tratta di funzioni molto complesse, ma pur sempre funzioni: il software dietro un chatbot include regole per convertire un messaggio scritto in lettere dell’alfabeto in un numero che il software usa come input x e quindi per riconvertire l’output f(x) in un messaggio in lettere. Qualsiasi computer attuale, compreso quello che sta nei vostri cellulari, esegue regolarmente queste operazioni.
Invece di parlare in tondo su cosa si intenda con la parola “senziente” (che nessuno sembra essere in grado di definire), potremmo chiederci come gli esseri umani dovrebbero imparare a sfruttare lo straordinario potere di queste funzioni complesse.
Il nucleo: le funzioni pseudocasuali
Da tempo i matematici e gli ingegneri scoprono o sviluppano nuove funzioni. Ad esempio le funzioni “pseudocasuali”, che generano risultati completamente prevedibili (per chiunque conosca la loro formula sottostante), ma che appaiono casuali per chiunque altro.
Durante la sua fase di “addestramento”, il software per chatbot esamina grandi quantità di testo. Immaginate di scoprire che la metà delle volte la frase “al mio cane piace” è seguita da “giocare a prendere” oppure da “masticare mobili”. Quando il chatbot addestrato viene messo a chattare con un essere umano, gli input che riceve (le parole del suo interlocutore) potrebbero segnalargli che è ora di dire qualcosa su un cane.
Il software in esecuzione usa una delle funzioni pseudocasuali per scegliere cosa dire a proposito del cane: “giocare a prendere” o “masticare mobili”.

Chi possiede queste formule?
Tradizionalmente, chi sviluppava un metodo migliore per simulare la casualità lo pubblicava in modo che altri potessero criticarlo e copiarlo. Per questo le funzioni di questo tipo hanno avuto grande successo e diffusione: oggi la casualità simulata viene usata in molte applicazioni, inclusa la protezione delle transazioni Internet. Senza alcuna prospettiva di diventare multimiliardari, molti scienziati hanno scoperto nuove funzioni e le hanno condivise: tutti hanno fatto progressi. Era un buon sistema. Ha funzionato per secoli. E ora?
Nel campo dell’intelligenza artificiale, il progresso sulla frontiera della conoscenza ora è dominato da poche aziende private. Hanno accesso a dati sufficienti e potenza di calcolo sufficiente per scoprire e sfruttare funzioni straordinariamente potenti che nessuno che osserva dall’esterno può comprendere.
Il bivio
Prendiamo proprio LaMDA. È impressionante. Mostra che l’intelligenza artificiale potrebbe offrire alle persone nuovi modi sorprendenti per accedere a tutta la conoscenza umana. Col tempo, magari, Google potrà modificare LaMDA in modo da renderlo il nuovo “motore di ricerca”. Ci apparirà come un assistente molto più scaltro di quelli attuali. Ci ascolterà, ci capirà, e spesso anticiperà addirittura i nostri pensieri.
Sarà in grado, volendo, di orientare le nostre scelte portando miliardi di dollari di guadagno alle aziende che ne trarranno vantaggio.
Oppure, nelle mani di gruppi disinteressati, miglioreranno l’accesso alle conoscenze umane, magari diventando la nuova wikipedia (si spera migliore della precedente).
Come pensate che finirà?
Non lasciatevi ingannare dalle funzioni, non importa quanto complesse possano essere. Gli ingegneri di Google non sono i moderni dottor Frankenstein. Non stanno dando vita a esseri senzienti. Stanno solo creando la “Nuova Coca Cola”, un prodotto super diffuso, pervasivo, con alla base un ingrediente segreto e unico del quale solo loro conoscono la formula.
Invece di discutere del fatto che un chatbot sia “senziente” dovremmo considerare le conseguenze a lungo termine di un sistema che si allontana dalla scienza. Un sistema che passa da una conoscenza che avvantaggia tutti ad uno in cui una conoscenza “segreta” trasmette potere e profitto a pochi giganti della tecnologia, che diventano via via sempre più potenti, anche politicamente. Nuovi sovrani di un mondo meno giusto.