FuturoProssimo
Contatti
  • Home
  • Tech
  • Salute
  • Ambiente
  • Architettura
  • Energia
  • Trasporti
  • Spazio
  • AI
  • Concepts
  • Gadgets
  • Italia Next
  • H+
7 Luglio 2022

Coronavirus / Russia-Ucraina

FuturoProssimo

Notizie per capire, anticipare, migliorare il futuro.

No Result
View All Result

Notizie per capire, anticipare, migliorare il futuro.

Leggi in:  Chinese (Simplified)EnglishFrenchGermanItalianJapanesePortugueseRussianSpanish

No, l’intelligenza artificiale di Google non è senziente

L'AI è spesso esaltata per la sua continua crescita. Questa settimana, però, le cose hanno preso una piega decisamente 'creepy'

Gianluca Ricciodi Gianluca Riccio
in Tecnologia
Share74Pin18Tweet46SendShare13ShareShare9
COPERTINA PERISCOPIO 23
14 Giugno 2022
⚪ Si legge in 5 minuti
A A

Questo post fa parte di “Periscopio”, la newsletter Linkedin che ogni settimana approfondisce temi di Futuro Prossimo, e viene pubblicata in anticipo sulla piattaforma LinkedIn. Se vuoi iscriverti e leggerla in anteprima, trovi tutto qui.

Sabato scorso il Washington Post ha riportato le dichiarazioni di un ingegnere Google sospeso il 6 giugno per aver violato gli accordi di riservatezza dell’azienda di Palo Alto. In sostanza l’ingegnere, Blake Lemoine, ha diffuso chat “private” tra lui e un chatbot di intelligenza artificiale che dimostrerebbero una cosa piuttosto temuta da molti esperti: questa AI sarebbe diventata senziente.

Si tratta di dichiarazioni forti da parte di un esperto di settore, non di un tizio qualsiasi. E sono rese dopo centinaia di interazioni con un sistema di intelligenza artificiale all’avanguardia e inedito chiamato LaMDA. Ma è vero? Questa AI è diventata davvero senziente?

intelligenza artificiale senziente
LaMDA è senziente?

Di cosa parliamo

LaMDA sta per “Language Model for Dialog Applications”. È uno di quei sistemi di AI che può rispondere a richieste scritte una volta addestrato su grandi volumi di dati.

Forse ti interessa anche

AAA cercasi algoritmo della felicità

Mr.Shadow, il brano composto dall’AI, un po’ mi piace e un po’ mi inquieta

Microsoft ritirerà (senza fretta) la sua tecnologia che legge le emozioni

Petvation: porticina con riconoscimento facciale per far gli animali di casa

Sono sistemi diventati sempre più bravi a rispondere alle domande scrivendo in modo che sono sempre più somiglianti a quelli umani. Proprio lo scorso maggio la stessa Google ha presentato LaMDA sul suo blog ufficiale definendola “capace di scrivere su un numero infinito di argomenti”.

Si, ma è senziente?

Dopo le affermazioni dell’ingegnere, Google ha provato a gettare acqua sul fuoco smentendo l’intervista apparsa sul Washington Post. “Il nostro team,” ha scritto ieri Big G, “ha esaminato le preoccupazioni di Blake e lo ha informato che le prove non supportano le sue affermazioni”. Le hanno fatto eco diversi esperti di intelligenza artificiale: alcuni hanno bocciato sonoramente questa tesi, altri l’hanno usata come esempio della nostra propensione ad assegnare alle macchine degli attributi umani.

Un po’ come quando litighiamo con il mouse, per intenderci.

Non è una boutade, però. Non si può liquidare così una cosa del genere. E non per i timori di gente come Ilya Sutskever (“le AI stanno diventando senzienti”), Yuval Harari (“Le AI potranno hackerare le persone”), o Mo Gawdat (“i ricercatori AI giocano a creare Dio”).

La convinzione che l’IA di Google possa essere senziente è importantissima, perchè mette in evidenza sia le nostre paure che le nostre aspettative sulle potenzialità di questa tecnologia.

Yuval Harari
Yuval Harari

Per ora, però, è una convinzione sbagliata

Lo sviluppo e l’uso di programmi informatici avanzati e addestrati su enormi quantità di dati genera molte preoccupazioni etiche. In alcuni casi, però, il progresso viene giudicato in base a ciò che potrebbe accadere piuttosto che a ciò che è attualmente fattibile.

La conclusione al momento, a sentire quasi tutti i maggiori esperti informatici del mondo, appare una sola: no, l’AI di Google non è affatto vicina ad essere senziente. È solo più brava a sembrarlo, abbinando modelli di linguaggio a cose simili che trova in un magazzino pressoché infinito di frasi.

Dovete immaginarla come una versione super potente del software di completamento automatico che abbiamo su uno smartphone. Ok: super super super potente. Nessuno, però, dovrebbe confondere questo con l’essere senziente.

Proprio gli sviluppatori di AI, tuttavia, stanno suonando la carica di questi tempi, allarmando le persone. Le loro dichiarazioni, dettate in parte dallo shock di vedere per primi le potenzialità di questa tecnologia e in parte anche per promuoverle, hanno una grande risonanza sui media.

L’AI di Google non è senziente

La scorsa settimana Blaise Aguera y Arcas, vicepresidente di Google Research, ha scritto in un articolo per l’Economist che quando ha iniziato a utilizzare LaMDA l’anno scorso, si sentiva sempre più come se stesse parlando con qualcosa di intelligente. È comprensibile stupore, perfino sottile paura.

Al momento, però, LaMDA è stata sottoposta a 11 diversi processi di rievisione sui principi di intelligenza artificiale. È stata sottoposta anche a molti test sulla sua capacità di elaborare affermazioni basate sui fatti. Niente. Non è senziente.

Questo non toglie nulla alla necessità di sviluppare intelligenza artificiale seguendo un’etica ed una morale. Qualcuno, per la verità, dice di aver sviluppato un’AI direttamente DOTATA di una morale, ma questo è un altro conto.

Il principale dovere dei ricercatori, se hanno a cuore davvero il progresso di questa tecnologia, è non antropomorfizzare le sue manifestazioni. Soprattutto, non allarmare eccessivamente l’opinione pubblica, semmai restando vigile per poter “tirare il freno” appena ci saranno effettive prove di una scintilla di autocoscienza.

SE ci saranno mai. Voi che dite?

Tags: googleintelligenza artificialePeriscopio
Post precedente

Arena del Futuro, Stellantis testa la strada che ricarica i veicoli elettrici

Prossimo Post

Turbina ‘biomimetica’ a flusso di marea produce energia imitando i pesci

Collabora

Per inviare articoli, divulgare gli esiti di una ricerca o di scoperte scientifiche scrivi alla redazione

    Archivio

    Dai un’occhiata qui:

    cellule ciliate
    Medicina

    Resistete, calvi! I capelli “cresciuti in laboratorio” sono ad un passo

    L'idea delle startup è prendere cellule ordinarie dai pazienti, come quelle della pelle, e trasformarle in cellule che formano capelli.

    Read more
    Scie Chimiche contro il riscaldamento globale? C’è chi dice si

    Scie Chimiche contro il riscaldamento globale? C’è chi dice si

    Il Giappone sta creando protocolli per  gestire un eventuale contatto UFO

    Il Giappone sta creando protocolli per gestire un eventuale contatto UFO

    GoCycle, l’ebike che porti come un ombrello

    GoCycle, l’ebike che porti come un ombrello

    stoccaggio idrogeno

    Conservare l’idrogeno nelle grotte? Uno studio di fattibilità sullo stoccaggio

    Il domani quotidiano

    Futuroprossimo.it fornisce notizie sul futuro di tecnologia, scienza e innovazione: se c'è una cosa che sta per arrivare, qui è già arrivata. FuturoProssimo fa parte del network ForwardTo, studi e competenze per scenari futuri.

    Iscriviti alla newsletter

    Ambiente
    Architettura
    Intelligenza Artificiale
    Gadgets
    Concepts
    Design

    Redazione
    Archivi
    Pubblicità
    Privacy Policy

    Medicina
    Spazio
    Robotica
    Lavoro
    Trasporti
    Energia

    Per contattare la redazione di FuturoProssimo, scrivere a [email protected]

    中文版
    Édition Française
    Deutsche Ausgabe
    日本語版
    English Edition
    Edição Portuguesa
    Русское издание
    Edición en español

    Quest'opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale.
    © 2021 Futuroprossimo

    No Result
    View All Result
    • Home
    • Tech
    • Salute
    • Ambiente
    • Architettura
    • Energia
    • Trasporti
    • Spazio
    • AI
    • Concepts
    • Gadgets
    • Italia Next
    • H+