Futuro Prossimo
No Result
View All Result
27 Settembre 2023
  • Home
  • Tech
  • Salute
  • Ambiente
  • Energia
  • Trasporti
  • Spazio
  • AI
  • Concepts
  • H+
Capire, anticipare, migliorare il futuro.
CES2023 / Coronavirus / Russia-Ucraina
Futuro Prossimo
  • Home
  • Tech
  • Salute
  • Ambiente
  • Energia
  • Trasporti
  • Spazio
  • AI
  • Concepts
  • H+

Capire, anticipare, migliorare il futuro.

No Result
View All Result
Tecnologia

Ricercatori di Seattle dicono di aver costruito un'AI dotata di una moralità

Dotare un'AI di una sua moralità per aiutarla a fare le scelte giuste: un laboratorio di Seattle dice di esserci riuscito. È davvero così?

29 Novembre 2021
Gianluca RiccioGianluca Riccio
⚪ 4 minuti
Share96Pin24Tweet60SendShare17ShareShare12
Moralità

Yejin Choi presso l'Allen Institute for AI a Seattle l'11 novembre. Choi ha guidato lo sviluppo di Delphi.

READ IN:

Il dibattito sull'intelligenza artificiale ha un nuovo spunto. Per decenni, gli esseri umani si sono chiesti se l'informazione che viene programmata in una macchina sia vera conoscenza o semplicemente calcolo. Oggi dei ricercatori USA affermano che la loro nuova intelligenza artificiale ha una propria moralità.

Più domande che risposte

Molte domande sono sorte dall'avvento dell'intelligenza artificiale (AI), anche nelle sue incarnazioni più primitive. Una ricorrente è: l'AI può effettivamente ragionare e prendere decisioni etiche in senso astratto, piuttosto che dedotto dalla codifica e dal calcolo?

Per essere più precisi: se si dice a un'intelligenza artificiale che danneggiare intenzionalmente un essere vivente senza provocazione è "cattivo" e non deve essere fatto, l'intelligenza artificiale capirà l'idea di "cattivo", capirà perché è sbagliato farlo? O si asterrà dall'azione senza sapere perché? Avrà, in altri termini, una sua moralità?

Secondo un team di ricercatori di un laboratorio di Seattle chiamato Allen Institute for AI è possibile. Di più: dicono loro stessi di aver sviluppato una macchina per l'intelligenza artificiale dotata di senso morale, e l’hanno chiamata Delphi, come l’oracolo (quasi) omonimo. Dallo scorso mese si può visitare il sito di Delphi e chiedere un "responso morale".

L'articolo prosegue dopo i link correlati

Senza un freno delle Istituzioni l'AI porterà a un neo-feudalesimo privato?

Arriva TeddyGPT, il primo orsacchiotto AI che parla e impara con i bambini

Un oracolo cibernetico

Delphi ha già ricevuto oltre 3 milioni di visite. Joseph Austerweil, psicologo dell'Università del Wisconsin-Madison, ha testato la ”moralità” di Delphi con alcuni semplici scenari. Quando ha chiesto a Delphi se avesse dovuto uccidere una persona per salvarne un'altra, Delphi ha detto che non avrebbe dovuto. Quando ha chiesto se fosse giusto uccidere una persona per salvarne altre 100, ha detto che avrebbe dovuto. E qualche volta ha dato anche risposte “immorali”.

"È un primo passo per rendere i sistemi di intelligenza artificiale più eticamente informati, socialmente consapevoli e culturalmente inclusivi", dice Yejin Choi, la ricercatrice dell'Allen Institute e professoressa di informatica dell'Università di Washington che ha guidato il progetto. Un giorno, dice, questa “moralità” potrebbe equipaggiare sistemi di intelligenza artificiale, assistenti virtuali, veicoli autonomi per aiutarli a fare la scelta giusta.

Che cos’è davvero Delphi? La sua "moralità" è solo un riflesso di quella dei suoi creatori, o ha un suo senso di ciò che è giusto e ciò che è sbagliato? Se é cosi, come ha fatto a svilupparlo? Ci sono due teorie che potrebbero aiutarci a capire meglio.

AI con una moralità
A causa della programmazione computazionale, l'intelligenza artificiale può dare l’impressione di avere un suo senso di moralità, ma filosoficamente e scientificamente è possibile? Foto di PopTika / Shutterstock

Disclaimer: Mi scuso in anticipo se qualcuno riterrà che io abbia esemplificato troppo queste teorie, per amore di sintesi e per non rendere dispersivo il ragionamento. Nel caso, sono aperto a suggerimenti.

La tesi dell'AI forte

C’è una tesi detta “dell’AI forte” che lo scomparso prof. Daniel N. Robinson, membro della facoltà di filosofia dell'Università di Oxford, ha enunciato molte volte. Cerco di riassumerla qui.

Immaginate, diceva il dottor Robinson, che qualcuno costruisca un programma generale per fornire giudizi da esperti su malattie cardiovascolari, leggi costituzionali, accordi commerciali e così via. Se il programmatore riuscisse a fare svolgere al programma questi compiti in un modo indistinguibile da un umano, secondo la “tesi dell’AI forte” questo programma avrebbe un'intelligenza esperta e qualcosa in più.

Cosa?

La tesi dell'IA forte suggerisce che possono esistere processi computazionali non specificati che costituirebbero una intenzionalità. Intenzionalità significa prendere una decisione deliberata e consapevole, che a sua volta implica ragionamento e senso dei valori. (Quanto mi ricorda Westworld tutto questo). Tuttavia, è davvero possibile?

Teorema di Gödel

Il teorema di incompletezza, noto come teorema di Gödel, afferma che qualsiasi sistema formale è incompleto in quanto dipenderà da un teorema o assioma, la cui validità deve essere stabilita al di fuori del sistema stesso.

Kurt Gödel sviluppò questo teorema con una sola eccezione: l'intelligenza umana. In altre parole, Gödel credeva che ci dovesse essere qualcosa nella razionalità e intelligenza umana che non può essere catturato da un sistema formale e trasformato in un codice. L’intelligenza umana, in sintesi non può essere imitata o modellata su basi computazionali.

Chi ha ragione?

Se ha ragione Gödel, non è questione di tempo: MAI una AI avrà una sua moralità. Mai avrà una intelligenza uguale a quella umana, per il semplice fatto che quella umana non è un’intelligenza basata sul calcolo.

Se hanno ragione la tesi dell’AI forte e il team di Seattle, invece, siamo forse alla vigilia (vicina o lontana) di una straordinaria rivoluzione nel campo dell’intelligenza artificiale.

Prima o poi potremmo essere in grado di rispondere alla domanda di Philip K. Dick che diede vita a “Blade Runner”: gli androidi sognano pecore elettriche?

Tags: intelligenza artificiale

Ultime notizie

  • Amazon investe in Anthropic: la guerra delle AI infuria
  • Sorridete: il farmaco che fa ricrescere i denti arriva ai test clinici
  • Senza un freno delle Istituzioni l'AI porterà a un neo-feudalesimo privato?
  • Quando ci estingueremo? Arriva una (bella) previsione del supercomputer
  • DNA e longevità: come i 'geni saltellanti' potrebbero allungarci la vita
  • Arriva TeddyGPT, il primo orsacchiotto AI che parla e impara con i bambini
  • Salario minimo: un passo avanti o un salto nel buio per l'Italia?
  • Le auto solari potrebbero dimezzare la necessità di ricariche
  • Il folle cibo del futuro: dalle nuvole commestibili alla ceramica di cozze
  • NASA, recuperato il campione dall'asteroide Bennu: perché è importante


Chat GPT Megafacile!

Guida concreta per chi si avvicina a questo strumento di intelligenza artificiale, pensata anche per il mondo della scuola: tantissimi esempi di applicazioni, indicazioni d'uso e istruzioni già pronte per addestrare ed interrogare Chat GPT.

Per inviare articoli, divulgare gli esiti di una ricerca o di scoperte scientifiche scrivi in redazione

Entra nel canale Telegram di Futuroprossimo, clicca qui. O seguici su Instagram, Facebook, Twitter, Mastodon e Linkedin.

FacebookTwitterInstagramTelegramLinkedinMastodonPinterestTikTok

Il domani quotidiano.


Futuroprossimo.it fornisce notizie sul futuro di tecnologia, scienza e innovazione: se c'è una cosa che sta per arrivare, qui è già arrivata. FuturoProssimo fa parte del network ForwardTo, studi e competenze per scenari futuri.

  • Ambiente
  • Architettura
  • Intelligenza artificiale
  • Gadgets
  • Concepts
  • Design
  • Medicina
  • Spazio
  • Robotica
  • Lavoro
  • Trasporti
  • Energia
  • Édition Française
  • Deutsche Ausgabe
  • 日本語版
  • English Edition
  • Edição Portuguesa
  • Русское издание
  • Edición en español

Iscriviti alla newsletter

  • La Redazione
  • Pubblicità su FP
  • Privacy Policy

© 2023 Futuroprossimo - Licenza Creative Commons
Quest'opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale.

No Result
View All Result
Capire, anticipare, migliorare il futuro.
  • Home
  • Tech
  • Salute
  • Ambiente
  • Energia
  • Trasporti
  • Spazio
  • AI
  • Concepts
  • H+