GPT-3, l’AI che capisce, usa il linguaggio e scrive come gli umani

Gianluca Riccio

Tecnologia

GPT-3 ha sorpreso tutti. Questa estate la nuova intelligenza artificiale di OpenAI ha surclassato il vecchio modello e i concorrenti. Comprende e scrive il linguaggio. Andiamo verso la scrittura generativa?

Un nuovo sistema chiamato GPT-3 sta scioccando gli esperti con la sua capacità di usare e comprendere il linguaggio proprio come gli esseri umani

Tra gli addetti ai lavori la voce è diventata un tuono: il mondo è cambiato quest’estate con il lancio di un sistema di intelligenza artificiale noto come GPT-3. La sua capacità di interagire in lingua inglese e generare una scrittura coerente ha sbalordito anche i più esperti, al punto che si parla di “shock GPT-3”.

OpenAI e GPT-3, il più avanzato sistema di intelligenza artificiale comprende e usa il linguaggio umano.
Il blocco dello scrittore sarà solo un ricordo, ma pensare con la nostra testa sarà più difficile

Laddove i tipici sistemi di AI vengono addestrati per attività specifiche (ad esempio classificare le immagini) GPT-3 gestisce attività per le quali non è mai stato specificamente addestrato. 

La ricerca pubblicata dal suo creatore, la OpenAI, ha scoperto che GPT-3 può comprendere testi e generare articoli di notizie che i lettori hanno difficoltà a distinguere da quelli scritti da persone.

Le incredibili capacità di GPT-3

L’AI può svolgere compiti, dicevo, ai quali i suoi creatori non hanno mai pensato. I beta tester nelle ultime settimane hanno scoperto che può completare un report scritto a metà, produrre storie e lettere scritte nello stile di personaggi famosi, generare idee di business e persino scrivere alcuni tipi di codice software basato su una semplice descrizione del software desiderato. 

OpenAI ha annunciato che dopo il periodo di prova, GPT-3 sarà rilasciato come prodotto commerciale.

Il suo nome, GPT-3, sta per Generative Pre-trained Transformer, Trasformatore Generativo Pre-addestrato di terza generazione. Come altri sistemi di intelligenza artificiale odierni, GPT-3 si basa su una raccolta ampia e organizzata di parametri che ne determinano il funzionamento. Più parametri ci sono, più l’intelligenza artificiale è capace.

GPT-3 ha 175 miliardi di parametri, che è più di 100 volte quella del suo predecessore, GPT-2, e 10 volte superiore a quello del suo rivale più vicino, Turing NLG di Microsoft.

Le prove su strada

Per fornire un esempio pratico, ecco cosa riferisce un beta tester del sito Simplify.so (che consente di mettere alla prova questa intelligenza artificiale). Si inserisce un testo in inglese e si chiede a GPT-3 di semplificarlo.

Qualcuno ha copiato e incollato il primo paragrafo del discorso di congedo di George Washington del 1796: “Il periodo per una nuova elezione di un cittadino per amministrare il governo esecutivo degli Stati Uniti non è molto lontano, ed è in realtà giunto il tempo in cui i vostri pensieri devono essere impiegati per designare la persona che deve essere rivestita di quell’importante fiducia, mi sembra appropriato, soprattutto perché può condurre a un’espressione più distinta della voce pubblica. Ora dovrei informarvi della risoluzione che ho formato, di rifiutare di essere considerato nel novero di coloro sui quali si potrà operare una scelta “.

GPT-3 ha fornito la sua traduzione: “Non ho intenzione di candidarmi alla presidenza”. Più sintesi di così si muore.

Quando è stata immessa la famosa partenza di “Orgoglio e pregiudizio” di Jane Austen: “È una verità universalmente riconosciuta che un solo uomo in possesso di una buona fortuna deve essere in cerca di una moglie” l’intelligenza artificiale ha sorpreso davvero.

Nei primi quattro tentativi ha fornito risposte non del tutto corrette (ad esempio, “Un uomo con molti soldi deve cercare una moglie.”). Al quinto tentativo, il botto: “È una verità universalmente riconosciuta, che un uomo solo con una buona fortuna deve essere desideroso di una moglie, perché gli uomini sono molto vanitosi e vogliono essere visti come ricchi, e le donne sono molto avide e vogliono essere viste come belle “.

GPT-3 è in qualche modo “umano”?

Dal tipo incredibile di attività che GPT-3 mostra viene la tentazione concreta di antropomorfizzando, ma non dovremmo. È un modello statistico che non ha stati mentali né si impegna a ragionare mentre agisce. Non è un’intelligenza artificiale generale come HAL 9000 o JARVIS di Tony Stark.

Shreya Shankar, un ingegnere di apprendimento automatico presso la società di intelligenza artificiale Viaduct, dice che gli utenti più avanzati possono insegnare al sistema a svolgere nuove attività presentandole con esempi. Da lì, l’AI generalizza qual è il compito. Ad esempio, quando voleva che GPT-3 traducesse le equazioni dall’inglese in simboli matematici, ha iniziato fornendogli alcune equazioni in inglese e i loro equivalenti scritti in simboli.

I cambiamenti che GPT-3 può portare? Di ogni sorta

Se viaggia con questo ritmo, ci sono buone probabilità che GPT-3 apporti importanti cambiamenti nella nostra vita lavorativa. 

Per una serie di figure professionali (giornalisti, avvocati, programmatori e altri) l’introduzione di sistemi come GPT-3 probabilmente sposterà le loro attività dalla produzione alla revisione. Tra i lati positivi la fine del blocco dello scrittore. Sarà abbastanza semplice continuare a fare clic sul pulsante “genera” di GPT-3 finché non apparirà qualcosa di buono che va solo rifinito (e arricchito di creatività, quella si, umana).

Anche i rischi sono dietro l’angolo

Come per la navigazione GPS, che è nata come uno strumento ma ha ridotto il nostro impegno nell’orientarci, i generatori di linguaggio AI potrebbero iniziare risparmiandoci il lavoro, ma finiranno per sollevarsi dal pensiero.

Ed è solo l’inizio: è probabile che i modelli di linguaggio AI diventino ancora più forti. Creare un rivale più potente di GPT-3 è alla portata di altre società tecnologiche. I metodi alla base del machine learning sono ampiamente conosciuti e i dati OpenAI utilizzati per la formazione sono disponibili pubblicamente. 

Dato che GPT-3 ha mostrato il potenziale di modelli molto grandi, i suoi 175 miliardi di parametri potrebbero presto essere superati. 

I ricercatori di Google hanno annunciato a giugno di aver costruito un modello da 600 miliardi di parametri per la traduzione linguistica, e i ricercatori di Microsoft hanno affermato di avere gli occhi puntati su modelli a trilioni di parametri, anche se non necessariamente per la lingua.

Se il GPT-3 trova un mercato, non sarà lui ad avere l’ultima parola, nel bene e nel male.