OpenAI ha pubblicato un documento di 13 pagine intitolato “Industrial Policy for the Intelligence Age” in cui propone tasse sulle aziende che sostituiscono lavoratori con sistemi automatizzati, un fondo pubblico finanziato anche dalle stesse aziende AI, incentivi per la settimana lavorativa di 4 giorni a parità di stipendio e protocolli di contenimento per una eventuale superintelligenza artificiale che dovesse finire fuori controllo.
Sam Altman paragona la portata del momento al New Deal di Roosevelt per far ripartire gli Stati Uniti dopo la grande crisi del 1929. Tutto bene, ma parliamo sempre dell’azienda che si è “consegnata” mani e piedi al Pentagono?
Il piromane che vende estintori
C’è qualcosa di magnificamente circolare nel fatto che l’azienda più lanciata verso la superintelligenza sia la stessa che pubblica il manuale su come gestirne le conseguenze. OpenAI ha messo nero su bianco un piano che suona come un contratto sociale riscritto da zero: robot tax, fondo pubblico per tutti, settimana lavorativa di quattro giorni e protocolli di emergenza per AI che sfuggono al controllo. Il documento, uscito oggi, ha un tempismo niente affatto casuale: il Congresso si prepara a discutere la prima legislazione seria sull’intelligenza artificiale e l’amministrazione Trump cerca consenso bipartisan per le sue politiche tech-friendly prima delle elezioni di midterm.
Altman, intervistato da Axios, ha usato parole pesanti: la superintelligenza è così vicina e così dirompente che l’America ha bisogno di un nuovo contratto sociale, della portata del Progressive Era dei primi del ‘900 e del New Deal durante la Grande Depressione. Ecco: quando il CEO di un’azienda da 500 miliardi di dollari paragona il suo prodotto alla causa della più grande crisi economica della storia, forse vale la pena leggere le 13 pagine. Epperciò le abbiamo lette, per voi (e anche per noi).
Tassare i robot (dice chi li costruisce)
La proposta più rumorosa è la robot tax: tasse legate al lavoro automatizzato e uno spostamento della base imponibile dal lavoro dipendente verso le plusvalenze e i profitti aziendali. Il ragionamento fila: se la superintelligenza fa esplodere i profitti delle aziende ma svuota le buste paga, il sistema fiscale che finanzia la previdenza sociale (basato sulle tasse sui salari) collassa. Bisogna tassare il capitale, non il lavoro che non c’è più.
Poi c’è il fondo pubblico: un fondo nazionale finanziato in parte dalle stesse aziende AI, investito in asset diversificati a lungo termine che intercettino la crescita sia delle aziende di intelligenza artificiale sia di quelle che la adottano. In pratica, un fondo sovrano stile Norvegia o Alaska, ma alimentato dalla superintelligenza.
I numeri del piano
- Settimana di 4 giorni a stipendio pieno: OpenAI suggerisce incentivi per aziende e sindacati che sperimentino le 32 ore settimanali, convertendo i guadagni di efficienza dell’AI in tempo libero per i lavoratori
- Fondo pubblico AI con distribuzione periodica dei rendimenti a tutti i cittadini americani
- Robot tax e spostamento della pressione fiscale dai salari ai profitti di capitale
- “Diritto all’AI”: accesso all’intelligenza artificiale come diritto fondamentale, al pari di elettricità e internet
- Safety net automatico: soglie predefinite legate ai dati economici che, una volta superate, attivano automaticamente aumenti temporanei di sussidi e assicurazioni salariali
Però la superintelligenza non esiste ancora. Giusto?
Ecco, un dettaglio: la superintelligenza a cui si riferisce il documento, ovvero un software capace di superare gli esseri umani in qualsiasi tipo di compito, al momento non esiste. Mi sbaglio? OpenAI sta scrivendo le regole per un mondo che non c’è. La difesa di Altman è che quando arriverà (e lui dice che arriverà presto: entro il 2028 secondo le sue stime) sarà troppo tardi per pensarci.
Chris Lehane, responsabile degli affari globali di OpenAI, è stato più diretto: sia i Democratici che i Repubblicani iniziano a sentire la pressione dei propri elettori, preoccupati per l’impatto dell’intelligenza artificiale sul lavoro. OpenAI ha aperto un nuovo ufficio a Washington e finanzia borse di ricerca su questi temi. La parola che Lehane usa è “urgenza”. Quella che uso io sarebbe “lobbismo”, ma non voglio fare sempre quello acidello.
Il passaggio più inquietante
In mezzo alle proposte ragionevoli (chi potrebbe obiettare alla settimana corta?) c’è un passaggio che merita attenzione: OpenAI ammette scenari in cui sistemi di superintelligenza pericolosi “non possono essere facilmente richiamati” perché autonomi e capaci di replicarsi. La soluzione proposta? Coordinamento internazionale con i governi. E che vuol dire? Niente. Non c’è niente di specifico. È un po’ come dire “se il reattore esplode, chiameremo qualcuno”: il piano di contenimento più vago della storia per il rischio più grande mai descritto.
Il documento cerca anche un equilibrio politico delicato. OpenAI sostiene la linea Trump sulla deregolamentazione e la corsa contro la Cina, ma include proposte che ricordano l’era Biden: cooperazione internazionale per identificare e contenere sistemi AI pericolosi, maggiore ruolo del governo nella valutazione dei modelli. Un colpo al cerchio, uno alla botte.
Alla fine che ne pensate? Ci fidiamo dell’oste?
La domanda inevitabile: perché dovremmo fidarci del consiglio di chi vende la bottiglia? Altman ha una risposta onesta e insufficiente: nessuno dovrebbe prendere decisioni da solo su qualcosa che riguarda tutti. Il che sarebbe più convincente se OpenAI non stesse contemporaneamente spingendo sull’acceleratore per raggiungere la superintelligenza prima di chiunque altro.
Il precedente storico più vicino è probabilmente quello dell’industria del tabacco che negli anni ’60 finanziava ricerche sui danni del fumo. Con una differenza: qui il danno potenziale non è un tumore ai polmoni, ma la ridefinizione completa del mercato del lavoro e del contratto sociale. La portata è un’altra. Dario Amodei di Anthropic lo ha detto mesi fa: il reddito di base universale non basterà, serve riprogettare l’economia da zero. OpenAI sembra essere d’accordo, il che rende la cosa più preoccupante, non meno.
Resta un fatto: nessun’altra azienda tech ha mai pubblicato un piano così dettagliato (pensa gli altri…) per redistribuire la ricchezza generata dalla propria tecnologia. Che sia sincerità, posizionamento strategico o paura genuina, il documento c’è.
E la conversazione su cosa fare quando (se) arriverà la superintelligenza è partita da chi la sta costruendo. Un po’ come se fosse Prometeo stesso a scrivere il manuale antincendio. Ci fidiamo? Io no, se non si fosse capito: e ve lo dico.
Ma bisogna leggerlo lo stesso questo manuale, e anche con attenzione, perché il fuoco sta arrivando comunque.
Approfondisci
Il dibattito sulla superintelligenza non è nuovo su queste pagine. Ne avevamo parlato a proposito della roadmap 2025-2028 che alcuni scenari danno per credibile, e prima ancora analizzando la posizione di Dario Amodei (CEO di Anthropic) secondo cui il reddito di base universale non basterà a gestire l’impatto dell’AI sul lavoro. Chi cerca una prospettiva diversa può leggere il nostro pezzo sul riscatto umano nell’era dell’intelligenza artificiale: 170 milioni di nuovi posti entro il 2030, dice il WEF. Se il gioco resta aperto, vale la pena giocare.