C’è qualcosa di storicamente significativo — e un po’ paradossale — nel fatto che l’azienda che più di ogni altra ha accelerato la corsa all’intelligenza artificiale pubblichi un manifesto in cui chiede ai governi di tassare i profitti dell’AI, redistribuire la ricchezza tecnologica e sperimentare la settimana lavorativa di quattro giorni. OpenAI ha fatto esattamente questo il 7 aprile 2026, con un documento di tredici pagine intitolato “Industrial Policy for the Intelligence Age: Ideas to Keep People First“.
Il documento merita di essere letto con attenzione — non perché OpenAI sia necessariamente il soggetto più disinteressato a fare queste proposte, ma perché alcune delle idee contenute sono genuine, ambiziose e urgenti. Il fatto che arrivino dalla stessa azienda che potrebbe presto quotarsi in borsa alla valutazione di mille miliardi di dollari non le rende automaticamente sbagliate. Le rende semplicemente meritevoli di uno sguardo critico.
Cosa Propone OpenAI: Le Idee Concrete
Il documento parte da una premessa onesta e ben argomentata: la transizione verso la superintelligenza — sistemi AI capaci di superare i migliori esseri umani anche quando assistiti da AI — è già in corso, e i sistemi di policy tradizionali non sono attrezzati per gestirla. Sam Altman ha paragonato la portata del cambiamento al New Deal e all’Era Progressista americana. Non è un paragone esagerato.
Le proposte più concrete e interessanti ruotano attorno a tre assi. Il primo è la redistribuzione della ricchezza generata dall’AI. OpenAI suggerisce di spostare la base imponibile dal lavoro al capitale — tasse più alte sui profitti aziendali, sulle plusvalenze e sui rendimenti guidati dall’automazione — e di usare quei proventi per finanziare un Public Wealth Fund ispirato all’Alaska Permanent Fund: un fondo statale che acquisterebbe partecipazioni in aziende AI e distribuirebbe i rendimenti direttamente ai cittadini, anche a chi non ha mai investito in borsa. Un tipo di intervento che potrebbe essere il primo passo verso l’UBI, il reddito universale di base.
Il secondo asse è la trasformazione del lavoro. Il documento propone incentivi governativi per sperimentare la settimana di 32 ore senza riduzione salariale: se i livelli di produzione possono essere mantenuti in meno tempo, quella riduzione dovrebbe diventare permanente. Non è un’idea isolata — Jensen Huang di Nvidia, Eric Yuan di Zoom e Jamie Dimon di JPMorgan si sono espressi in modo simile. Quando i CEO delle più grandi aziende tech parlano di settimana corta, vale la pena ascoltare.
Il terzo asse è la modernizzazione delle reti di sicurezza sociale. Il documento propone un meccanismo automatico: se gli indicatori di dislocazione lavorativa causata dall’AI superano soglie predefinite, scattano automaticamente sussidi estesi, pagamenti diretti e assicurazioni salariali — senza attendere nuova legislazione ogni volta. È un’idea di sistema intelligente, non di assistenza episodica.
Perché Queste Proposte Arrivano Adesso — e Perché il Timing Conta
Sarebbe ingenuo ignorare il contesto in cui nasce questo documento. OpenAI si prepara alla quotazione in borsa più grande della storia, con una valutazione stimata che potrebbe superare il trilione di dollari. Ha appena completato la conversione in ente for-profit. Ha proiettato perdite per 14 miliardi di dollari nel 2026. È, insomma, in una fase in cui curare l’immagine pubblica è strategicamente cruciale.
Diversi analisti citati da Fortune definiscono le proposte un esercizio di “nichilismo regolatorio”: OpenAI si oppone sistematicamente alle normative AI a livello statale — quelle più granulari e immediatamente applicabili — mentre chiede sussidi federali per le proprie infrastrutture e propone tasse vaghe senza aliquote specifiche. Il documento non indica numeri concreti sulla tassazione, lasciando i dettagli ai legislatori. In un’epoca in cui l’amministrazione americana ha ridotto la corporate tax al 21% e non mostra alcun appetito per aumentarla, la proposta rischia di restare su carta.
Questa tensione — tra la genuinità di alcune proposte e l’interesse strategico di chi le avanza — non va risolta semplicisticamente. Non è necessario scegliere tra “OpenAI fa greenwashing sociale” e “OpenAI ha davvero a cuore il bene comune”. La verità è probabilmente più complessa: alcune idee sono buone a prescindere da chi le propone, e il fatto che vengano da chi ha più interesse a gestire la narrativa non le invalida automaticamente. Le rende semplicemente bisognose di pressione esterna per diventare realtà.
Il Dato Che Nessuno Dovrebbe Ignorare
C’è un numero nel documento OpenAI che merita di fermarsi: i libri paga dei colletti bianchi si sono ridotti per 29 mesi consecutivi. È una sequenza che non si era mai vista al di fuori di una recessione conclamata. La domanda di laureati nelle migliori business school è in calo. L’AI sta già mangiando pezzi significativi del mercato del lavoro cognitivo — quello che per decenni era stato considerato immune all’automazione.
Questi non sono dati di scenario futuro. Stanno accadendo adesso. E mentre i benefici in termini di nuovi lavori restano ancora in larga parte teorici — le transizioni tecnologiche richiedono tempo per generare nuova occupazione — i costi si stanno già materializzando. Abbiamo analizzato questo meccanismo in dettaglio nell’articolo sui costi sociali dell’AI e su chi paga davvero la transizione tecnologica.
Il paradosso storico è questo: l’AI sta creando ricchezza enorme — OpenAI stessa potrebbe valere un trilione di dollari — mentre i lavoratori del settore cognitivo vedono i loro stipendi ridursi. Se questo divario non viene affrontato con strumenti di policy concreti, il rischio non è solo sociale ma anche politico: la fiducia nella tecnologia si erode, il backlash regolatorio si intensifica, e l’innovazione paga il prezzo delle scelte distributive sbagliate.
Cosa Manca al Documento OpenAI
Le idee sono ambiziose. La vaghezza sui meccanismi è preoccupante. Un documento serio di policy industriale dovrebbe includere almeno proposte di aliquote, meccanismi di governance del Public Wealth Fund, definizione operativa delle soglie di attivazione degli ammortizzatori automatici. Nulla di tutto questo è presente.
C’è anche un’assenza strutturale: il documento è dichiaratamente focalizzato sugli Stati Uniti come punto di partenza, ma riconosce che le soluzioni devono essere globali. Eppure non c’è una sola proposta concreta su come coordinare queste politiche a livello internazionale. La tassazione dei profitti AI in assenza di coordinamento globale genera semplicemente race to the bottom — le aziende si trasferiscono dove le aliquote sono più basse, e il problema rimane irrisolto.
Infine, manca completamente la voce dei lavoratori e della società civile nella proposta stessa. Il documento dice che i lavoratori dovrebbero avere voce nella transizione AI — ma il documento stesso è stato scritto da OpenAI, senza alcun processo partecipativo visibile. È una contraddizione che non passa inosservata.
Un Punto di Partenza, Non un Punto di Arrivo
Il documento OpenAI è, nelle sue stesse parole, un punto di partenza per la conversazione — non un insieme completo di raccomandazioni. Preso per quello che è, è utile. Alcune delle idee sono genuinamente buone e meritano di essere portate nel dibattito pubblico europeo e italiano, dove spesso questa conversazione è ancora troppo assente.
La settimana di quattro giorni, la tassazione dei profitti da automazione, i fondi sovrani che redistribuiscono i benefici dell’AI ai cittadini, le reti di sicurezza sociale che si attivano automaticamente al crescere della dislocazione lavorativa: queste non sono proposte di sinistra o di destra. Sono proposte di buon senso in un momento in cui il contratto sociale tra tecnologia e lavoro sta cambiando in modo fondamentale.
Il fatto che vengano da OpenAI non è una garanzia che verranno attuate — anzi, richiede una pressione esterna ancora più forte perché lo siano davvero, con meccanismi concreti e non solo con buone intenzioni dichiarate. Il fatto che le proponga la stessa azienda che più di ogni altra beneficia dell’AI senza tassazione adeguata è, in fondo, la prova migliore che questa conversazione non può più essere rinviata.
Detto questo sono comunque strafelice che qualcuno inizi a parlare di questi argomenti anche se chi lo fa (un privato) è la parte che dovrebbe essere la meno interessata agli effetti sociali che verranno prodotti dall’applicazione massiccia dell’AI e chi non lo fa (la politica) non ne parla minimamente.
Le domande che restano aperte sono le più importanti: chi scrive le regole? Con quale processo partecipativo? E soprattutto — chi controlla che chi propone le regole le rispetti davvero?