L’intelligenza artificiale sta creando una ricchezza senza precedenti. I dati parlano chiaro: le grandi aziende tech hanno registrato profitti record negli ultimi anni, e le proiezioni indicano che l’AI potrebbe aggiungere fino a 15.700 miliardi di dollari all’economia globale entro il 2030, secondo le stime di PwC. È un’opportunità economica straordinaria — probabilmente la più grande della nostra generazione.
Ma c’è un problema che dobbiamo affrontare con onestà: quella ricchezza non si distribuirà da sola. I benefici rischiano di concentrarsi, mentre i costi — umani, sociali, economici — si diffonderanno su scala molto più ampia. Lavoratori che perderanno il lavoro, comunità che si svuoteranno, piccole imprese che faticano a stare al passo: questi sono i costi reali della transizione, e qualcuno li sta pagando già oggi.
La buona notizia — ed è davvero una buona notizia — è che la distribuzione iniqua dei benefici non è inevitabile. È una scelta. E questa consapevolezza è il primo passo per fare scelte diverse, come esploriamo anche nell’analisi più ampia sulla geopolitica dell’AI.
La Promessa e il Paradosso: Ricchezza Concentrata, Costi Diffusi
Immagina una torta che cresce ogni anno — sempre più grande, sempre più ricca. Sembra un problema facile da risolvere: basta tagliare fette più grandi per tutti, no? In teoria sì. In pratica, quello che stiamo osservando è qualcosa di diverso.
Nvidia ha visto il suo valore di mercato superare i tremila miliardi di dollari nel 2024. Microsoft, Google, Amazon continuano a registrare profitti da capogiro. Nel frattempo, secondo il World Economic Forum, l’AI potrebbe trasformare o eliminare oltre 300 milioni di posti di lavoro a livello globale nei prossimi anni — con effetti asimmetrici, dove chi era già in posizione fragile rischia di essere colpito più duramente.
Non è un caso isolato. È un pattern che abbiamo già visto con la globalizzazione e con la rivoluzione digitale degli anni Novanta: le grandi trasformazioni tecnologiche creano ricchezza netta, ma quella ricchezza non si distribuisce automaticamente. Senza intervento deliberato, le disuguaglianze crescono.
Chi Paga Davvero la Transizione AI
Quando diciamo “costi sociali”, parliamo di persone concrete. Parliamo del contabile che vede il suo lavoro automatizzato da strumenti come QuickBooks AI e non sa dove riqualificarsi. Parliamo della piccola agenzia di marketing locale che non ha le risorse per adottare gli stessi strumenti delle grandi agenzie e perde clienti. Parliamo delle comunità costruite attorno a centri logistici che vedono arrivare i magazzini automatizzati di Amazon.
Il problema non è la tecnologia in sé — l’automazione ha sempre creato più lavoro di quanto ne abbia distrutto, nel lungo periodo. Il problema è la velocità della transizione e l’assenza di sistemi di supporto adeguati. Quando la trasformazione avviene nell’arco di pochi anni anziché di decenni, le persone non hanno il tempo di adattarsi, e i sistemi di formazione e welfare non riescono a stare al passo.
A questo si aggiunge lo skill gap digitale: la transizione richiede competenze specifiche che non sono distribuite equamente. Chi ha già accesso a formazione di qualità, reti professionali solide, banda larga e dispositivi adeguati parte avvantaggiato. Chi non ce l’ha rischia di essere lasciato indietro — e il digital divide non è solo una questione tecnologica, è una questione di equità sociale. Ne abbiamo parlato in dettaglio nell’articolo sui lavori a rischio nell’era dell’AI.
Il Nodo della Redistribuzione: Come Funziona Altrove
La domanda che conta non è solo “chi paga?”, ma “come possiamo distribuire i benefici in modo più equo?”. Qui la conversazione si fa interessante, perché esistono già modelli concreti da cui imparare.
Il caso più citato è l’Alaska Permanent Fund: dal 1982, lo Stato dell’Alaska distribuisce ogni anno un dividendo ai propri residenti, finanziato dai proventi del petrolio. Non è una forma di reddito universale completo, ma è la dimostrazione pratica che le risorse naturali — e per analogia, i dati e i profitti dell’AI — possono essere redistribuite in modo sistematico. Nel 2023, ogni residente dell’Alaska ha ricevuto oltre 1.300 dollari. Non una fortuna, ma un principio incarnato in numeri reali.
Sul fronte della tassazione, il dibattito è aperto. Alcune proposte parlano di una “robot tax” — tassare le aziende che sostituiscono lavoratori con l’automazione, destinando i proventi a fondi di riqualificazione. Bill Gates l’ha sostenuta pubblicamente. L’obiezione principale è che rischia di rallentare l’innovazione, ma l’idea di fondo — che chi beneficia della transizione contribuisca a gestirne i costi — è difficile da smontare razionalmente.
Un’altra prospettiva è quella dei dati come proprietà collettiva. Le grandi aziende AI si allenano su enormi quantità di dati generati dagli utenti — noi, in sostanza, contribuiamo a creare i modelli che poi usano queste aziende per fare profitti. Sarebbe giustificabile che parte di quei profitti tornasse alla collettività? Alcuni economisti e policy maker stanno iniziando a esplorare questa direzione.
Le Disuguaglianze Amplificate: Quando l’AI Aumenta il Divario
C’è un aspetto che spesso si sottovaluta nel dibattito sull’AI: il rischio che questa tecnologia amplifichi le disuguaglianze esistenti piuttosto che ridurle.
Gli algoritmi di hiring che discriminano per genere o etnia (come il tristemente noto caso Amazon del 2018), i sistemi di credit scoring che penalizzano le minoranze, i modelli di valutazione del rischio nella giustizia penale che riproducono bias storici — sono tutti esempi concreti di come un’AI non progettata con cura possa replicare e amplificare le ingiustizie del passato. Non per malevolenza, ma per come funziona l’apprendimento automatico: se i dati di training riflettono un mondo ineguale, il modello riproduce quella disuguaglianza.
Questo è uno dei temi centrali dell’etica dell’AI, ed è anche il motivo per cui la governance non è un freno all’innovazione ma una sua condizione necessaria. Un’AI che discrimina non è solo ingiusta — è anche meno utile, meno affidabile, meno capace di servire davvero le persone. La qualità etica e la qualità tecnica non sono in opposizione. Spesso coincidono.
Responsabilità Condivisa: Governi, Aziende, Società
Gestire i costi sociali dell’AI non è un problema che si risolve con un singolo attore. Richiede responsabilità condivisa tra tre livelli.
I governi hanno il compito di definire le regole del gioco: sistemi fiscali che non penalizzino il lavoro rispetto al capitale, fondi di riqualificazione accessibili, reti di protezione sociale aggiornate per un mercato del lavoro in trasformazione. L’AI Act europeo è un passo nella direzione giusta, ma rimane incompleto sul fronte della redistribuzione economica.
Le aziende tech non possono limitarsi a ottimizzare i profitti ignorando l’impatto sociale delle proprie scelte. Non perché siano obbligate a essere filantropiche, ma perché un modello economico che genera crescente disuguaglianza alla lunga genera anche instabilità politica, sfiducia nelle istituzioni e backlash regolatorio. La sostenibilità economica e quella sociale sono più legate di quanto sembri.
La società civile — sindacati, università, organizzazioni non profit — ha un ruolo fondamentale nell’amplificare le voci di chi rischia di essere lasciato indietro e nel proporre alternative concrete. La governance dell’AI non può essere solo un affare tra governi e big tech.
Cosa Possiamo Fare: Un’Agenda Possibile
La buona notizia — e torno a sottolinearlo — è che non siamo davanti a una fatalità. Sappiamo cosa funziona. I Paesi nordici hanno dimostrato che si può coniugare alta innovazione tecnologica con forti sistemi di protezione sociale. La Danimarca, ad esempio, ha un tasso di adozione tecnologica tra i più alti al mondo e al tempo stesso uno dei sistemi di “flexicurity” più efficaci, che combina flessibilità del mercato del lavoro con sicurezza per i lavoratori.
Alcune direzioni concrete che meritano attenzione: investire massicciamente in formazione continua accessibile a tutti (non solo a chi può permettersela), sviluppare sistemi di early warning che identifichino in anticipo i settori e le professioni più a rischio, sperimentare forme di reddito di base in contesti pilota per capirne davvero gli effetti — come vedremo nel prossimo articolo sul reddito universale nell’era dell’AI. E, soprattutto, coinvolgere i lavoratori nelle decisioni sull’automazione, invece di presentarle come fatti compiuti.
Non si tratta di rallentare l’AI. Si tratta di assicurarsi che la sua velocità sia compatibile con la capacità delle persone di adattarsi — e che i benefici siano abbastanza diffusi da generare supporto sociale, piuttosto che resistenza.
La Transizione Può Essere Equa — Se Scegliamo Che Lo Sia
I costi sociali dell’AI non sono un problema tecnico. Sono un problema di scelte politiche, economiche e culturali. E le scelte si possono fare diversamente.
Quello che sappiamo con certezza è che le grandi trasformazioni tecnologiche non si fermeranno — e sarebbe sbagliato volerlo. L’AI offre opportunità reali per migliorare la qualità della vita, liberare le persone da lavori alienanti, affrontare sfide globali come il cambiamento climatico e la salute pubblica. Sprecare queste opportunità per paura sarebbe un errore.
Ma coglierle davvero richiede che la transizione sia gestita, non subita. Che i benefici siano distribuiti, non solo concentrati. Che chi paga i costi oggi abbia gli strumenti per diventare protagonista del futuro, non solo spettatore.
La domanda che dovremmo porci non è “l’AI creerà o distruggerà lavoro?”. La domanda giusta è: “che tipo di economia vogliamo costruire con l’AI?”. La risposta dipende da noi — da chi governa, da come le aziende si comportano, e da cosa chiediamo come cittadini.
E questo, in fondo, è un motivo di ottimismo. Non l’ottimismo ingenuo di chi pensa che la tecnologia risolva tutto da sola. L’ottimismo di chi sa che abbiamo gli strumenti, le conoscenze e — se lo vogliamo — la volontà per fare le scelte giuste.