Intelligenza Artificiale e Società: Oltre la Tecnologia, le Persone

C’è un momento in cui una tecnologia smette di essere solo una tecnologia.

Succede quando esce dai laboratori, quando entra nelle case, negli uffici, nelle scuole. Quando inizia a modificare non solo come facciamo le cose, ma come pensiamo, come ci relazioniamo, come lavoriamo. Quando diventa invisibile e onnipresente allo stesso tempo.

L’intelligenza artificiale ha già superato quella soglia. E quello che stiamo vivendo non è una rivoluzione tecnologica – è una trasformazione sociale. Con tutto ciò che questo comporta: opportunità, rischi, scelte da fare. Soprattutto, responsabilità da assumere.

L’intelligenza artificiale come fenomeno sociale

Quando parliamo di intelligenza artificiale, tendiamo a concentrarci sui modelli, sugli algoritmi, sulle prestazioni. GPT-4 vs Claude vs Gemini. Quanti parametri, quale benchmark, chi ha raggiunto quale punteggio.

È comprensibile: la tecnologia è affascinante. Ma è anche fuorviante.

Perché l’AI non è solo una questione di codice. È una questione di potere, di accesso, di controllo. Di chi decide cosa, come e per chi. Di quali lavori cambiano o scompaiono. Di come ci vediamo come esseri umani quando una macchina fa cose che pensavamo fossero “nostre”.

La differenza tra innovazione tecnica e trasformazione sociale è questa: l’innovazione tecnica ti dà nuovi strumenti. La trasformazione sociale cambia le regole del gioco. Cambia chi ha voce in capitolo, chi vince e chi perde, cosa consideriamo normale e cosa inaccettabile.

L’automobile era un’innovazione tecnica. La società dell’automobile – con le sue periferie, i suoi ritmi, le sue disuguaglianze – è stata una trasformazione sociale.

L’AI è la stessa cosa. Solo che sta accadendo molto più velocemente.

E questo ci mette di fronte a una domanda scomoda: siamo pronti a gestire una trasformazione sociale così rapida? O stiamo semplicemente reagendo, inseguendo, adattandoci senza capire dove stiamo andando? Lo stesso team di Anthropic nel paper Predictability and Surprise in Large Generative Models, pubblicato nell’ottobre 2022, ad un certo punto usa questa azzeccatissima metafora:

«Stiamo, in un certo senso, costruendo l’aereo mentre sta decollando».

AI e potere decisionale: chi decide davvero?

Ecco una delle domande più importanti che dovremmo farci: quando deleghiamo decisioni agli algoritmi, chi mantiene davvero il controllo?

Non è una domanda teorica.

Gli algoritmi decidono già chi ottiene un prestito, chi viene assunto, chi riceve cure mediche prioritarie, quali contenuti vediamo online, quali persone vengono fermate dalla polizia. In alcuni paesi, decidono il punteggio di credito sociale dei cittadini.

E il problema non è solo che decidono – è che spesso non sappiamo come decidono. Né chi ha deciso che dovessero decidere. Né chi controlla che stiano decidendo bene.

Governi, aziende private, istituzioni pubbliche: tutti stanno integrando AI nei loro sistemi decisionali. E tutti, in modi diversi, stanno concentrando potere.

Il rischio di opacità decisionale è reale. Quando un algoritmo rifiuta la tua domanda di credito, puoi chiedere spiegazioni. Ma spesso la risposta è: “il sistema ha rilevato fattori di rischio”. Quali? Come li ha pesati? Chi ha scelto quei criteri? Silenzio.

Questa non è trasparenza. È una scatola nera con l’etichetta “intelligenza artificiale”.

E mentre noi cittadini cerchiamo di capire cosa sta succedendo, il dibattito geopolitico si infiamma. Gli Stati Uniti limitano l’export di chip AI verso la Cina. L’Europa lancia investimenti miliardari per non restare indietro. Il Summit AI di Parigi vede 61 paesi firmare un patto per un’AI etica – ma USA e UK restano fuori.

La domanda che dovremmo farci è: mentre i governi litigano su chi controllerà l’AI, chi sta controllando l’impatto dell’AI sulle nostre vite?

Impatti dell’intelligenza artificiale sulle persone

Parliamo meno di GPT e più di noi. Di come l’AI sta cambiando il nostro rapporto con l’autonomia, le competenze, il controllo.

Autonomia. Quando un assistente AI ti suggerisce come rispondere a un’email, ti sta aiutando o ti sta sostituendo? Quando un algoritmo raccomanda quali contenuti consumare, stai scegliendo tu o qualcun altro sta scegliendo per te?

La linea tra “supporto” e “sostituzione” è sottile. E ogni volta che un sistema prende una micro-decisione al posto nostro, la nostra autonomia si erode un po’. Non drammaticamente – anzi, all’inizio è comodo. Ma alla lunga, ci abitiamo a delegare. E dimentichiamo come si fa da soli.

Competenze. Stiamo vivendo un paradosso: l’AI ci rende più capaci di fare cose che non sapevamo fare (scrivere codice, creare immagini, analizzare dati), ma allo stesso tempo rischiamo di perdere competenze che davamo per scontate.

Se ChatGPT scrive per me, smetto di esercitare la scrittura. Se un’AI corregge automaticamente i miei errori, smetto di imparare. Se un algoritmo risolve problemi al posto mio, smetto di sviluppare pensiero critico.

Non sto dicendo che dovremmo rifiutare l’AI. Sto dicendo che dovremmo essere consapevoli di cosa stiamo guadagnando e cosa stiamo perdendo.

Percezione del controllo. Forse l’impatto più sottile è questo: l’AI sta cambiando la nostra percezione di quanto controllo abbiamo sulla nostra vita.

Quando un algoritmo decide quali candidati selezionare per un colloquio, il candidato ha l’impressione di non avere più voce in capitolo. Quando un sistema automatico valuta le performance lavorative, il lavoratore sente di essere misurato da qualcosa che non capisce.

Questa sensazione di impotenza appresa è pericolosa. Ci porta a pensare che tanto non possiamo farci nulla. Che le decisioni vengono prese “da qualche parte” e noi dobbiamo solo accettarle.

La relazione uomo-macchina si sta ridefinendo. E dobbiamo chiederci: vogliamo essere partner o subordinati? Vogliamo usare l’AI come strumento o lasciarci usare da chi controlla l’AI?

Lavoro, società e nuovi equilibri

Il lavoro è il terreno dove l’impatto dell’AI si fa più concreto, più immediato, più personale.

Non parlo solo di posti che scompaiono – anche se è un tema reale. Parlo di come il lavoro stesso sta cambiando natura.

Trasformazione del lavoro non significa solo “alcuni lavori spariscono, altri nascono”. Significa che cambiano i ritmi, le aspettative, le competenze richieste, il senso stesso di cosa significa “lavorare bene”.

Un copywriter che usa AI deve produrre 10 volte più contenuti nello stesso tempo. Un grafico che usa Midjourney può sfornare decine di varianti in un’ora. Un analista con strumenti AI deve processare volumi di dati che prima erano impensabili.

Più produttivi? Sì. Ma anche più stanchi. Più sotto pressione. Più in competizione con altri che usano gli stessi strumenti.

Lo stress cognitivo aumenta. Perché devi imparare continuamente nuovi tool. Perché devi adattarti a ritmi che prima erano impossibili. Perché devi dimostrare costantemente che “aggiungi valore” oltre a ciò che fa la macchina.

E qui si innesta un tema che mi sta particolarmente a cuore: l’equilibrio vita-lavoro. Se l’AI aumenta la produttività, dovremmo lavorare meno, no? Invece stiamo lavorando di più. Perché i target si alzano. Perché “se puoi fare 10, perché farne solo 5?”

Ho scritto qui di come l’equilibrio vita-lavoro non sia un lusso, ma una necessità. E l’AI, se usata male, rischia di distruggerlo definitivamente.

Identità professionale. Infine, c’è un aspetto psicologico: molte persone costruiscono la propria identità sul lavoro. “Sono un designer”, “Sono un traduttore”, “Sono un analista”.

Cosa succede quando un’AI fa (parte di) quel lavoro meglio e più velocemente? Non è solo una questione economica – è una questione di senso. Di chi siamo, di cosa ci definisce.

E qui torniamo alla crescita personale: come affrontiamo il cambiamento quando ci tocca nel profondo? Come ridefiniamo noi stessi in un mondo che cambia così velocemente? (Ne parlo qui).

Rischi sistemici e responsabilità collettiva

Finora ho parlato di impatti individuali. Ma ci sono anche rischi sistemici – cioè rischi che colpiscono intere categorie di persone, intere società.

Bias algoritmici. Gli algoritmi apprendono dai dati. E i dati riflettono i pregiudizi umani. Risultato: sistemi AI che discriminano in base a razza, genere, età, origine sociale.

Un algoritmo di recruiting che penalizza le donne perché “storicamente gli uomini hanno avuto più successo in quel ruolo”. Un sistema di giustizia predittiva che segnala più spesso persone di colore come “ad alto rischio di recidiva”.

Questi non sono bug. Sono specchi amplificati della società che ha prodotto quei dati. L’AI non è neutra – è il riflesso delle nostre disuguaglianze, moltiplicato per scala.

Concentrazione del potere. L’AI richiede risorse enormi: dati, capacità computazionale, talenti specializzati. Chi le ha? Poche grandi aziende. Pochi stati ricchi.

Stiamo assistendo a una concentrazione di potere tecnologico senza precedenti. E questo crea disuguaglianze non solo economiche, ma anche politiche. Chi controlla l’AI detta le regole del gioco per tutti gli altri.

È quello che sta succedendo con Stargate, il progetto da 500 miliardi di dollari lanciato negli USA. È quello che emerge dal dibattito europeo su come non restare indietro. È quello che si vede nella rivalità USA-Cina.

Responsabilità umana. E qui arriviamo al punto cruciale: di chi è la responsabilità?

Quando un algoritmo sbaglia, chi paga? L’azienda che l’ha sviluppato? Il governo che l’ha approvato? La persona che ha premuto “attiva”? Nessuno, perché “è stato l’algoritmo”?

La responsabilità non può sparire dietro la complessità tecnica. Se un sistema AI causa danni, qualcuno deve risponderne. E quel qualcuno deve essere umano.

Ma oggi, troppo spesso, la responsabilità è diluita, frammentata, invisibile. E questo è pericoloso.

Perché serve consapevolezza, non hype

Viviamo in un’epoca di narrazione salvifica dell’AI e, seppure con qualche precisazione, anche io faccio parte di questo coro.

“L’AI risolverà la crisi climatica.” “L’AI curerà il cancro.” “L’AI eliminerà la povertà.” “L’AI renderà tutti più produttivi e felici.”

Probabilmente si. Ma dobbiamo stare attenti.

L’AI è uno strumento. Potente, certo. Ma uno strumento. E come tutti gli strumenti, può essere usato bene o male. Può concentrare ricchezza o redistribuirla. Può aumentare il controllo autoritario o rafforzare la democrazia. Può liberare tempo o intensificare lo sfruttamento.

Dipende dalle scelte che facciamo.

E per fare scelte consapevoli serve pensiero critico. Serve capacità di leggere oltre i titoli sensazionalistici. Serve guardare non solo a cosa l’AI può fare, ma a chi la controlla, chi ne beneficia, chi ne paga il prezzo.

Non serve essere esperti di machine learning. Serve essere cittadini consapevoli.

Serve smettere di pensare che “tanto è troppo complicato per me” e iniziare a chiedersi: questa tecnologia mi sta migliorando la vita o la sta complicando? Mi sta dando più libertà o più controllo esterno? Mi sta rendendo più autonomo o più dipendente?

Il ruolo delle persone e della cultura è decisivo. Perché l’AI non è solo algoritmi – è anche significati, valori, norme. È cultura.

E la cultura la facciamo noi. Con le domande che facciamo, con i confini che mettiamo, con le scelte che esprimiamo come cittadini, consumatori, lavoratori.

Conclusione: l’AI come scelta sociale, non destino

Ecco la verità che spesso dimentichiamo: l’AI non è inevitabile.

Non è una forza naturale come un terremoto o un’eclissi. È il prodotto di decisioni umane. Qualcuno ha deciso di svilupparla in questo modo. Qualcuno ha deciso di investirci miliardi. Qualcuno ha deciso quali applicazioni prioritizzare. Qualcuno ha deciso quali regole (o non-regole) applicare.

Ogni passo di questo processo è frutto di scelte. E le scelte possono essere diverse.

Possiamo scegliere un’AI che aumenta l’autonomia delle persone o che le rende più dipendenti.
Possiamo scegliere un’AI che redistribuisce opportunità o che concentra potere.
Possiamo scegliere un’AI trasparente e controllabile o opaca e arbitraria.

Ma per scegliere, dobbiamo prima riconoscere che stiamo scegliendo. Che non siamo spettatori passivi di una rivoluzione tecnologica, ma attori di una trasformazione sociale.

La responsabilità è individuale e collettiva. Individuale, perché ognuno di noi può informarsi, chiedere, resistere, proporre. Collettiva, perché serve mobilitazione, pressione, dibattito pubblico, governance.

L’AI plasmerà il nostro futuro. Ma prima ancora, noi plasmiamo l’AI. Con le domande che facciamo. Con i principi che difendiamo. Con le linee rosse che tracciamo.

Non è troppo tardi. Ma è urgente.

Perché la società che l’AI sta costruendo – la stiamo costruendo noi. Che lo sappiamo o no.


E tu, che ne pensi? Come vedi il rapporto tra AI e società? Ti senti parte attiva di questa trasformazione o spettatore? Scrivimi nei commenti o su LinkedIn.

Articoli simili

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *