| 

Dario Amodei, l’italoamericano che ha detto no a Trump

Intelligenza artificiale e confini etici: il modello Anthropic tra innovazione responsabile e democrazia

C’è una storia che vale la pena raccontare. Non perché faccia notizia in senso tradizionale, ma perché ci dice qualcosa di importante su dove stiamo andando – e su chi stiamo diventando nel mezzo di questa rivoluzione tecnologica.

Dario Amodei, CEO di Anthropic e uno degli uomini più influenti nel mondo dell’intelligenza artificiale, ha detto no. No al Pentagono. No a Trump. No a un contratto miliardario con il Dipartimento della Difesa degli Stati Uniti – a meno che non venissero rispettati certi limiti etici fondamentali.

In un’epoca in cui la Silicon Valley fa a gara per accaparrarsi contratti governativi e abbraccia il potere con entusiasmo imbarazzante, questo no è una notizia. Ma è anche qualcosa di più: è un segnale.

Un fisico di Massa Marittima che ha cambiato l’AI

Dario Amodei è nato a San Francisco nel 1983, ma le sue radici affondano in Toscana. Suo padre è di Massa Marittima, un piccolo comune in provincia di Grosseto. La madre è americana, di Chicago. Si sono conosciuti in Italia, nei suoi anni ’70, prima di trasferirsi definitivamente in America.

Non è un profilo tech convenzionale. Cresciuto nel Mission District di San Francisco – prima del boom tecnologico che avrebbe trasformato il quartiere – in una famiglia operaia, Amodei ha sviluppato un approccio quasi filosofico alla scienza. Si è laureato a Stanford, ha preso il dottorato in fisica a Princeton, ha fatto ricerca sul cervello umano alla Stanford School of Medicine.

Poi è arrivata l’intelligenza artificiale. Prima a Google Brain, dove nel 2016 ha sviluppato Deep Speech 2, uno dei primi sistemi di comprensione del linguaggio umano. Poi in OpenAI, dove ha guidato lo sviluppo di GPT-2 e GPT-3. Poi la rottura – e Anthropic.

Nel 2021, insieme alla sorella Daniela, lascia OpenAI dopo che Microsoft investe un miliardo di dollari nell’azienda. Non si tratta di invidia o ambizione. Si tratta di valori: Amodei non vuole che il laboratorio diventi uno strumento puramente commerciale, guidato da logiche di profitto senza attenzione alla sicurezza. Nasce così Anthropic, con una missione precisa: costruire AI avanzata in modo responsabile.

Il no al Pentagono: dove l’AI non deve arrivare

La notizia di questi giorni riguarda un confronto diretto tra Amodei e il Dipartimento della Difesa americano. Il Pentagono ha chiesto ad Anthropic di estendere l’utilizzo di Claude – il modello AI dell’azienda – a due nuovi ambiti: la sorveglianza interna di massa e le armi completamente autonome.

Amodei ha risposto con un comunicato che vale la pena leggere con attenzione: “In un ristretto numero di casi riteniamo che l’AI possa minare, anziché difendere, i valori democratici.” E ha aggiunto che Anthropic è disposta a rinunciare all’intero contratto con il Pentagono piuttosto che violare questo principio.

Non è uno show. Non è marketing. È una linea tracciata nel cemento, da un’azienda valutata 380 miliardi di dollari, di fronte all’amministrazione Trump.

La posizione di Anthropic sull’uso militare dell’AI non è di principio contraria. L’azienda collabora già con il Dipartimento della Difesa su applicazioni di intelligence, logistica, cybersicurezza difensiva. Il punto è dove si traccia il confine: le armi che operano senza supervisione umana e la sorveglianza di massa dei cittadini sono casi in cui tecnologia e democrazia entrano in collisione diretta. E su quel confine, Amodei non ha ceduto.

La “Costituzione” che governa Claude: un’idea italiana?

C’è un dettaglio che colpisce, soprattutto per chi ha origini europee. Anthropic allena i propri modelli AI secondo quella che internamente chiamano una “Costituzione” – un documento di 75 pagine basato su principi etici. Non è un semplice documento di policy. È un sistema di valori che viene integrato direttamente nell’architettura del modello.

È un approccio che suona stranamente familiare a chi viene da una cultura in cui il diritto, i principi costituzionali e la tutela dei diritti fondamentali non sono opzionali, ma fondativi. L’idea che una macchina debba avere dei limiti non per paura, ma per rispetto della dignità umana – è un concetto profondamente europeo, profondamente italiano.

Non sorprende che Amodei, il cui DNA culturale è anche toscano, abbia portato questa sensibilità al centro di un’azienda che altrimenti potrebbe sembrare solo un’altra startup californiana.

L’alert che non possiamo ignorare: l’AI può minare la democrazia

La posizione di Amodei apre una domanda che dobbiamo affrontare senza sconti: l’intelligenza artificiale è davvero neutrale? Può essere usata indifferentemente per proteggere o per controllare le persone?

La risposta onesta è no. E questo è un alert reale, non catastrofismo. Le tecnologie hanno direzioni. Uno sciame di droni autonomi che opera senza supervisione umana non è “AI applicata alla difesa” – è qualcosa di strutturalmente diverso, che cambia l’equazione etica della guerra. La sorveglianza di massa non è “AI per la sicurezza” – è uno strumento di controllo che può essere usato contro i cittadini stessi.

Amodei lo sa. Lo ha detto esplicitamente anche in altri contesti: teme “la possibilità di sciami di droni autonomi e l’uso dell’AI per aggirare le protezioni costituzionali sulla privacy.” Non lo dice per frenare l’innovazione. Lo dice perché conosce dall’interno come funzionano questi sistemi.

Questo si inserisce in una dinamica geopolitica più ampia che stiamo già analizzando: la corsa tra USA e Cina non è solo economica o militare, è una gara a chi definisce le regole dell’AI globale. E le scelte che i protagonisti fanno oggi – come Amodei con il Pentagono – disegnano quelle regole.

La buona notizia: l’etica può essere un vantaggio competitivo

Ma ecco la parte che preferisco sottolineare – e che spesso viene dimenticata in questo tipo di storie.

Anthropic non è una piccola ONG che difende l’etica a rischio del proprio business. È un’azienda valutata 380 miliardi di dollari, che raccoglie investimenti miliardari da Google, Amazon e Salesforce. La sua posizione etica non è un costo – è parte integrante della sua proposta di valore.

Chi investe in Anthropic, chi sceglie Claude per applicazioni enterprise o governative, lo fa anche perché sa che quel sistema ha dei confini solidi. In un panorama in cui la fiducia nell’AI è fragilissima, la credibilità etica è un asset competitivo enorme.

Questo ci dice qualcosa di fondamentale: non dobbiamo scegliere tra innovazione e responsabilità. Possiamo – e dobbiamo – perseguirle insieme. L’Europa sta cercando di fare la stessa cosa con la regolamentazione: non fermare l’AI, ma darle una direzione che tuteli i diritti fondamentali.

Amodei lo ha detto chiaramente: è “profondamente a disagio” con l’idea che il futuro dell’AI venga deciso da un pugno di CEO della Silicon Valley. Ha sempre chiesto più regolamentazione, non meno. Anche quando questo lo penalizza.

Cosa significa per noi, in Europa

Questa storia ha un significato particolare per chi vive e lavora in Europa – e in Italia.

In un momento in cui l’Europa fatica a competere nella corsa all’AI con USA e Cina, la tentazione è quella di abbassare la guardia sui principi per non perdere terreno tecnologicamente. È una tentazione comprensibile, ma sbagliata.

Il modello Anthropic dimostra che si può costruire tecnologia all’avanguardia senza rinunciare all’etica. Che i valori europei – tutela della privacy, diritti fondamentali, governance democratica dell’innovazione – non sono un handicap competitivo. Sono un punto di forza, se sai usarli bene.

E c’è qualcosa di bello nel pensare che parte di questa storia venga da un uomo con le radici in Toscana. Come a dire: anche nel mezzo della rivoluzione tecnologica più grande della storia, conta ancora chi sei, da dove vieni, cosa hai imparato a casa.

Il futuro dipende da chi è disposto a dire no

La storia di Dario Amodei e del no al Pentagono non è solo una notizia di cronaca tech. È una lezione su cosa significa costruire tecnologia in modo responsabile – non per paura, ma per convinzione.

L’AI può davvero trasformare il mondo in meglio. Ma solo se chi la costruisce è disposto a tracciare dei confini. Non per paura del progresso, ma perché il progresso vero – quello che vale la pena perseguire – deve rimanere al servizio delle persone, non del potere.

Amodei ha scelto di pagare un prezzo potenzialmente altissimo per mantenere quella linea. E questo, in un mondo in cui tutti sembrano disposti a tutto per la crescita, è la notizia più importante.

La direzione che prende l’AI la scegliamo noi. Chi la costruisce, chi la regola, chi la usa. E chi è disposto a dire no quando serve.

Articoli simili

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *