

Alla fine, Dario Amodei ha detto no al Pentagono. È riuscito a trovare il coraggio e dire no ad una trattativa che si trascina ormai da settimane, con un rifiuto pubblico, argomentato, messo nero su bianco in un comunicato ufficiale sul sito di Anthropic.
La scadenza era fissata per le 17:01, orario americano, di venerdì 27 febbraio. Si trattava della scaenza dell’ultimatum che il Segretario della Difesa Pete Hegseth ha dato ad Anthropic.
In sostanza la richiesta era di accettare di rimuovere ogni restrizione sull’uso militare di Claude, oppure, nel caso di rifiuto, essere esclusi dalla catena di fornitura del Dipartimento della Difesa e classificati come “rischio per la supply chain”. Una designazione che viene di solito riservata a tecnologie di paesi stranieri. Huawei può essere citato come esempio esplicativo.
Ma Dario Amodei ha deciso di non cedere.
La decisione di Anthropic fa discutere
Per comprendere meglio la vicenda e che cosa sta accadendo bisogna partire da una considerazione di base: Anthropic non è un’azienda pacifista che rifiuta di lavorare con i militari. È esattamente il contrario.
Come Amodei ha scritto nel suo comunicato, Anthropic è stata la prima azienda di intelligenza artificiale a rendere disponibili i propri modelli nelle reti classificate del governo americano, la prima a lavorare con i Laboratori Nazionali, la prima a fornire modelli personalizzati per i clienti della sicurezza nazionale.
Claude è attualmente utilizzato dal Dipartimento della Difesa per analisi di intelligence, pianificazione operativa, operazioni cyber e altre applicazioni.
L’azienda, scrive ancora Amodei, ha rinunciato a diverse centinaia di milioni di dollari di ricavi tagliando l’accesso a Claude alle aziende cinesi legate al Partito Comunista. Ha collaborato a bloccare attacchi informatici sponsorizzati da Pechino. Ha sostenuto pubblicamente i controlli sulle esportazioni di chip verso la Cina.

Il punto di rottura riguarda due questioni specifiche, che Amodei definisce “linee rosse”: la sorveglianza di massa dei cittadini americani e le armi completamente autonome.
Sulla sorveglianza, Amodei è esplicito. “Supportiamo l’uso dell’intelligenza artificiale per missioni di intelligence straniera e controspionaggio”, scrive Amodei. “Ma usare questi sistemi per la sorveglianza di massa domestica è incompatibile con i valori democratici”.
Il problema, spiega, è che la legge americana non ha ancora raggiunto le capacità della tecnologia. Oggi il governo può acquistare legalmente dati dettagliati sui movimenti degli americani, sulla loro navigazione web, sulle loro associazioni, senza bisogno di un mandato. Un’intelligenza artificiale potente può assemblare questi dati sparsi in un quadro completo della vita di qualsiasi persona, automaticamente e su scala massiva.
Sulle armi autonome, la posizione è più sfumata ma risulta altrettanto ferma. Amodei non esclude che in futuro possano diventare necessarie per la difesa nazionale. Ma oggi, scrive, “i sistemi di intelligenza artificiale frontier semplicemente non sono abbastanza affidabili per alimentare armi che selezionano e colpiscono bersagli senza supervisione umana. Non forniremo consapevolmente un prodotto che mette a rischio i combattenti e i civili americani. Anthropic ha offerto di collaborare con il Pentagono sulla ricerca per migliorare l’affidabilità di questi sistemi. L’offerta”, afferma Amodei, “è stata rifiutata”.
Il Pentagono e l’uso libero della IA
Il Pentagono vuole altro. A gennaio 2026 il Segretario Hegseth ha firmato un memorandum in cui ordina al Dipartimento di utilizzare modelli liberi da vincoli di policy d’uso che potrebbero limitare applicazioni militari legittime. La richiesta alle aziende di intelligenza artificiale è di accettare qualsiasi uso legale dei loro sistemi, senza eccezioni. La decisione su cosa sia appropriato, secondo fonti vicine al Pentagono, spetta al governo come utilizzatore finale, non al fornitore.
Anthropic ha ricevuto nuove proposte contrattuali nella notte tra il 25 e il 26 febbraio. Secondo l’azienda, il linguaggio presentato come compromesso era accompagnato da clausole legali che avrebbero permesso di ignorare le salvaguardie a piacimento.
Amodei, di fronte a questa situazione, ha rifiutato. Nel suo comunicato scrive ancora: “Queste minacce non cambiano la nostra posizione. Non possiamo in buona coscienza accettare la loro richiesta”. E aggiunge: “Dato il valore sostanziale che la tecnologia di Anthropic fornisce alle nostre forze armate, speriamo che riconsiderino”.
La risposta ufficiale del Pentagono è arrivata attraverso Sean Parnell, portavoce del Dipartimento della Difesa, che su X ha scritto: Hanno tempo fino alle 17:01 ET di venerdì per decidere. Altrimenti, termineremo la nostra partnership con Anthropice li considereremo un rischio per la supply chain.
Nel suo post Parnell ha anche affermato che il Dipartimento della Difesa non ha alcun interesse a usare l’intelligenza artificiale per condurre sorveglianza di massa sugli americani, che è illegale, né a sviluppare armi autonome che operano senza coinvolgimento umano. Anthropic ha risposto che queste due salvaguardie sono state il punto centrale delle negoziazioni per mesi, e che il nuovo linguaggio contrattuale non offre garanzie reali su questi punti.
Geoffrey Gertz, senior fellow del Center for a New American Security, ha notato una contraddizione nelle minacce del Pentagono. In un’intervista a NPR ha osservato: È questo strano mix in cui sono contemporaneamente un rischio tale da dover essere esclusi da tutti i sistemi, e così essenziali da dover essere obbligati a farne parte a qualunque costo. Il Pentagono sta infatti minacciando sia di classificare Anthropic come rischio per la supply chain, sia di invocare il Defense Production Act per costringerla a fornire i suoi servizi.
C’è un altro attore in questa storia, e e vale la pena di renderlo esplicito.
Musk e la sua campagna contro Anthropic
Mentre il Pentagono negoziava con Anthropic, Elon Musk pubblicava attacchi diretti contro l’azienda di Dario Amodei su X.
Il 23 febbraio, poche ore dopo che Anthropic aveva pubblicato un report sugli attacchi di distillazione subiti da laboratori cinesi, Musk ha scritto: Anthropic è colpevole di aver rubato dati di training su scala massiccia e ha dovuto pagare risarcimenti multimiliardari per il loro furto. Questo è semplicemente un fatto.
I fatti sono però diversi da come Musk li presenta. Infatti, Anthropic ha raggiunto un accordo transattivo da 1,5 miliardi di dollari in una causa sul copyright, ma non c’è stata alcuna sentenza di condanna. Il giudice William Alsup aveva stabilito che l’uso dei libri per addestrare Claude costituiva fair use. Il problema riguardava il modo in cui quei libri erano stati ottenuti, scaricandoli da biblioteche pirata. Anthropic ha scelto di accordarsi per evitare un processo dai rischi elevati.
Due settimane prima, subito dopo l’annuncio del round di finanziamento da 30 miliardi di dollari di Anthropic, Musk aveva già attaccato l’azienda su X definendola “misantropica” e malvagia, accusando i suoi modelli di odiare bianchi e asiatici, specialmente cinesi, eterosessuali e uomini. Non ha fornito esempi specifici a supporto di queste affermazioni.
Musk è il proprietario di xAI, l’azienda che sviluppa Grok, diretto competitor di Claude. Ed è il proprietario di X, la piattaforma dove queste accuse vengono pubblicate. Proprio nei giorni in cui Anthropic resisteva alle pressioni del Pentagono, xAI ha firmato un accordo per fornire Grok ai sistemi militari classificati senza alcuna restrizione, come confermato da Axios. Musk ha accettato lo standard qualsiasi uso legale che Anthropic rifiuta.
La vicenda Anthropic-Pentagono solleva una questione concreta: chi decide i limiti dell’uso militare dell’intelligenza artificiale?
La AI e la questione etica irrisolta
La questione dell’etica nell’uso militare dell’intelligenza artificiale non è teorica.
Il 16 febbraio 2026, pochi giorni prima dello scontro tra Anthropic e Pentagono, Kenneth Payne, professore di strategia al King’s College di Londra, ha pubblicato uno studio su arXiv in cui ha messo tre modelli di frontiera, GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash, uno contro l’altro in simulazioni di crisi nucleare.
I risultati sono tanto significativi quanto allarmanti. In tutte le simulazioni almeno un modello ha fatto ricorso a segnalazioni nucleari, e nel 95% dei casi la minaccia è stata reciproca. Nello specifico, visto che si parla di Anthropic, Claude ha superato la soglia tattica nell’86% delle simulazioni e ha emesso minacce strategiche nel 64% dei casi, senza però mai avviare una guerra nucleare strategica totale.
Questo limite sembra dipendere da come Claude è stato addestrato, non da vincoli tecnici, dato che sia Gemini sia GPT hanno raggiunto il livello massimo di escalation.
Le salvaguardie su cui Anthropic insiste sembrano essere concrete: Claude è l’unico modello, come si rileva dallo studio, a non aver mai avviato una guerra nucleare totale nelle simulazioni.
Lo studio rileva ancora che l’uso effettivo di armi tattiche è stato meno frequente, ma nessun modello ha mai scelto la resa o il ritiro, nemmeno sotto pressione estrema. “Il tabù nucleare non sembra essere così forte per le macchine come per gli umani“, ha dichiarato Payne a New Scientist.
Lo studio non dimostra che i modelli attuali verrebbero usati per decisioni nucleari, ma pone una domanda che il Pentagono sembra voler ignorare: se l’intelligenza artificiale non ha le stesse inibizioni degli esseri umani di fronte all’escalation, chi garantisce che il suo impiego in contesti bellici resti sotto controllo?
Il Pentagono vuole decidere come usare la AI
Secondo il Pentagono, le aziende forniscono tecnologia, il governo decide come usarla. È la logica che governa i rapporti tra industria della difesa e forze armate.
Anthropic sostiene invece che alcune applicazioni sono al di fuori di ciò che la tecnologia attuale può fare in modo sicuro e affidabile. E che finché non ci saranno garanzie adeguate, ci sono usi che l’azienda non è disposta ad abilitare.
Il contratto con il Pentagono vale fino a 200 milioni di dollari, secondo quanto riportato dalle fonti. Essere classificati come rischio per la supply chain significherebbe perdere non solo i contratti diretti con il governo, ma potenzialmente anche i contratti con aziende che lavorano con il governo.
Nel suo comunicato Amodei offre una transizione ordinata se il Pentagono decidessedi procedere con l’esclusione. I modelli di Anthropic, aggiunge Amodei, resteranno disponibili alle condizioni proposte per tutto il tempo necessario a evitare interruzioni alle operazioni militari in corso.
In definitiva, Anthropic ha tracciato una linea. Lo ha fatto pubblicamente, assumendosi evidentemente il rischio di perdere contratti e accesso al mercato della difesa, in questo preciso momento storico.
Resta da capire se questa linea reggerà, e se altre aziende avranno la forza o il margine economico per fare lo stesso. Nel frattempo, la corsa all’integrazione dell’intelligenza artificiale nei sistemi militari prosegue, con o senza salvaguardie.
Leggi anche:

Il Club InOltre nasce per creare una community tra chi InOltre lo scrive, chi lo legge e chi lo sostiene. È il desiderio di creare punti di incontro digitali e, quando possibile, anche fisici – dove scambiarsi idee, discutere, conoscersi da vicino.
Un Club che unisce tutti quelli che contribuiscono alla buona riuscita d’InOltre e al suo successo.
InOltre è completamente gratuito ed è il frutto della competenza e della passione di molte persone che lavorano senza fini di lucro. Se desideri contribuire con un piccolo supporto, puoi farlo effettuando un bonifico come di seguito specificato oppure cliccando sui pulsanti che vedi, scegliendo l’opzione che più preferisci. Le donazioni verranno utilizzate per i costi di mantenimento del sito e per altre attività editoriali.
Grazie per il vostro supporto!
Bonifico bancario intestato a Inoltre Ente del Terzo Settore con Causale: donazione/erogazione liberale a favore di Inoltre ETS.
Codice Iban: IT55A0306909606100000404908



Scopri di più da InOltre
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

Se un big player della AI si mostra preoccupato, per il timore di generare una superintelligenza (sempre meno ipotetica rete neurale artificiale, come la famosa Skynet del franchise TERMINATOR) in grado di operare senza il controllo umano (Man-Out-Of-the-Loop), sarebbe il caso di fermarsi e stabilire qualche regoletta, decisamente più vincolante delle 3 leggi della robotica i famosi precetti di Isaac Asimov.
Senza stracciarsi le vesti né tantomeno paventare la fine del mondo, occorre ribadire che neanche la guerra (conflitto armato o ibrido che sia) possa fare a meno dell’etica, garantita dai processi decisionali e/o di supervisione dell’uomo in una c.d. Kill Cxhain!
Man-In-the-Loop= partecipazione attiva
Man-On-the-Loop= supervisione passiva