Reading time: 5 min
Il Presidente Donald Trump venerdì ha ordinato a ogni agenzia federale di cessare l’uso della tecnologia di Anthropic e ha dato al Pentagono sei mesi per eliminare gradualmente Claude, l’unico modello AI di frontiera operativo su reti militari classificate, dopo che l’azienda si è rifiutata di consentire l’uso militare illimitato della sua intelligenza artificiale.
Il Divieto e i Suoi Meccanismi
La direttiva di Trump, pubblicata su Truth Social circa un’ora prima che scadesse una deadline delle 17:01 ET del 27 febbraio imposta dal Pentagono, ha istruito tutte le agenzie governative di “CESSARE IMMEDIATAMENTE ogni uso della tecnologia di Anthropic”. Ha chiamato la leadership di Anthropic “pazzi di sinistra” che avevano fatto un “ERRORE DISASTROSO tentando di INTIMIDIRE il Dipartimento della Guerra”, secondo il testo completo riprodotto da NPR, CNN, CNBC, Axios, Fortune e NBC News. Il presidente ha aggiunto una minaccia diretta: Anthropic farebbe meglio a “rimettersi in riga, ed essere d’aiuto durante questo periodo di eliminazione graduale, o userò il Pieno Potere della Presidenza per farli conformare, con gravi conseguenze civili e penali a seguire”.
Poco dopo che la scadenza fosse passata, il Segretario della Difesa Pete Hegseth ha designato Anthropic un “Rischio della Catena di Fornitura per la Sicurezza Nazionale” su X — una classificazione che CNN e Fortune hanno notato è normalmente riservata a entità collegate ad avversari stranieri come Cina e Russia. La designazione richiede a ogni appaltatore e fornitore che fa affari con l’esercito statunitense di certificare che non conduce attività commerciali con Anthropic. La General Services Administration ha separatamente confermato che rimuoverà Anthropic da USAi.gov, la piattaforma centralizzata di test AI del governo federale.
Cosa Ha Rifiutato Anthropic
La disputa si concentra su un contratto del valore di fino a 200 milioni di dollari che Anthropic ha firmato con il Pentagono nel luglio 2025 per fornire Claude su reti di difesa classificate tramite l’azienda di analisi dati Palantir. Sotto l’accordo originale, la politica d’uso accettabile di Anthropic proibiva il dispiegamento di Claude per sorveglianza domestica di massa degli americani o armi letali completamente autonome senza supervisione umana. Il Pentagono ha richiesto che quelle restrizioni fossero sostituite con linguaggio che permettesse l’uso “per tutti gli scopi legali”, argomentando che il quadro legale militare stesso — non i termini di servizio di un’azienda privata — dovrebbe governare le decisioni operative.
Il CEO Dario Amodei ha respinto la richiesta in una dichiarazione pubblica giovedì. Ha argomentato che i sistemi AI di frontiera sono “non abbastanza affidabili per alimentare armi completamente autonome” e che l’AI potente può ora cucire insieme dati pubblici individualmente innocui in un ritratto comprensivo della vita di qualsiasi persona, creando capacità di sorveglianza che la legge esistente non affronta adeguatamente, come riportato da CNN, CNBC e Fortune. Ha chiamato le doppie minacce del Pentagono — invocare il Defence Production Act dell’era della Guerra di Corea per forzare la conformità mentre simultaneamente etichettava la sua azienda un rischio per la sicurezza — “intrinsecamente contraddittorie: una ci etichetta come rischio per la sicurezza; l’altra etichetta Claude come essenziale per la sicurezza nazionale”. Il rifiuto di Anthropic di piegarsi prima della scadenza di venerdì è arrivato nonostante settimane di pressione crescente dalla leadership del Dipartimento della Difesa.
Il Caso del Pentagono
Emil Michael, Sottosegretario della Difesa per Ricerca e Ingegneria, ha risposto chiamando Amodei “un bugiardo” con un “complesso di Dio” su X, secondo The Hill e CNN. Michael ha detto a CBS News che l’esercito aveva offerto riconoscimenti scritti delle leggi federali sulla sorveglianza e aveva invitato Anthropic a unirsi al suo consiglio di etica AI. Un portavoce di Anthropic ha controbattuto che il nuovo linguaggio contrattuale ricevuto durante la notte “aveva fatto virtualmente nessun progresso” e che i termini “inquadrati come compromesso” erano “abbinati a gergo legale che avrebbe permesso a quelle salvaguardie di essere ignorate a piacimento”. Il portavoce del Pentagono Sean Parnell ha mantenuto che l’esercito “non permetterà ad ALCUNA azienda di dettare i termini riguardo a come prendiamo decisioni operative”.
Silicon Valley si Mobilita
Il confronto ha scatenato la più significativa mobilitazione inter-aziendale di dipendenti dal 2018, quando Google si rivoltò contro il Progetto Maven. Più di 300 dipendenti Google e oltre 60 dipendenti OpenAI hanno firmato una lettera aperta intitolata “Non Saremo Divisi”, chiedendo alla leadership di sostenere le linee rosse di Anthropic, hanno riportato TechCrunch e CNBC. Una lettera separata di venerdì dalle organizzazioni sindacali inclusa l’Alphabet Workers Union e Amazon Employees for Climate Justice — rappresentando una coalizione che Bloomberg ha descritto come comprendente più di 700.000 lavoratori — ha esortato la direzione di Amazon, Google e Microsoft a “rifiutarsi di conformarsi” a richieste simili del Pentagono.
Il CEO di OpenAI Sam Altman ha detto al personale in un memo interno riportato dalla BBC e Axios che OpenAI condivide le “linee rosse” di Anthropic e che qualsiasi contratto del Pentagono escluderebbe sorveglianza domestica e armi offensive autonome. Il Generale dell’Aeronautica in pensione Jack Shanahan, che ha supervisionato le iniziative AI originali del Pentagono, ha postato che le linee rosse di Claude sono “ragionevoli”.
Cosa Succede Ora
Perdere il solo contratto da 200 milioni di dollari non metterebbe in pericolo Anthropic, recentemente valutata approssimativamente 380 miliardi di dollari. Il rischio finanziario maggiore risiede nella designazione della catena di fornitura. Adam Connor al Centre for American Progress ha detto a CNN che potrebbe causare “una grande porzione” della base clienti enterprise di Anthropic a “evaporare” perché quei clienti o detengono contratti governativi o aspirano a vincerli. La designazione forza anche Palantir — che alimenta il suo lavoro di difesa più sensibile attraverso Claude — a procurarsi un modello alternativo. La xAI di Elon Musk è diventata la seconda azienda autorizzata per reti classificate dopo aver accettato lo standard del Pentagono “tutti gli scopi legali” per Grok, anche se fonti di Axios hanno detto che è “improbabile che sia una sostituzione equivalente”.
Il Senatore Mark Warner, vice presidente del Comitato di Intelligence del Senato, ha avvertito che la direttiva “solleva serie preoccupazioni su se le decisioni di sicurezza nazionale siano guidate da analisi attenta o considerazioni politiche”. La finestra di eliminazione graduale di sei mesi ora avvia il conto alla rovescia su quello che potrebbe diventare il test definitivo di se le principali aziende AI americane accetteranno autorità governativa illimitata sulla loro tecnologia — o se la resistenza collettiva dell’industria forzerà una rinegoziazione di quei confini interamente.