Reading time: 7 min
Il CEO di Anthropic Dario Amodei ha respinto giovedì sera la “migliore e ultima offerta” del Pentagon, affermando che l’azienda preferirebbe perdere il contratto di difesa da 200 milioni di dollari piuttosto che permettere che Claude venga utilizzato per la sorveglianza di massa degli americani o per armi completamente autonome. La scadenza del Segretario della Difesa Pete Hegseth scade alle 17:01 ET oggi — venerdì 27 febbraio — dopo la quale il Pentagon ha minacciato di invocare il Defence Production Act, designare Anthropic come rischio per la catena di approvvigionamento, o entrambe le cose. Questa mattina, Anthropic non ha ceduto.
Per Cosa Stanno Realmente Lottando
La disputa è più ristretta di quanto suggeriscano i titoli. Anthropic non si rifiuta di lavorare con i militari — Claude è già l’unico modello AI operativo sulle reti classificate del Pentagon, distribuito attraverso una partnership con Palantir sotto un contratto assegnato lo scorso luglio. È stato utilizzato nell’operazione di gennaio che ha catturato il presidente venezuelano Nicolás Maduro. L’azienda ha sostenuto i controlli sulle esportazioni di chip verso la Cina e ha personalizzato modelli per clienti della sicurezza nazionale.
La battaglia riguarda due restrizioni specifiche che Anthropic insiste nel mantenere. Prima, che Claude non venga utilizzato per la sorveglianza domestica di massa dei cittadini americani. Seconda, che non prenda decisioni finali di targeting nelle operazioni militari senza coinvolgimento umano — quello che Amodei chiama “armi completamente autonome”. Una fonte familiare con i negoziati ha detto a CBS News che la posizione di Anthropic riflette in parte una preoccupazione tecnica: Claude non è immune alle allucinazioni e non è abbastanza affidabile da evitare errori potenzialmente letali senza il giudizio umano nel processo.
Il Pentagon vuole “tutti gli scopi legali” — nessuna eccezione, nessuna restrizione imposta dall’azienda. Un alto funzionario del Pentagon ha detto alla CNN che la questione “non ha nulla a che fare con sorveglianza di massa e armi autonome utilizzate” perché il dipartimento “ha sempre seguito la legge”. Sean Parnell, il portavoce capo del Pentagon, l’ha inquadrata più schiettamente su X: “Non permetteremo ad ALCUNA azienda di dettare i termini riguardo a come prendiamo decisioni operative”.
Sette Giorni di Febbraio
Lo scontro si è mosso velocemente. Il 13 febbraio, Axios e il Wall Street Journal hanno riferito che Claude era stato utilizzato nel raid di Maduro tramite la partnership Anthropic-Palantir. Un alto funzionario del Pentagon ha sostenuto che un dirigente di Anthropic ha successivamente contattato un dirigente di Palantir per chiedere se Claude fosse coinvolto, sollevandolo “in modo tale da implicare che potrebbero disapprovare”. Anthropic ha negato categoricamente questo, dicendo di non aver discusso l’uso di Claude per operazioni specifiche né con il Pentagon né con Palantir “al di fuori di discussioni di routine su questioni strettamente tecniche”.
Lo scambio con Palantir — per quanto contestato — sembra essere stato il trigger. Entro il 15 febbraio, Axios riferiva che il Pentagon era vicino a tagliare completamente i rapporti. Entro il 17 febbraio, Parnell confermava che la relazione del dipartimento con Anthropic era “sotto revisione”. Il 23 febbraio, xAI ha firmato un accordo per portare Grok nei sistemi classificati sotto lo standard “tutti gli scopi legali” — dando al Pentagon almeno un’alternativa teorica, anche se i funzionari della difesa riconoscono che sostituire Claude sarebbe tecnicamente difficile e richiederebbe tempo.
Poi è arrivato martedì 24 febbraio. Hegseth ha convocato Amodei al Pentagon. La stanza era piena di alti gradi: il Vice Segretario Steve Feinberg, il Sottosegretario per Ricerca e Ingegneria Emil Michael, il Sottosegretario per Acquisizioni e Sostentamento Michael Duffey, il consigliere generale Earl Matthews, e Parnell. Una fonte ha descritto l’atmosfera come “non calorosa e accogliente”. Un’altra ha detto che è rimasta cordiale, con Hegseth che elogiava le prestazioni di Claude. Entrambi i resoconti concordano sulla sostanza: Hegseth ha detto ad Amodei di firmare un documento che concedesse pieno accesso entro venerdì sera o affrontare le conseguenze.
Tre Minacce, Una Contraddizione
Il Pentagon ha messo tre opzioni sul tavolo. Prima, terminare il contratto. Seconda, designare Anthropic come “rischio per la catena di approvvigionamento” — una classificazione tipicamente riservata alle aziende avversarie straniere come Huawei — che costringerebbe ogni contraente del Pentagon a certificare che Claude non viene utilizzato nei loro flussi di lavoro militari. Terza, invocare il Defence Production Act per obbligare Anthropic a fornire Claude senza restrizioni, una mossa che il DPA autorizza quando i prodotti sono ritenuti critici per la difesa nazionale.
Amodei ha notato il paradosso nel suo post sul blog di giovedì. Le minacce “sono intrinsecamente contraddittorie: una ci etichetta come rischio per la sicurezza; l’altra etichetta Claude come essenziale per la sicurezza nazionale”. Ha ribadito che Anthropic “crede profondamente nell’importanza esistenziale di utilizzare l’AI per difendere gli Stati Uniti”, che il Pentagon “non le aziende private, prende decisioni militari”, ma che in un ristretto insieme di casi che coinvolgono sorveglianza e armi autonome, “l’AI può minare, piuttosto che difendere, i valori democratici”.
L’offerta finale del Pentagon è arrivata mercoledì notte — meno di 48 ore prima della scadenza. Anthropic ha detto che il linguaggio del contratto “non ha fatto praticamente alcun progresso” sulle sue due preoccupazioni. Il nuovo linguaggio inquadrato come compromesso era “abbinato a legalese che permetterebbe a quelle salvaguardie di essere ignorate a piacimento”, ha detto un portavoce a The Hill. Una fonte ha descritto le aggiunte come progettate per sembrare concessioni ma funzionare come vie di fuga. La risposta di Amodei di giovedì sera è stata inequivocabile: “Non possiamo in buona coscienza accedere alla loro richiesta”.
Il Panorama Competitivo Cambia
Il tempismo non è accidentale. Lo stesso giorno in cui Amodei è entrato al Pentagon, Anthropic ha pubblicato la versione 3.0 della sua Responsible Scaling Policy — una significativa revisione che ha abbandonato l’impegno originale rigido dell’azienda di sospendere l’addestramento dei modelli se le misure di sicurezza non fossero state provate adeguate. Il Chief Science Officer Jared Kaplan ha detto a TIME che “non aiuterebbe davvero nessuno se smettessimo di addestrare modelli AI” quando “i concorrenti stanno correndo avanti”. L’aggiornamento RSP separa quello che Anthropic farà unilateralmente da quello che raccomanda all’industria di adottare collettivamente — un tacito riconoscimento che le restrizioni auto-imposte funzionano solo se i concorrenti seguono l’esempio.
Non l’hanno fatto. OpenAI, Google e xAI hanno tutti accettato lo standard “tutti gli scopi legali” per i sistemi militari non classificati. Grok è ora il primo modello non-Claude approvato per uso classificato. Gemini di Google è presumibilmente vicino a un accordo classificato. OpenAI è più indietro ma i negoziati si sono intensificati. Se il Pentagon dovesse procedere con la designazione di rischio per la catena di approvvigionamento, Anthropic non perderebbe solo un contratto — sarebbe funzionalmente esclusa dall’intero ecosistema della difesa in un momento in cui sta cercando di scalare il suo business aziendale. Il modello più ampio di influenza governativa sulle aziende tecnologiche private sta diventando difficile da ignorare.
L’influenza di Anthropic è più ristretta ma reale. Claude rimane, per ammissione dello stesso Pentagon, il modello più capace per applicazioni militari sensibili. Un funzionario della difesa ha detto ad Axios: “L’unica ragione per cui stiamo ancora parlando con queste persone è che ne abbiamo bisogno e ne abbiamo bisogno ora. Il problema per questi ragazzi è che sono così bravi”. Sostituire Claude sulle reti classificate non è un aggiornamento software — è un progetto di integrazione che potrebbe richiedere mesi, durante i quali le capacità AI più avanzate del Pentagon si degraderebbero.
Cosa Succede alle 17:01
Se la scadenza passa senza accordo, il Pentagon ha tre mosse. La designazione di rischio per la catena di approvvigionamento è la più immediatamente dannosa per la posizione commerciale di Anthropic. L’invocazione del DPA è la più legalmente controversa — Anthropic potrebbe argomentare che non sta fornendo un prodotto commercialmente disponibile ma software costruito su misura per uso classificato, anche se tale sfida richiederebbe mesi per essere risolta. La terminazione del contratto è la più semplice ma danneggia di più il Pentagon, dato che nessun sostituto è pronto.
Amodei ha offerto una via d’uscita nella sua dichiarazione di giovedì: “Se il Dipartimento dovesse scegliere di disimpegnare Anthropic, lavoreremo per consentire una transizione fluida a un altro fornitore, evitando qualsiasi interruzione alla pianificazione militare in corso, operazioni o altre missioni critiche”. L’offerta di aiutare il Pentagon ad andarsene è essa stessa un segnale negoziale — comunica che Anthropic è preparata ad assorbire il colpo alle entrate piuttosto che attraversare le sue linee rosse dichiarate.
La domanda più profonda è di precedente. Se il Pentagon può obbligare un’azienda privata a rimuovere le restrizioni di sicurezza da un sistema AI attraverso la minaccia di inserimento in lista nera, il framework di governance di ogni laboratorio AI diventa negoziabile sotto pressione. Se Anthropic tiene la linea e sopravvive commercialmente, stabilisce che ci sono limiti a quello che l’apparato di sicurezza nazionale può chiedere ai fornitori di tecnologia. Entrambi i risultati rimodellano la relazione tra Silicon Valley e lo stato per l’era dell’AI. Il tempo scade questa sera.
Fonti: Axios, CNN, CBS News, NPR, The Hill