Reading time: 7 min
O CEO da Anthropic, Dario Amodei, rejeitou a “melhor e última oferta” do Pentágono na quinta-feira à noite, dizendo que a empresa preferia perder seu contrato de defesa de US$ 200 milhões do que permitir que Claude fosse usado para vigilância em massa de americanos ou armas totalmente autônomas. O prazo do Secretário de Defesa Pete Hegseth expira às 17h01 ET hoje — sexta-feira, 27 de fevereiro — após o qual o Pentágono ameaçou invocar a Lei de Produção de Defesa, designar a Anthropic como um risco da cadeia de suprimentos, ou ambos. Até esta manhã, a Anthropic não cedeu.
Sobre o Que Eles Realmente Estão Brigando
A disputa é mais restrita do que as manchetes sugerem. A Anthropic não está se recusando a trabalhar com os militares — Claude já é o único modelo de IA operando nas redes classificadas do Pentágono, implantado através de uma parceria com a Palantir sob um contrato concedido em julho passado. Foi usado na operação de janeiro que capturou o presidente venezuelano Nicolás Maduro. A empresa defendeu controles de exportação de chips para a China e personalizou modelos para clientes de segurança nacional.
A briga é sobre duas restrições específicas que a Anthropic insiste em manter. Primeiro, que Claude não seja usado para vigilância doméstica em massa de cidadãos americanos. Segundo, que não tome decisões finais de alvos em operações militares sem envolvimento humano — o que Amodei chama de “armas totalmente autônomas”. Uma fonte familiar às negociações disse à CBS News que a posição da Anthropic reflete parcialmente uma preocupação técnica: Claude não é imune a alucinações e não é confiável o suficiente para evitar erros potencialmente letais sem julgamento humano no processo.
O Pentágono quer “todos os propósitos legais” — sem exceções, sem restrições impostas pela empresa. Um oficial sênior do Pentágono disse à CNN que a questão “não tem nada a ver com vigilância em massa e armas autônomas sendo usadas” porque o departamento “sempre seguiu a lei”. Sean Parnell, porta-voz chefe do Pentágono, enquadrou de forma mais direta no X: “Não permitiremos que NENHUMA empresa dite os termos sobre como tomamos decisões operacionais”.
Sete Dias em Fevereiro
O confronto se moveu rapidamente. Em 13 de fevereiro, Axios e Wall Street Journal relataram que Claude havia sido usado na operação Maduro via parceria Anthropic-Palantir. Um oficial sênior do Pentágono alegou que um executivo da Anthropic posteriormente contatou um executivo da Palantir para perguntar se Claude estava envolvido, levantando a questão “de tal forma a implicar que eles poderiam desaprovar”. A Anthropic negou categoricamente isso, dizendo que não havia discutido o uso de Claude para operações específicas com o Pentágono ou Palantir “fora de discussões de rotina sobre questões estritamente técnicas”.
O intercâmbio com a Palantir — contestado como é — parece ter sido o gatilho. Em 15 de fevereiro, Axios relatou que o Pentágono estava perto de cortar laços inteiramente. Em 17 de fevereiro, Parnell confirmou que o relacionamento do departamento com a Anthropic estava “sendo revisado”. Em 23 de fevereiro, xAI assinou um acordo para trazer Grok para sistemas classificados sob o padrão “todos os propósitos legais” — dando ao Pentágono pelo menos uma alternativa teórica, embora oficiais de defesa reconheçam que substituir Claude seria tecnicamente difícil e demorado.
Então veio terça-feira, 24 de fevereiro. Hegseth convocou Amodei ao Pentágono. A sala estava pesada de oficiais: Vice-Secretário Steve Feinberg, Subsecretário de Pesquisa e Engenharia Emil Michael, Subsecretário de Aquisição e Sustentação Michael Duffey, conselheiro geral Earl Matthews, e Parnell. Uma fonte descreveu a atmosfera como “não calorosa e aconchegante”. Outra disse que permaneceu cordial, com Hegseth elogiando o desempenho de Claude. Ambos os relatos concordam sobre a substância: Hegseth disse a Amodei para assinar um documento concedendo acesso total até sexta-feira à noite ou enfrentar consequências.
Três Ameaças, Uma Contradição
O Pentágono colocou três opções na mesa. Primeiro, terminar o contrato. Segundo, designar a Anthropic como um “risco da cadeia de suprimentos” — uma classificação tipicamente reservada para empresas adversárias estrangeiras como Huawei — que forçaria todo contratante do Pentágono a certificar que Claude não é usado em seus fluxos de trabalho militares. Terceiro, invocar a Lei de Produção de Defesa para compelir a Anthropic a fornecer Claude sem restrições, uma medida que a DPA autoriza quando produtos são considerados críticos para a defesa nacional.
Amodei notou o paradoxo em seu post de blog de quinta-feira. As ameaças “são inerentemente contraditórias: uma nos rotula como risco de segurança; a outra rotula Claude como essencial para a segurança nacional”. Ele reiterou que a Anthropic “acredita profundamente na importância existencial de usar IA para defender os Estados Unidos”, que o Pentágono “não empresas privadas, toma decisões militares”, mas que em um conjunto restrito de casos envolvendo vigilância e armas autônomas, “IA pode minar, ao invés de defender, valores democráticos”.
A oferta final do Pentágono chegou na quarta-feira à noite — menos de 48 horas antes do prazo. A Anthropic disse que a linguagem do contrato “fez virtualmente nenhum progresso” em suas duas preocupações. Nova linguagem enquadrada como compromisso foi “pareada com juridiquês que permitiria que essas salvaguardas fossem desconsideradas à vontade”, disse um porta-voz ao The Hill. Uma fonte descreveu as adições como projetadas para soar como concessões mas funcionando como rotas de escape. A resposta de Amodei na quinta-feira à noite foi inequívoca: “Não podemos, em boa consciência, ceder ao seu pedido”.
O Cenário Competitivo Muda
O timing não é acidental. No mesmo dia em que Amodei entrou no Pentágono, a Anthropic publicou a versão 3.0 de sua Política de Escalonamento Responsável — uma reformulação significativa que abandonou o compromisso rígido original da empresa de pausar o treinamento de modelos se medidas de segurança não fossem provadas adequadas. O Diretor Científico Chefe Jared Kaplan disse à TIME que “na verdade não ajudaria ninguém se parássemos de treinar modelos de IA” quando “competidores estão avançando rapidamente”. A atualização do RSP separa o que a Anthropic fará unilateralmente do que recomenda que a indústria adote coletivamente — um reconhecimento tácito de que restrições auto-impostas só funcionam se competidores seguirem o exemplo.
Eles não seguiram. OpenAI, Google e xAI concordaram com o padrão “todos os propósitos legais” para sistemas militares não classificados. Grok é agora o primeiro modelo não-Claude aprovado para uso classificado. Gemini do Google está supostamente próximo de um acordo classificado. OpenAI está mais atrás mas as negociações se intensificaram. Se o Pentágono seguir com a designação de risco da cadeia de suprimentos, a Anthropic não apenas perderia um contrato — seria funcionalmente impedida de todo o ecossistema de defesa em um momento em que está tentando escalar seu negócio empresarial. O padrão mais amplo de alavancagem governamental sobre empresas de tecnologia privadas está se tornando difícil de ignorar.
A alavancagem da Anthropic é mais restrita mas real. Claude permanece, pela própria admissão do Pentágono, o modelo mais capaz para aplicações militares sensíveis. Um oficial de defesa disse ao Axios: “A única razão pela qual ainda estamos falando com essas pessoas é que precisamos deles e precisamos deles agora. O problema para esses caras é que eles são tão bons”. Substituir Claude em redes classificadas não é uma atualização de software — é um projeto de integração que pode levar meses, durante os quais as capacidades de IA mais avançadas do Pentágono se degradariam.
O Que Acontece às 17h01
Se o prazo passar sem acordo, o Pentágono tem três movimentos. A designação de risco da cadeia de suprimentos é a mais imediatamente prejudicial à posição comercial da Anthropic. A invocação da DPA é a mais legalmente contenciosa — a Anthropic poderia argumentar que não está fornecendo um produto comercialmente disponível mas software construído sob medida para uso classificado, embora tal desafio levaria meses para resolver. A terminação do contrato é a mais simples mas machuca mais o Pentágono, já que nenhuma substituição está pronta.
Amodei ofereceu uma saída em sua declaração de quinta-feira: “Caso o Departamento escolha desembarcar a Anthropic, trabalharemos para permitir uma transição suave para outro provedor, evitando qualquer interrupção ao planejamento militar em andamento, operações ou outras missões críticas”. A oferta de ajudar o Pentágono a sair é em si um sinal de negociação — comunica que a Anthropic está preparada para absorver o impacto na receita em vez de cruzar suas linhas vermelhas declaradas.
A questão mais profunda é precedencial. Se o Pentágono pode compelir uma empresa privada a remover restrições de segurança de um sistema de IA através de ameaça de lista negra, a estrutura de governança de todo laboratório de IA se torna negociável sob pressão. Se a Anthropic mantém a linha e sobrevive comercialmente, estabelece que há limites ao que o aparato de segurança nacional pode exigir de provedores de tecnologia. Qualquer resultado remodela o relacionamento entre o Vale do Silício e o estado para a era da IA. O relógio acaba esta noite.
Fontes: Axios, CNN, CBS News, NPR, The Hill