Trump Proíbe Anthropic de Todos os Sistemas Federais Após Pentagon Classificar IA Como Risco de Segurança Nacional

Share

Reading time: 5 min

O Presidente Donald Trump ordenou na sexta-feira que todas as agências federais cessem o uso da tecnologia da Anthropic e deu ao Pentagon seis meses para eliminar gradualmente o Claude, o único modelo de IA de fronteira operando em redes militares classificadas, após a empresa se recusar a permitir uso militar irrestrito de sua inteligência artificial.

A Proibição e Seus Mecanismos

A diretiva de Trump, postada no Truth Social cerca de uma hora antes de expirar um prazo imposto pelo Pentagon às 17h01 ET de 27 de fevereiro, instruiu todas as agências governamentais a “CESSAR IMEDIATAMENTE todo uso da tecnologia da Anthropic”. Ele chamou a liderança da Anthropic de “malucos de esquerda” que cometeram um “ERRO DESASTROSO ao tentar CHANTAGEAR o Departamento de Guerra”, segundo o texto completo reproduzido por NPR, CNN, CNBC, Axios, Fortune e NBC News. O presidente acrescentou uma ameaça direta: a Anthropic “é melhor se organizar e ser útil durante este período de eliminação gradual, ou usarei todo o Poder da Presidência para fazê-los cumprir, com grandes consequências civis e criminais a seguir”.

Pouco depois do prazo expirar, o Secretário de Defesa Pete Hegseth designou a Anthropic como “Risco da Cadeia de Suprimentos para a Segurança Nacional” no X — uma classificação que a CNN e Fortune observaram ser normalmente reservada para entidades ligadas a adversários estrangeiros como China e Rússia. A designação exige que todos os contratados e fornecedores que fazem negócios com os militares americanos certifiquem que não conduzem atividade comercial com a Anthropic. A Administração de Serviços Gerais confirmou separadamente que removeria a Anthropic do USAi.gov, a plataforma centralizada de testes de IA do governo federal.

O Que a Anthropic Recusou

A disputa centra-se em um contrato no valor de até US$ 200 milhões que a Anthropic assinou com o Pentagon em julho de 2025 para fornecer o Claude em redes de defesa classificadas via empresa de análise de dados Palantir. Sob o acordo original, a política de uso aceitável da Anthropic proibia a implantação do Claude para vigilância doméstica em massa de americanos ou armas letais totalmente autônomas sem supervisão humana. O Pentagon exigiu que essas restrições fossem substituídas por linguagem permitindo uso “para todos os propósitos legais”, argumentando que a própria estrutura legal militar — não os termos de serviço de uma empresa privada — deveria governar decisões operacionais.

O CEO Dario Amodei rejeitou a exigência em uma declaração pública na quinta-feira. Ele argumentou que sistemas de IA de fronteira “não são confiáveis o suficiente para alimentar armas totalmente autônomas” e que IA poderosa agora pode costurar dados públicos individualmente inócuos em um retrato abrangente da vida de qualquer pessoa, criando capacidades de vigilância que a lei existente não aborda adequadamente, conforme relatado pela CNN, CNBC e Fortune. Ele chamou as duplas ameaças do Pentagon — invocar a Lei de Produção de Defesa da era da Guerra da Coreia para compelir conformidade enquanto simultaneamente rotula sua empresa como risco de segurança — de “inerentemente contraditórias: uma nos rotula como risco de segurança; a outra rotula o Claude como essencial para a segurança nacional”. A recusa da Anthropic em ceder antes do prazo de sexta-feira veio apesar de semanas de pressão crescente da liderança do Departamento de Defesa.

O Caso do Pentagon

Emil Michael, Subsecretário de Defesa para Pesquisa e Engenharia, respondeu chamando Amodei de “mentiroso” com “complexo de Deus” no X, segundo The Hill e CNN. Michael disse à CBS News que os militares ofereceram reconhecimentos escritos das leis federais de vigilância e convidaram a Anthropic para se juntar ao seu conselho de ética de IA. Um porta-voz da Anthropic rebateu que a nova linguagem contratual recebida durante a noite “não fez virtualmente nenhum progresso” e que termos “enquadrados como compromisso” foram “emparelhados com juridiquês que permitiria que essas salvaguardas fossem desconsideradas à vontade”. O porta-voz do Pentagon Sean Parnell manteve que os militares “não deixarão QUALQUER empresa ditar os termos sobre como tomamos decisões operacionais”.

Vale do Silício se Mobiliza

O confronto desencadeou a mobilização de funcionários mais significativa entre empresas desde a revolta do Google de 2018 contra o Project Maven. Mais de 300 funcionários do Google e mais de 60 funcionários da OpenAI assinaram uma carta aberta intitulada “Não Seremos Divididos”, pedindo à liderança para manter as linhas vermelhas da Anthropic, relataram TechCrunch e CNBC. Uma carta separada de sexta-feira de organizações trabalhistas incluindo a Alphabet Workers Union e Amazon Employees for Climate Justice — representando uma coalizão que a Bloomberg descreveu como abrangendo mais de 700.000 trabalhadores — instou a administração da Amazon, Google e Microsoft a “se recusar a cumprir” demandas similares do Pentagon.

O CEO da OpenAI Sam Altman disse à equipe em um memorando interno relatado pela BBC e Axios que a OpenAI compartilha as “linhas vermelhas” da Anthropic e que quaisquer contratos do Pentagon excluiriam vigilância doméstica e armas ofensivas autônomas. O General aposentado da Força Aérea Jack Shanahan, que supervisionou as iniciativas originais de IA do Pentagon, postou que as linhas vermelhas do Claude são “razoáveis”.

O Que Vem a Seguir

Perder apenas o contrato de US$ 200 milhões não colocaria em risco a Anthropic, recentemente avaliada em aproximadamente US$ 380 bilhões. O maior risco financeiro está na designação da cadeia de suprimentos. Adam Connor do Centro para o Progresso Americano disse à CNN que poderia causar “uma grande porção” da base de clientes empresariais da Anthropic a “evaporar” porque esses clientes ou detêm contratos governamentais ou aspiram ganhá-los. A designação também força a Palantir — que alimenta seu trabalho de defesa mais sensível através do Claude — a buscar um modelo alternativo. A xAI de Elon Musk tornou-se a segunda empresa autorizada para redes classificadas após concordar com o padrão “todos os propósitos legais” do Pentagon para o Grok, embora fontes da Axios disseram que é “improvável ser uma substituição equivalente”.

O Senador Mark Warner, vice-presidente do Comitê de Inteligência do Senado, alertou que a diretiva “levanta sérias preocupações sobre se decisões de segurança nacional estão sendo impulsionadas por análise cuidadosa ou considerações políticas”. A janela de eliminação gradual de seis meses agora marca o relógio no que pode se tornar o teste definitivo de se as principais empresas de IA da América aceitarão autoridade governamental irrestrita sobre sua tecnologia — ou se a resistência coletiva da indústria forçará uma renegociação completa dessas fronteiras.

Disclaimer: Finonity provides financial news and market analysis for informational purposes only. Nothing published on this site constitutes investment advice, a recommendation, or an offer to buy or sell any securities or financial instruments. Past performance is not indicative of future results. Always consult a qualified financial advisor before making investment decisions.
Mark Cullen
Mark Cullen
Senior Stocks Analyst — Mark Cullen is a Senior Stocks Analyst at Finonity covering global equity markets, corporate earnings, and IPO activity. A London-based professional with over 20 years of experience in communications and operations across financial, government, and institutional environments, Mark has worked with organisations including the City of London Corporation, LCH, and the UK's Department for Business, Energy and Industrial Strategy. His extensive background in strategic communications, market research, and stakeholder management — including coordinating financial services partnerships during COP26's Green Horizon Summit — informs his ability to distill complex market dynamics into clear, accessible analysis for investors.

Read more

Latest News