Trump interdit Anthropic de tous les systèmes fédéraux, le Pentagon qualifie l’entreprise d’IA de risque de sécurité nationale

Share

Reading time: 6 min

Le président Donald Trump a ordonné vendredi à toutes les agences fédérales de cesser d’utiliser la technologie d’Anthropic et a donné six mois au Pentagon pour éliminer progressivement Claude, le seul modèle d’IA de pointe opérant sur les réseaux militaires classifiés, après que l’entreprise ait refusé d’autoriser l’usage militaire sans restriction de son intelligence artificielle.

L’interdiction et ses mécanismes

La directive de Trump, publiée sur Truth Social environ une heure avant l’expiration d’une échéance de 17h01 ET imposée par le Pentagon le 27 février, ordonnait à toutes les agences gouvernementales de « CESSER IMMÉDIATEMENT tout usage de la technologie d’Anthropic ». Il a qualifié la direction d’Anthropic de « tarés de gauche » qui avaient commis une « ERREUR DÉSASTREUSE en tentant de FORCER la main au Département de la Guerre », selon le texte intégral reproduit par NPR, CNN, CNBC, Axios, Fortune et NBC News. Le président a ajouté une menace directe : Anthropic avait intérêt à « se ressaisir et être utile pendant cette période d’élimination progressive, ou j’utiliserai tout le Pouvoir de la Présidence pour les contraindre, avec des conséquences civiles et pénales majeures à suivre ».

Peu après l’expiration de l’échéance, le secrétaire à la Défense Pete Hegseth a désigné Anthropic comme un « Risque de chaîne d’approvisionnement pour la sécurité nationale » sur X — une classification que CNN et Fortune ont noté être normalement réservée aux entités liées à des adversaires étrangers comme la Chine et la Russie. Cette désignation exige que chaque contractant et fournisseur travaillant avec l’armée américaine certifie qu’il ne mène aucune activité commerciale avec Anthropic. L’Administration des services généraux a séparément confirmé qu’elle retirerait Anthropic d’USAi.gov, la plateforme centralisée de test d’IA du gouvernement fédéral.

Ce qu’Anthropic a refusé

Le différend porte sur un contrat d’une valeur pouvant atteindre 200 millions de dollars qu’Anthropic a signé avec le Pentagon en juillet 2025 pour fournir Claude sur les réseaux de défense classifiés via l’entreprise d’analyse de données Palantir. Sous l’accord original, la politique d’usage acceptable d’Anthropic interdisait le déploiement de Claude pour la surveillance de masse domestique des Américains ou les armes létales entièrement autonomes sans supervision humaine. Le Pentagon a exigé que ces restrictions soient remplacées par un langage permettant l’usage « à toutes fins légales », arguant que le cadre juridique propre à l’armée — et non les conditions d’utilisation d’une entreprise privée — devrait gouverner les décisions opérationnelles.

Le PDG Dario Amodei a rejeté cette demande dans une déclaration publique jeudi. Il a argumenté que les systèmes d’IA de pointe ne sont « pas assez fiables pour alimenter des armes entièrement autonomes » et qu’une IA puissante peut désormais assembler des données publiques individuellement inoffensives en un portrait complet de la vie de toute personne, créant des capacités de surveillance que la loi existante n’aborde pas adéquatement, selon CNN, CNBC et Fortune. Il a qualifié les deux menaces du Pentagon — invoquer la Loi de production de défense de l’époque de la guerre de Corée pour contraindre la conformité tout en étiquetant simultanément son entreprise comme un risque sécuritaire — d’« intrinsèquement contradictoires : l’une nous étiquette comme un risque sécuritaire ; l’autre étiquette Claude comme essentiel à la sécurité nationale ». Le refus d’Anthropic de céder avant l’échéance de vendredi est venu malgré des semaines de pression croissante de la direction du Département de la Défense.

Le dossier du Pentagon

Emil Michael, sous-secrétaire à la Défense pour la recherche et l’ingénierie, a répondu en qualifiant Amodei de « menteur » avec un « complexe de Dieu » sur X, selon The Hill et CNN. Michael a dit à CBS News que l’armée avait offert des reconnaissances écrites des lois fédérales de surveillance et invité Anthropic à rejoindre son conseil d’éthique de l’IA. Un porte-parole d’Anthropic a rétorqué que le nouveau langage contractuel reçu pendant la nuit « n’avait fait virtuellement aucun progrès » et que les termes « présentés comme un compromis » étaient « accompagnés de jargon juridique qui permettrait d’ignorer ces protections à volonté ». Le porte-parole du Pentagon Sean Parnell a maintenu que l’armée ne « laisserait AUCUNE entreprise dicter les termes concernant la façon dont nous prenons les décisions opérationnelles ».

La Silicon Valley se mobilise

La confrontation a déclenché la mobilisation inter-entreprises d’employés la plus significative depuis la révolte de Google de 2018 contre le Projet Maven. Plus de 300 employés de Google et plus de 60 employés d’OpenAI ont signé une lettre ouverte intitulée « Nous ne serons pas divisés », appelant la direction à maintenir les lignes rouges d’Anthropic, ont rapporté TechCrunch et CNBC. Une lettre séparée de vendredi d’organisations syndicales incluant l’Alphabet Workers Union et Amazon Employees for Climate Justice — représentant une coalition que Bloomberg a décrite comme englobant plus de 700 000 travailleurs — a pressé les directions d’Amazon, Google et Microsoft de « refuser de se conformer » à des demandes similaires du Pentagon.

Le PDG d’OpenAI Sam Altman a dit au personnel dans un mémo interne rapporté par la BBC et Axios qu’OpenAI partage les « lignes rouges » d’Anthropic et que tout contrat avec le Pentagon exclurait la surveillance domestique et les armes offensives autonomes. Le général de l’Air Force à la retraite Jack Shanahan, qui supervisait les initiatives d’IA originales du Pentagon, a posté que les lignes rouges de Claude sont « raisonnables ».

Ce qui vient ensuite

Perdre le contrat de 200 millions de dollars seul ne mettrait pas en péril Anthropic, récemment évaluée à environ 380 milliards de dollars. Le risque financier plus grand réside dans la désignation de chaîne d’approvisionnement. Adam Connor au Centre for American Progress a dit à CNN que cela pourrait causer l’« évaporation » d’« une grande partie » de la base de clients entreprise d’Anthropic parce que ces clients détiennent soit des contrats gouvernementaux soit aspirent à en remporter. La désignation force aussi Palantir — qui alimente son travail de défense le plus sensible via Claude — à trouver un modèle alternatif. La xAI d’Elon Musk est devenue la deuxième entreprise autorisée sur les réseaux classifiés après avoir accepté la norme « toutes fins légales » du Pentagon pour Grok, bien que des sources d’Axios aient dit qu’il est « peu probable d’être un remplacement équivalent ».

Le sénateur Mark Warner, vice-président du Comité sénatorial du renseignement, a averti que la directive « soulève de sérieuses préoccupations quant à savoir si les décisions de sécurité nationale sont guidées par une analyse minutieuse ou des considérations politiques ». La fenêtre d’élimination progressive de six mois lance maintenant le compte à rebours sur ce qui pourrait devenir le test déterminant de savoir si les principales entreprises d’IA américaines accepteront l’autorité gouvernementale sans restriction sur leur technologie — ou si la résistance collective de l’industrie forcera une renégociation complète de ces limites.

Avertissement : Finonity fournit des informations financières et des analyses de marché à titre informatif uniquement. Rien de publié sur ce site ne constitue un conseil en investissement, une recommandation ou une offre d'achat ou de vente de titres ou d'instruments financiers. Les performances passées ne préjugent pas des résultats futurs. Consultez toujours un conseiller financier qualifié avant de prendre des décisions d'investissement.
Mark Cullen
Mark Cullen
Senior Stocks Analyst — Mark Cullen is a Senior Stocks Analyst at Finonity covering global equity markets, corporate earnings, and IPO activity. A London-based professional with over 20 years of experience in communications and operations across financial, government, and institutional environments, Mark has worked with organisations including the City of London Corporation, LCH, and the UK's Department for Business, Energy and Industrial Strategy. His extensive background in strategic communications, market research, and stakeholder management — including coordinating financial services partnerships during COP26's Green Horizon Summit — informs his ability to distill complex market dynamics into clear, accessible analysis for investors.

Read more

Latest News