Reading time: 5 min
El presidente Donald Trump ordenó el viernes a todas las agencias federales que cesaran el uso de la tecnología de Anthropic y dio al Pentágono seis meses para eliminar gradualmente Claude, el único modelo de IA de vanguardia que opera en redes militares clasificadas, después de que la empresa se negara a permitir el uso militar sin restricciones de su inteligencia artificial.
La Prohibición y Sus Mecanismos
La directiva de Trump, publicada en Truth Social aproximadamente una hora antes de que expirara una fecha límite impuesta por el Pentágono a las 5:01 PM ET del 27 de febrero, instruyó a todas las agencias gubernamentales a “CESAR INMEDIATAMENTE todo uso de la tecnología de Anthropic”. Llamó al liderazgo de Anthropic “locos de izquierda” que habían cometido un “ERROR DESASTROSO al tratar de PRESIONAR al Departamento de Guerra”, según el texto completo reproducido por NPR, CNN, CNBC, Axios, Fortune y NBC News. El presidente añadió una amenaza directa: Anthropic tenía que “poner orden en sus asuntos y ser útiles durante este período de eliminación gradual, o usaré todo el Poder de la Presidencia para hacerlos cumplir, con importantes consecuencias civiles y penales que seguirán”.
Poco después de que pasara la fecha límite, el Secretario de Defensa Pete Hegseth designó a Anthropic como un “Riesgo de Cadena de Suministro para la Seguridad Nacional” en X — una clasificación que CNN y Fortune señalaron normalmente se reserva para entidades vinculadas a adversarios extranjeros como China y Rusia. La designación requiere que cada contratista y proveedor que haga negocios con el ejército estadounidense certifique que no conduce actividad comercial con Anthropic. La Administración de Servicios Generales confirmó por separado que eliminaría a Anthropic de USAi.gov, la plataforma centralizada de pruebas de IA del gobierno federal.
Lo Que Anthropic Rechazó
La disputa se centra en un contrato valorado en hasta $200 millones que Anthropic firmó con el Pentágono en julio de 2025 para proporcionar Claude en redes de defensa clasificadas a través de la empresa de análisis de datos Palantir. Bajo el acuerdo original, la política de uso aceptable de Anthropic prohibía el despliegue de Claude para vigilancia masiva doméstica de estadounidenses o armas letales completamente autónomas sin supervisión humana. El Pentágono exigió que esas restricciones fueran reemplazadas con lenguaje que permitiera el uso “para todos los propósitos legales”, argumentando que el marco legal propio del ejército — no los términos de servicio de una empresa privada — debería gobernar las decisiones operacionales.
El CEO Dario Amodei rechazó la demanda en una declaración pública el jueves. Argumentó que los sistemas de IA de vanguardia “no son lo suficientemente confiables para alimentar armas completamente autónomas” y que la IA poderosa ahora puede unir datos públicos individualmente inocuos en un retrato integral de la vida de cualquier persona, creando capacidades de vigilancia que la ley existente no aborda adecuadamente, según reportaron CNN, CNBC y Fortune. Llamó a las amenazas gemelas del Pentágono — invocar la Ley de Producción para la Defensa de la era de la Guerra de Corea para obligar el cumplimiento mientras simultáneamente etiquetaba a su empresa como un riesgo de seguridad — “inherentemente contradictorias: una nos etiqueta como un riesgo de seguridad; la otra etiqueta a Claude como esencial para la seguridad nacional”. La negativa de Anthropic a ceder antes de la fecha límite del viernes llegó a pesar de semanas de presión escalada del liderazgo del Departamento de Defensa.
El Caso del Pentágono
Emil Michael, Subsecretario de Defensa para Investigación e Ingeniería, respondió llamando a Amodei “un mentiroso” con un “complejo de Dios” en X, según The Hill y CNN. Michael dijo a CBS News que el ejército había ofrecido reconocimientos escritos de las leyes federales de vigilancia e invitó a Anthropic a unirse a su junta de ética de IA. Un portavoz de Anthropic contrarrestó que el nuevo lenguaje contractual recibido durante la noche “hizo virtualmente ningún progreso” y que los términos “enmarcados como compromiso” estaban “emparejados con jerga legal que permitiría que esas salvaguardas fueran ignoradas a voluntad”. El portavoz del Pentágono Sean Parnell mantuvo que el ejército “no permitirá a NINGUNA empresa dictar los términos sobre cómo tomamos decisiones operacionales”.
Silicon Valley se Moviliza
La confrontación desencadenó la movilización de empleados entre empresas más significativa desde la revuelta de Google de 2018 contra Project Maven. Más de 300 empleados de Google y más de 60 empleados de OpenAI firmaron una carta abierta titulada “No Seremos Divididos”, pidiendo al liderazgo que mantenga las líneas rojas de Anthropic, reportaron TechCrunch y CNBC. Una carta separada del viernes de organizaciones laborales incluyendo el Alphabet Workers Union y Amazon Employees for Climate Justice — representando una coalición que Bloomberg describió como abarcando más de 700,000 trabajadores — instó a la gerencia de Amazon, Google y Microsoft a “negarse a cumplir” con demandas similares del Pentágono.
El CEO de OpenAI Sam Altman dijo al personal en un memo interno reportado por la BBC y Axios que OpenAI comparte las “líneas rojas” de Anthropic y que cualquier contrato del Pentágono excluiría vigilancia doméstica y armas ofensivas autónomas. El General retirado de la Fuerza Aérea Jack Shanahan, quien supervisó las iniciativas originales de IA del Pentágono, publicó que las líneas rojas de Claude son “razonables”.
Lo Que Viene Después
Perder solo el contrato de $200 millones no pondría en peligro a Anthropic, recientemente valorada en aproximadamente $380 mil millones. El mayor riesgo financiero radica en la designación de cadena de suministro. Adam Connor en el Centre for American Progress dijo a CNN que podría causar que “una gran porción” de la base de clientes empresariales de Anthropic se “evapore” porque esos clientes tienen contratos gubernamentales o aspiran a ganarlos. La designación también fuerza a Palantir — que alimenta su trabajo de defensa más sensible a través de Claude — a buscar un modelo alternativo. La xAI de Elon Musk se ha convertido en la segunda empresa autorizada para redes clasificadas después de aceptar el estándar de “todos los propósitos legales” del Pentágono para Grok, aunque fuentes de Axios dijeron que es “poco probable que sea un reemplazo equivalente”.
El senador Mark Warner, vicepresidente del Comité de Inteligencia del Senado, advirtió que la directiva “plantea serias preocupaciones sobre si las decisiones de seguridad nacional están siendo impulsadas por análisis cuidadoso o consideraciones políticas”. La ventana de eliminación gradual de seis meses ahora pone el reloj en lo que puede convertirse en la prueba definitiva de si las principales empresas de IA de Estados Unidos aceptarán autoridad gubernamental sin restricciones sobre su tecnología — o si la resistencia colectiva de la industria forzará una renegociación completa de esos límites.