Anthropic Desafía al Pentágono: La Fecha Límite Es Hoy

Share

Reading time: 8 min

El CEO de Anthropic, Dario Amodei, rechazó la “mejor y última oferta” del Pentágono el jueves por la noche, diciendo que la empresa preferiría perder su contrato de defensa de $200 millones antes que permitir que Claude sea usado para vigilancia masiva de estadounidenses o armas completamente autónomas. La fecha límite del Secretario de Defensa Pete Hegseth expira a las 5:01pm ET hoy — viernes, 27 de febrero — después de lo cual el Pentágono ha amenazado con invocar la Ley de Producción de Defensa, designar a Anthropic como un riesgo de cadena de suministro, o ambos. A partir de esta mañana, Anthropic no ha cedido.

Sobre Qué Están Realmente Luchando

La disputa es más estrecha de lo que sugieren los titulares. Anthropic no se está negando a trabajar con los militares — Claude ya es el único modelo de IA operando en las redes clasificadas del Pentágono, desplegado a través de una asociación con Palantir bajo un contrato otorgado el pasado julio. Fue usado en la operación de enero que capturó al presidente venezolano Nicolás Maduro. La empresa ha abogado por controles de exportación de chips a China y ha personalizado modelos para clientes de seguridad nacional.

La lucha es sobre dos restricciones específicas que Anthropic insiste en mantener. Primero, que Claude no sea usado para vigilancia doméstica masiva de ciudadanos estadounidenses. Segundo, que no tome decisiones finales de objetivos en operaciones militares sin participación humana — lo que Amodei llama “armas completamente autónomas”. Una fuente familiarizada con las negociaciones le dijo a CBS News que la posición de Anthropic refleja parcialmente una preocupación técnica: Claude no es inmune a alucinaciones y no es lo suficientemente confiable para evitar errores potencialmente letales sin juicio humano en el circuito.

El Pentágono quiere “todos los propósitos legales” — sin exclusiones, sin restricciones impuestas por la empresa. Un oficial senior del Pentágono le dijo a CNN que el asunto “no tiene nada que ver con el uso de vigilancia masiva y armas autónomas” porque el departamento “siempre ha seguido la ley”. Sean Parnell, el portavoz principal del Pentágono, lo enmarcó más directamente en X: “NO permitiremos que NINGUNA empresa dicte los términos sobre cómo tomamos decisiones operacionales”.

Siete Días en Febrero

La confrontación se ha movido rápido. El 13 de febrero, Axios y el Wall Street Journal reportaron que Claude había sido usado en la redada de Maduro a través de la asociación Anthropic-Palantir. Un oficial senior del Pentágono afirmó que un ejecutivo de Anthropic posteriormente contactó a un ejecutivo de Palantir para preguntar si Claude estaba involucrado, planteándolo “de tal manera que implicara que podrían desaprobarlo”. Anthropic negó rotundamente esto, diciendo que no había discutido el uso de Claude para operaciones específicas con el Pentágono o Palantir “fuera de discusiones rutinarias sobre asuntos estrictamente técnicos”.

El intercambio con Palantir — disputado como es — parece haber sido el detonante. Para el 15 de febrero, Axios reportó que el Pentágono estaba cerca de cortar lazos completamente. Para el 17 de febrero, Parnell confirmó que la relación del departamento con Anthropic estaba “siendo revisada”. El 23 de febrero, xAI firmó un acuerdo para traer Grok a sistemas clasificados bajo el estándar de “todos los propósitos legales” — dando al Pentágono al menos una alternativa teórica, aunque los oficiales de defensa reconocen que reemplazar Claude sería técnicamente difícil y consumiría mucho tiempo.

Luego llegó el martes, 24 de febrero. Hegseth convocó a Amodei al Pentágono. La sala estaba llena de altos mandos: el Subsecretario Steve Feinberg, el Subsecretario de Investigación e Ingeniería Emil Michael, el Subsecretario de Adquisición y Sostenimiento Michael Duffey, el consejero general Earl Matthews, y Parnell. Una fuente describió la atmósfera como “no cálida y acogedora”. Otra dijo que se mantuvo cordial, con Hegseth elogiando el desempeño de Claude. Ambos relatos coinciden en la sustancia: Hegseth le dijo a Amodei que firmara un documento otorgando acceso completo para el viernes por la noche o enfrentar consecuencias.

Tres Amenazas, Una Contradicción

El Pentágono puso tres opciones sobre la mesa. Primero, terminar el contrato. Segundo, designar a Anthropic como un “riesgo de cadena de suministro” — una clasificación típicamente reservada para firmas adversarias extranjeras como Huawei — que obligaría a cada contratista del Pentágono a certificar que Claude no se usa en sus flujos de trabajo militares. Tercero, invocar la Ley de Producción de Defensa para obligar a Anthropic a proporcionar Claude sin restricciones, una medida que la DPA autoriza cuando los productos se consideran críticos para la defensa nacional.

Amodei notó la paradoja en su publicación de blog del jueves. Las amenazas “son inherentemente contradictorias: una nos etiqueta como un riesgo de seguridad; la otra etiqueta a Claude como esencial para la seguridad nacional”. Reiteró que Anthropic “cree profundamente en la importancia existencial de usar IA para defender a Estados Unidos”, que el Pentágono “no las empresas privadas, toma decisiones militares”, pero que en un conjunto estrecho de casos que involucran vigilancia y armas autónomas, “la IA puede socavar, en lugar de defender, los valores democráticos”.

La oferta final del Pentágono llegó el miércoles por la noche — menos de 48 horas antes de la fecha límite. Anthropic dijo que el lenguaje del contrato “no hizo virtualmente ningún progreso” en sus dos preocupaciones. El nuevo lenguaje enmarcado como compromiso fue “emparejado con jerga legal que permitiría que esas salvaguardas fueran desestimadas a voluntad”, dijo un portavoz a The Hill. Una fuente describió las adiciones como diseñadas para sonar como concesiones pero funcionando como escapes. La respuesta del jueves por la noche de Amodei fue inequívoca: “No podemos en buena conciencia acceder a su solicitud”.

El Panorama Competitivo Cambia

El momento no es accidental. El mismo día que Amodei entró al Pentágono, Anthropic publicó la versión 3.0 de su Política de Escalamiento Responsable — una revisión significativa que eliminó el compromiso duro original de la empresa de pausar el entrenamiento de modelos si las medidas de seguridad no se probaban adecuadas. El Director Científico Jared Kaplan le dijo a TIME que “realmente no ayudaría a nadie que dejáramos de entrenar modelos de IA” cuando “los competidores están avanzando a toda velocidad”. La actualización del RSP separa lo que Anthropic hará unilateralmente de lo que recomienda que la industria adopte colectivamente — un reconocimiento tácito de que las restricciones autoimpuestas solo funcionan si los competidores siguen el ejemplo.

No lo han hecho. OpenAI, Google y xAI han acordado el estándar de “todos los propósitos legales” para sistemas militares no clasificados. Grok es ahora el primer modelo no-Claude aprobado para uso clasificado. Se reporta que Gemini de Google está cerca de un trato clasificado. OpenAI está más atrás pero las negociaciones se han intensificado. Si el Pentágono sigue adelante con la designación de riesgo de cadena de suministro, Anthropic no solo perdería un contrato — sería funcionalmente excluida de todo el ecosistema de defensa en un momento en que está tratando de escalar su negocio empresarial. El patrón más amplio de influencia gubernamental sobre empresas tecnológicas privadas se está volviendo difícil de ignorar.

La influencia de Anthropic es más estrecha pero real. Claude sigue siendo, por admisión del propio Pentágono, el modelo más capaz para aplicaciones militares sensibles. Un oficial de defensa le dijo a Axios: “La única razón por la que seguimos hablando con esta gente es que los necesitamos y los necesitamos ahora. El problema para estos tipos es que son así de buenos”. Reemplazar Claude en redes clasificadas no es una actualización de software — es un proyecto de integración que podría tomar meses, durante los cuales las capacidades de IA más avanzadas del Pentágono se degradarían.

Qué Pasa a las 5:01

Si la fecha límite pasa sin acuerdo, el Pentágono tiene tres movimientos. La designación de riesgo de cadena de suministro es la más inmediatamente dañina para la posición comercial de Anthropic. La invocación de DPA es la más legalmente controvertida — Anthropic podría argumentar que no está proporcionando un producto comercialmente disponible sino software construido a medida para uso clasificado, aunque tal desafío tomaría meses en resolverse. La terminación del contrato es la más simple pero la que más daña al Pentágono, ya que ningún reemplazo está listo.

Amodei ofreció una salida en su declaración del jueves: “Si el Departamento elige dar de baja a Anthropic, trabajaremos para permitir una transición suave a otro proveedor, evitando cualquier interrupción a la planificación militar continua, operaciones u otras misiones críticas”. La oferta de ayudar al Pentágono a irse es en sí misma una señal de negociación — comunica que Anthropic está preparada para absorber el golpe de ingresos en lugar de cruzar sus líneas rojas declaradas.

La pregunta más profunda es precedencial. Si el Pentágono puede obligar a una empresa privada a eliminar restricciones de seguridad de un sistema de IA a través de amenazas de inclusión en lista negra, el marco de gobernanza de cada laboratorio de IA se vuelve negociable bajo presión. Si Anthropic mantiene la línea y sobrevive comercialmente, establece que hay límites a lo que el aparato de seguridad nacional puede exigir de los proveedores de tecnología. Cualquier resultado remodela la relación entre Silicon Valley y el estado para la era de la IA. El reloj se agota esta noche.

Fuentes: Axios, CNN, CBS News, NPR, The Hill

Disclaimer: Finonity provides financial news and market analysis for informational purposes only. Nothing published on this site constitutes investment advice, a recommendation, or an offer to buy or sell any securities or financial instruments. Past performance is not indicative of future results. Always consult a qualified financial advisor before making investment decisions.
Mark Cullen
Mark Cullen
Senior Stocks Analyst — Mark Cullen is a Senior Stocks Analyst at Finonity covering global equity markets, corporate earnings, and IPO activity. A London-based professional with over 20 years of experience in communications and operations across financial, government, and institutional environments, Mark has worked with organisations including the City of London Corporation, LCH, and the UK's Department for Business, Energy and Industrial Strategy. His extensive background in strategic communications, market research, and stakeholder management — including coordinating financial services partnerships during COP26's Green Horizon Summit — informs his ability to distill complex market dynamics into clear, accessible analysis for investors.

Read more

Latest News