Anthropic desafía al Pentágono y Trump ordena el boicot

El presidente ordena a las agencias federales cesar de forma inmediata el uso de la tecnología de la compañía, que se negó a que el Pentágono emplease su IA Claude sin restricciones en armas autónomas y vigilancia doméstica masiva

OpenAI capta 110.000 millones de dólares de Amazon, Nvidia y SoftBank y redefine el mapa global de la IA

Claude, de Anthropic.
Claude, de Anthropic. / Anthropic
Susana C. Gómez

27 de febrero 2026 - 23:28

El presidente Donald Trump ordenó este viernes a todas las agencias federales cesar de forma inmediata el uso de la tecnología de Anthropic, tras la negativa de la compañía a permitir que el Pentágono emplee su inteligencia artificial Claude sin restricciones en armas autónomas y vigilancia doméstica masiva.

El Departamento de Guerra había fijado esa misma jornada como fecha límite para que la empresa aceptara sus condiciones o perdiera sus contratos de defensa, valorados en 200 millones de dólares. Anthropic se negó, y Trump convirtió un conflicto contractual en una orden presidencial publicada en mayúsculas en Truth Social.

El Departamento de Guerra de la primera potencia mundial se ha visto envuelto en una disputa contractual con una empresa de inteligencia artificial porque esta se niega a permitir que su tecnología espíe a ciudadanos o dispare misiles sin supervisión humana.

Que el conflicto acabe con un mensaje en redes sociales perfila el momento histórico que atraviesa Estados Unidos: uno en el que las instituciones del Estado han comenzado a moverse a la misma velocidad impulsiva que los tuits de su presidente.

Los límites éticos de la tecnología del siglo XXI

El enfrentamiento entre Anthropic y el Pentágono, que escaló esta semana hasta niveles que pocos analistas habrían anticipado hace unos meses, no es un simple desacuerdo comercial.

Es el primer gran choque doctrinal entre el poder ejecutivo de Trump y la industria de la IA en torno a una pregunta que el siglo XXI no puede seguir aplazando: ¿quién decide cómo y para qué se usa una tecnología capaz de cambiar la naturaleza misma de la guerra, la vigilancia y el poder?

El ultimátum y la negativa

La tensión había venido gestándose desde julio de 2025, cuando Anthropic firmó un contrato de 200 millones de dólares con el Departamento de Guerra para desarrollar capacidades de inteligencia artificial aplicadas a la seguridad nacional.

Claude, el modelo de lenguaje de la compañía, se desplegó en redes clasificadas, laboratorios nacionales y agencias de inteligencia. La empresa se enorgullecía, con razón, de haber sido la primera compañía del sector en alcanzar ese nivel de integración en el aparato de defensa estadounidense.

Pero el acuerdo tenía condiciones. Anthropic había introducido en su contrato dos salvaguardas explícitas: la prohibición de usar Claude para vigilancia doméstica masiva y la prohibición de integrarlo en sistemas de armas totalmente autónomas, es decir, aquellas que seleccionan y atacan objetivos sin intervención humana. Dos líneas rojas que la empresa consideraba, y considera, innegociables.

El Pentágono no lo veía así. Según informó The Washington Post, el jefe tecnológico del Departamento llegó a plantear el escenario en los términos más dramáticos posibles durante una reunión: si un misil balístico intercontinental se dirigiera hacia suelo americano, ¿podría el ejército usar Claude para derribarlo?

La pregunta, cargada de retórica de guerra fría, era en realidad una palanca para forzar la rendición de las garantías contractuales. El Pentágono quería luz verde para "cualquier uso legal". Anthropic se negó.

El plazo expiró este viernes. Y lo que vino después fue una escalada de manual autoritario.

Trump entra en escena, en mayúsculas

"Ordeno a TODAS las agencias federales del Gobierno de Estados Unidos que CESE INMEDIATAMENTE todo uso de la tecnología de Anthropic. ¡No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos!" La prosa presidencial, con sus mayúsculas y sus signos de exclamación, dice más sobre el estado de las instituciones americanas que cualquier análisis politológico.

Trump añadió que las agencias tendrían seis meses de transición y advirtió a Anthropic de que usaría "todo el poder de la presidencia" para obligarla a cumplir, con "importantes consecuencias civiles y penales".

Los "locos de izquierda de Anthropic", en terminología presidencial, habían cometido un "ERROR DESASTROSO". La empresa, fundada en 2021 por Dario Amodei y varios ex miembros de OpenAI con un enfoque declaradamente orientado a la seguridad de la IA, pasaba así de ser contratista privilegiado de defensa a enemigo político de la administración.

Entre las amenazas, destacaba una: la posible invocación de la Ley de Producción de Defensa, una normativa de 1950 concebida durante la Guerra de Corea que permite al presidente obligar a empresas privadas a priorizar contratos gubernamentales en nombre de la seguridad nacional.

Nunca antes se había aplicado a una compañía tecnológica americana. El propio Sam Altman, director ejecutivo de OpenAI y competidor directo de Anthropic, declaró a la CNBC que no creía que el Pentágono debiera invocarla.

La respuesta de Amodei: firmeza con guante de terciopelo

El comunicado de Dario Amodei, director ejecutivo de Anthropic, merece una lectura detenida, porque es un texto que equilibra con habilidad la lealtad patriótica y la resistencia principista.

Amodei comienza recordando que Anthropic ha sido la primera empresa del sector en desplegar modelos en redes clasificadas, en los laboratorios nacionales y en clientes de seguridad nacional. Ha renunciado a cientos de millones de dólares en ingresos para cortar el acceso a empresas vinculadas al Partido Comunista Chino. Ha apoyado controles de exportación de chips para preservar la ventaja tecnológica democrática. Que nadie le llame antipatriota.

Pero a continuación traza sus límites con una claridad que contrasta con la grandilocuencia del poder al que se dirige. La vigilancia masiva doméstica, argumenta, es incompatible con los valores democráticos no solo por razones morales, sino porque la ley simplemente no ha tenido tiempo de adaptarse a lo que la inteligencia artificial hace posible hoy: agregar datos dispersos e individualmente inocuos sobre los movimientos, la navegación web y las asociaciones de cualquier ciudadano para construir, automáticamente y a escala masiva, un retrato completo de su vida privada.

En cuanto a las armas autónomas, el argumento es técnico además de ético: los sistemas actuales de inteligencia artificial, incluido Claude, no son suficientemente fiables para tomar decisiones de vida o muerte sin supervisión humana. Poner esa responsabilidad en manos de un modelo de lenguaje no es solo arriesgado para los civiles; es un riesgo para los propios soldados americanos. Anthropic ofreció colaborar en investigación y desarrollo para mejorar esa fiabilidad. El Pentágono rechazó la oferta.

La conclusión del comunicado tiene la elegancia de quien sabe que ha perdido un contrato pero quizás está ganando un argumento histórico: si el Departamento decide prescindir de Anthropic, la empresa facilitará la transición al nuevo proveedor. Sus modelos seguirán disponibles en los términos que ha propuesto. Y permanece lista para seguir apoyando la seguridad nacional, con sus salvaguardas intactas.

OpenAI tantea el terreno, con cautela

Mientras Anthropic aguantaba el pulso, OpenAI movía sus fichas con la cautela de quien observa una tormenta desde la orilla y calcula si merece la pena mojarse. Sam Altman reveló en una nota interna, obtenida por The Wall Street Journal, que su empresa negocia con el Pentágono el despliegue de sus modelos en entornos clasificados, aunque reconoció que las conversaciones podrían fracasar.

La hoja de ruta de Altman se parece sospechosamente a la posición de Anthropic: sí a los usos legales, no a la vigilancia doméstica ni a las armas ofensivas autónomas. La diferencia, quizás, es que OpenAI confía en salvaguardas técnicas, no contractuales, para hacer cumplir esos límites. Un matiz que podría resultar crucial, o podría ser simplemente una negociación más hábil.

"A pesar de todas las diferencias que tengo con Anthropic, confío principalmente en ellos como empresa", dijo Altman. Una declaración de solidaridad gremial, tibia pero significativa, en el momento más delicado para el sector.

El elefante en la habitación: Grok

Todo este escenario adquiere una dimensión adicional cuando se conocen los detalles que The Wall Street Journal publicó sobre las alternativas que la administración Trump contempla para sustituir a Anthropic. La favorita de ciertos altos funcionarios, incluida gente próxima a la Casa Blanca, sería Grok, la inteligencia artificial de Elon Musk integrada en la red social X.

El problema es que el propio gobierno tiene dudas sobre ella. Ed Forst, principal funcionario de la Administración de Servicios Generales, habría alertado a la Casa Blanca sobre posibles problemas de seguridad. Varios trabajadores de la agencia consideran a Grok "demasiado susceptible a la manipulación o corrupción por datos erróneos o sesgados".

La jefa de gabinete Susie Wiles contactó directamente con un alto ejecutivo de xAI para expresar su preocupación por la generación de imágenes sexualizadas sin consentimiento. Y el propio jefe de IA del Pentágono dimitió hace dos semanas, en parte porque sentía que la seguridad y la gobernanza habían pasado a un segundo plano en el Departamento de Guerra.

La paradoja es difícil de ignorar: la administración Trump presiona a Anthropic para que elimine sus salvaguardas de seguridad mientras sus propios funcionarios advierten sobre los riesgos de seguridad de la alternativa que algunos en esa misma administración prefieren, entre otras razones, porque el jefe de xAI tiene buenas relaciones con el presidente.

Un precedente que trasciende el contrato

Lo que está en juego en este conflicto va mucho más allá de un contrato de 200 millones de dólares o de las operaciones cotidianas del ejército estadounidense. Es la primera batalla abierta sobre quién tiene la última palabra en el diseño ético de los sistemas de inteligencia artificial cuando estos se integran en el aparato de seguridad del Estado.

Las empresas del sector llevan años debatiendo internamente sobre los límites aceptables del uso de su tecnología. Anthropic ha construido su identidad corporativa precisamente sobre esa pregunta. Pero hasta ahora, esos debates se habían mantenido en el plano de los principios, los documentos de política interna y las conferencias académicas. El ultimátum del Pentágono y la subsiguiente orden presidencial los han trasladado al territorio más concreto de las consecuencias reales.

Si Anthropic cede, sienta el precedente de que las empresas de IA pueden ser presionadas para desactivar sus mecanismos de control bajo amenaza de represalias gubernamentales.

Si mantiene su posición y el gobierno cumple sus amenazas, el precedente no es mucho más tranquilizador: que la administración está dispuesta a tratar a sus propios contratistas tecnológicos como adversarios estratégicos cuando no se alinean con su agenda.

En cualquiera de los dos casos, el sector de la inteligencia artificial entra en una fase nueva, más turbulenta y menos cómoda. Una en la que las preguntas sobre para qué sirve esta tecnología y quién controla sus límites ya no son filosóficas. Son urgentes, concretas y, como ha demostrado esta semana, potencialmente peligrosas.

stats