El pulso entre Anthropic y el Pentágono por el uso militar de Claude

Última actualización: 16/02/2026

  • El Pentágono amenaza con revisar un contrato de hasta 200 millones de dólares con Anthropic por sus límites al uso militar de Claude.
  • Claude habría sido empleado en la operación estadounidense para capturar a Nicolás Maduro en Caracas dentro de redes clasificadas.
  • Anthropic veta la vigilancia masiva y las armas totalmente autónomas, en choque con la doctrina de “todos los fines legales” del Departamento de Defensa.
  • El caso abre un precedente global sobre quién controla los usos militares de la IA avanzada y hasta dónde pueden llegar las cláusulas éticas privadas.
Anthropic Pentágono

El enfrentamiento entre Anthropic y el Pentágono se ha convertido en uno de los casos más llamativos sobre hasta dónde puede llegar el uso militar de la inteligencia artificial generativa. Lo que comenzó como un acuerdo estratégico para desplegar el modelo Claude en redes clasificadas del Departamento de Defensa de Estados Unidos ha acabado derivando en un pulso directo sobre los límites éticos y operativos de esta tecnología.

En el centro del conflicto está la exigencia del Pentágono de poder utilizar los modelos de Anthropic para “todos los fines legales”, frente a la negativa de la compañía a permitir ciertos usos, especialmente en vigilancia masiva de población y en sistemas de armamento totalmente autónomos. La tensión se ha disparado tras revelarse que Claude habría sido utilizado en la operación estadounidense que culminó con la captura de Nicolás Maduro en Caracas.

Un contrato millonario bajo amenaza

Inteligencia artificial y defensa

Anthropic firmó en verano un acuerdo con el Departamento de Defensa valorado en hasta 200 millones de dólares, convirtiéndose en uno de los primeros laboratorios de IA avanzada en desplegar sus modelos en redes clasificadas del Pentágono. Claude, adaptado para usos gubernamentales y de seguridad nacional, se integró como pieza clave en las herramientas de análisis del ejército estadounidense.

Desde el entorno militar se quejan de que tener que negociar caso por caso qué usos están permitidos y cuáles chocan con las políticas internas de Anthropic resulta poco práctico en un contexto operativo. El margen de interpretación sobre qué entra exactamente en los apartados vetados —armas autónomas y vigilancia masiva— ha generado fricciones continuas en los últimos meses.

Fuentes citadas por medios estadounidenses sostienen que, ante esta situación, “todo está sobre la mesa”, incluida la posibilidad de ir sustituyendo progresivamente la tecnología de Anthropic por la de otros proveedores más flexibles. Reemplazar Claude, sin embargo, no sería inmediato, ya que el modelo está afinado específicamente para ciertas aplicaciones gubernamentales y de defensa que no se pueden migrar de la noche a la mañana.

El valor del contrato va mucho más allá de la cifra económica: ser proveedor de IA del Pentágono actúa como sello de legitimidad ante otros gobiernos y grandes corporaciones, y refuerza unas valoraciones privadas que en el sector de la IA se miden en decenas de miles de millones de dólares. Perder ese escaparate sería un golpe relevante para cualquiera de los grandes laboratorios.

Claude y la operación para capturar a Nicolás Maduro

La controversia se disparó tras las informaciones de The Wall Street Journal, Axios y otros medios estadounidenses que apuntan a que Claude habría sido empleado en la operación militar estadounidense en Caracas que terminó con la captura de Nicolás Maduro. La misión, ejecutada por fuerzas especiales de Estados Unidos a principios de enero, combinó bombardeos selectivos y el despliegue de comandos de élite para irrumpir en el complejo donde se refugiaba el dirigente venezolano.

Según estas reconstrucciones, la IA de Anthropic se habría integrado a través de la plataforma de Palantir Technologies, proveedor habitual del Pentágono, para procesar grandes volúmenes de inteligencia en tiempo real, cruzar comunicaciones interceptadas y resumir imágenes satelitales y datos de drones durante la fase activa del operativo.

Fuentes citadas por la prensa señalan que Claude habría ayudado a priorizar objetivos, rutas y riesgos en un contexto de combate urbano complejo. Las autoridades venezolanas han denunciado decenas de muertos, y en algunos informes se mencionan al menos 83 fallecidos durante la ofensiva, aunque Estados Unidos no ha detallado de forma oficial el balance de víctimas.

Contenido exclusivo - Clic Aquí  Claude Opus 4.6: así es el nuevo modelo avanzado de Anthropic

Ni Anthropic ni el Departamento de Defensa han confirmado de manera explícita el rol concreto de la herramienta en la misión. Un portavoz de la empresa se ha limitado a recordar que no pueden comentar si Claude se ha utilizado en operaciones específicas, clasificadas o no, y que cualquier implementación —sea en el sector privado o en el gubernamental— debe respetar las políticas internas, que prohíben facilitar violencia, diseñar armas o participar en tareas de vigilancia masiva.

Choque cultural: cláusulas éticas frente a “todos los fines legales”

El origen de buena parte del conflicto está en la cultura corporativa de Anthropic. Fundada por los hermanos Dario y Daniela Amodei —antiguos responsables de investigación en OpenAI—, la compañía se constituyó como public benefit corporation y lleva años presentándose como uno de los laboratorios de IA más “ideológicos” en materia de seguridad y riesgos a largo plazo.

Sus modelos Claude están entrenados bajo el enfoque de la llamada “IA constitucional”, con reglas internas pensadas para rechazar solicitudes que impliquen daño físico, violaciones de derechos humanos o vigilancia invasiva. Entre sus líneas rojas se incluyen expresamente el apoyo a armas autónomas sin supervisión humana y programas de espionaje masivo sobre ciudadanos estadounidenses.

Este enfoque choca frontalmente con la doctrina que el Pentágono ha explicitado en los últimos meses. Un memorando interno del Departamento de Defensa, adelantado por la prensa, sostiene que las Fuerzas Armadas pueden emplear herramientas de IA comerciales para cualquier propósito legal, incluso si los términos de uso privados de las empresas señalan lo contrario, siempre que se respeten las leyes estadounidenses y el derecho internacional aplicable.

El secretario de Defensa, Pete Hegseth, ha llegado a afirmar públicamente que Estados Unidos no utilizará modelos de IA que impidan “librar guerras”, dejando clara la prioridad operativa frente a las restricciones autoimpuestas por los proveedores. Para los mandos militares, la IA es ya una capacidad estratégica equiparable a un nuevo sistema de radar o a una flota de drones, mientras que para Anthropic es una tecnología de propósito general cuya legitimidad depende de limitar sus usos más controvertidos.

En este contexto, cualquier intención de la compañía de revisar o matizar lo ocurrido en Caracas —por ejemplo, preguntando por el papel de su software durante la redada— se ha interpretado en algunos sectores del Pentágono como una señal de desconfianza o desaprobación hacia el empleo militar de su propia IA, lo que ha endurecido el tono de la negociación.

Palantir como intermediario y el riesgo de la “desintermediación ética”

Palantir

Otra pieza clave de este rompecabezas es Palantir, la empresa de análisis de datos que desde hace años actúa como infraestructura casi estructural del aparato de seguridad estadounidense. Sus plataformas sirven de puente entre las redes ultrasecretas del Departamento de Defensa y los modelos de IA comerciales de última generación.

Según las filtraciones, el acceso a Claude en entornos clasificados del Pentágono se producía únicamente a través de la tecnología de Palantir. Esa capa intermedia permite combinar la IA de Anthropic con otros sistemas de análisis, simulación y visualización empleados en conflictos anteriores y en tareas de vigilancia de fronteras o lucha antiterrorista.

El problema, desde el punto de vista del control de usos, es que una vez que el modelo está integrado en una plataforma externa, la empresa creadora pierde visibilidad granular sobre qué consultas realizan exactamente los usuarios militares y cómo se configuran los filtros y salvaguardas.

Varios analistas describen esta situación como un caso de “desintermediación ética”: las startups de IA proclaman políticas estrictas, pero delegan la ejecución técnica en integradores que trabajan a puerta cerrada con ejércitos y agencias. Si estos intermediarios relajan las restricciones en nombre de la operatividad o la rapidez de respuesta, la capacidad real de la compañía para impedir ciertos usos se reduce a lo que pueda demostrar en auditorías a posteriori, casi siempre complicadas.

El episodio de la captura de Maduro ilustra hasta qué punto el diseño de la cadena tecnológica condiciona la posibilidad efectiva de imponer límites a la IA militar, más allá de las frases bienintencionadas en las políticas de uso.

Contenido exclusivo - Clic Aquí  Bixby se apoyará en Perplexity: el plan de Samsung para su asistente

Legalidad, “kill chain” acelerada y rendición de cuentas

Más allá del debate contractual, el caso refleja una transformación doctrinal en curso dentro del Departamento de Defensa. En los últimos años, el Pentágono ha invertido miles de millones en acelerar lo que denomina la “kill chain”, la secuencia que va desde la detección de un objetivo hasta su neutralización.

Modelos como Claude prometen digerir en segundos volúmenes de información que antes requerían equipos humanos completos y horas de análisis: interceptación de comunicaciones, reconocimiento de imágenes, informes de campo, datos de satélite… Todo ello, presentado en un lenguaje natural y con recomendaciones priorizadas para los mandos.

El riesgo, señalan expertos en ética militar y gobernanza tecnológica, es que se genere una dependencia psicológica de las sugerencias del sistema en contextos de alta presión temporal. Si un oficial dispone de poco margen de maniobra y la IA propone un curso de acción aparentemente sólido, cuestionar la salida del modelo puede resultar muy difícil en la práctica.

Además, el uso de IA en operaciones encubiertas plantea interrogantes sobre la rendición de cuentas democrática. En caso de errores graves —por ejemplo, un bombardeo que provoque víctimas civiles por una interpretación defectuosa de inteligencia—, no está claro dónde se ubica la responsabilidad: ¿en el comandante que toma la decisión final, en el integrador que configuró la plataforma o en la empresa que entrenó el modelo y definió sus límites?

Por ahora, ni el Pentágono ni Anthropic han detallado qué salvaguardas concretas se aplicaron durante la intervención en Caracas, cuántos humanos supervisaban las sugerencias de Claude o qué mecanismos existían para bloquear recomendaciones potencialmente desproporcionadas o ilegales.

Competencia entre gigantes de la IA y presión sobre Anthropic

Anthropic Claude Chrome

El pulso entre Anthropic y el Pentágono se enmarca en un escenario de competencia feroz por el mercado de defensa. Compañías como OpenAI (con ChatGPT y su plataforma para empresas), Google (Gemini) o xAI (Grok) ya colaboran con el Departamento de Defensa en entornos no clasificados y están negociando su entrada en redes más sensibles bajo el estándar de “todos los fines legales”.

Según fuentes de la Administración, al menos una de estas empresas habría aceptado ya ese marco de flexibilidad, mientras que las otras muestran una disposición mayor que Anthropic a adaptar sus condiciones para el ámbito militar. En paralelo, consorcios liderados por grandes tecnológicas han anunciado herramientas de IA para asistir a millones de miembros del personal militar en tareas de análisis, generación de informes y formación con realidad virtual.

Las cifras del sector explican parte de la presión: se estima que la IA concentra ya alrededor del 44% de la financiación global en defensa, seguridad y resiliencia, con miles de millones de dólares dirigidos a proyectos de decisión automatizada, vigilancia, drones e imagen satelital. Para cualquier laboratorio de IA, renunciar a este mercado supone dejar sobre la mesa una porción muy significativa del negocio potencial.

Al mismo tiempo, el posible coste reputacional ha crecido. Ser percibida como la empresa que diseña “cerebros” para armas autónomas o para sistemas de vigilancia masiva puede dificultar la captación de talento, espantar a ciertos inversores y provocar resistencias entre clientes civiles que recelan de la militarización de la tecnología.

Dentro de Anthropic y de otras compañías del sector, ya se han registrado renuncias de empleados y debates internos sobre hasta dónde es aceptable colaborar con contratos militares. Estos conflictos recuerdan al caso de Google y el proyecto Maven, que en 2018 generó una ola de protestas internas y obligó a la empresa a no renovar el acuerdo con el Pentágono.

Dimensión internacional y ecosistema regulatorio europeo

Aunque el enfrentamiento entre Anthropic y el Pentágono se desarrolla en Washington, sus efectos se proyectan sobre el ecosistema tecnológico y regulatorio europeo. La Unión Europea avanza con el AI Act, la primera gran legislación integral sobre inteligencia artificial, que incluye restricciones específicas para sistemas de alto riesgo y exige garantías adicionales en ámbitos como la vigilancia biométrica o el uso policial y militar de herramientas avanzadas.

Contenido exclusivo - Clic Aquí  IA generativa de voz: guía práctica, riesgos y herramientas

En Europa, el debate sobre la IA en defensa suele pasar por un filtro más garantista. Países de la OTAN con fuerte tradición de control parlamentario —incluida España— observan con atención cómo Estados Unidos integra modelos de lenguaje generativos en misiones reales, conscientes de que ese precedente puede influir en futuras operaciones conjuntas o en el seno de la Alianza Atlántica.

Para los gobiernos europeos, la cuestión no es solo tecnológica, sino también jurídica: deben decidir hasta qué punto aceptan depender de plataformas estadounidenses en ámbitos tan sensibles como la defensa, y qué condiciones exigen en materia de transparencia, auditorías y supervisión democrática del uso de la IA en conflictos.

Además, el caso Anthropic-Pentágono refuerza los argumentos de quienes en Bruselas reclaman un marco específico para la IA militar, coordinado con la OTAN pero alineado con los principios de derechos fundamentales de la UE. Aunque el AI Act se centra sobre todo en usos civiles, la creciente integración de la IA comercial en operaciones bélicas dificulta mantener una separación nítida entre ambos mundos.

Empresas europeas de tecnología y defensa, así como filiales locales de los grandes laboratorios estadounidenses, tendrán que moverse en un escenario en el que los contratos militares más jugosos pueden entrar en tensión con las reglas y sensibilidades políticas del continente.

¿Quién decide los límites de la IA militar?

IA Militar

El trasfondo de todo este episodio es una pregunta incómoda: ¿hasta qué punto pueden las empresas privadas vetar usos concretos de una tecnología que los Estados consideran estratégica para su seguridad nacional? Y, al revés, ¿puede un gobierno ignorar unilateralmente las cláusulas éticas pactadas con un proveedor alegando razones de defensa?

El Pentágono sostiene que ya existe un marco consolidado de leyes, reglas de enfrentamiento y controles internos para evitar abusos, y que añadir capas de veto desde el sector privado podría dejar a Estados Unidos en desventaja frente a rivales como China o Rusia, donde la integración de IA en vigilancia y armamento encuentra menos contrapesos.

Anthropic, por su parte, defiende que las salvaguardas técnicas —bloqueos dentro de los propios modelos, monitorización activa de usos, auditorías periódicas— son la única forma realista de reducir el riesgo de escalada hacia armas autónomas sin supervisión humana o programas de espionaje masivo. En su visión, confiar solo en la interpretación posterior de la legalidad no es suficiente para frenar los escenarios más peligrosos.

El contraste con otras compañías del sector es evidente: mientras Anthropic intenta mantener una postura más restrictiva, otras tres grandes firmas han aceptado en mayor o menor grado el estándar de “todos los fines legales”, aunque aseguran que seguirán negociando ciertas salvaguardas. El resultado es una presión adicional sobre Anthropic, que puede quedar aislada si es la única en plantar cara.

En la práctica, la primera gran batalla por el control de los usos militares de la IA no se está librando en un parlamento ni en un tribunal internacional, sino en una mesa de negociación contractual entre una empresa de tecnología y el mayor aparato militar del planeta. Lo que se decida ahí marcará, de forma más o menos silenciosa, el marco de referencia para futuros acuerdos en todo el mundo.

En conjunto, el caso Anthropic-Pentágono se ha convertido en un símbolo de las tensiones que acompañan a la expansión de la inteligencia artificial: una tecnología nacida para automatizar tareas y mejorar la productividad que, al entrar en el terreno de la defensa, obliga a elegir entre crecimiento y principios, velocidad y cautela, secreto militar y control democrático. Cómo se resuelva este choque será observado de cerca tanto en Washington como en Bruselas, porque de él dependerá en buena medida la forma en que la IA se integrará en los conflictos del futuro.

Artículo relacionado:
GenAI.mil: la apuesta del Pentágono por la inteligencia artificial militar