Anthropic redobla su batalla por los datos de Claude frente a China y a la regulación de la IA

Última actualización: 24/02/2026

  • Anthropic denuncia campañas masivas de destilación para copiar capacidades de Claude mediante millones de interacciones y miles de cuentas falsas.
  • La compañía refuerza sus sistemas de detección, acceso y cooperación con otros laboratorios para frenar la extracción ilícita de datos de sus modelos.
  • El pulso por los datos de IA se cruza con el lobby político, los contratos gubernamentales y la construcción de grandes centros de datos.
  • Claude y herramientas como Claude Code presionan a competidores tradicionales, mientras crece el debate sobre regulación, seguridad y uso militar de la IA.
Anthropic batalla por los datos de Claude frente a China

La pelea por el poder de la inteligencia artificial se está librando, sobre todo, en el terreno de los datos y de los centros de datos que la alimentan. Anthropic, creadora de Claude, se ha convertido en uno de los actores más vigilados de este ecosistema al denunciar campañas masivas para copiar las capacidades de su modelo y, al mismo tiempo, estrechar cada vez más sus lazos con gobiernos y grandes inversores. Ese doble movimiento pone el foco en hasta qué punto el control de la información y de las infraestructuras condiciona la carrera de la IA, también con implicaciones claras para Europa y España a medio plazo.

En paralelo, mientras Anthropic se presenta como una empresa orientada a la seguridad y regulación responsable de la IA, su negocio depende cada vez más de contratos públicos de alto valor, enormes granjas de servidores y una financiación millonaria sustentada en expectativas de ingresos muy agresivas. En el centro de todo ello están los datos que genera Claude, tanto como objetivo de ataques de destilación desde China como materia prima para reforzar la posición de Estados Unidos en la competición global por la IA.

Anthropic acusa a laboratorios chinos de destilar datos de Claude a escala industrial

Claude China

Anthropic ha hecho público un aviso inusualmente detallado en el que acusa a tres laboratorios chinos de haber orquestado campañas “a escala industrial” para extraer capacidades de Claude y reutilizarlas en el entrenamiento de modelos rivales. Según la compañía, DeepSeek, MiniMax y Moonshot habrían desplegado una estrategia coordinada de destilación para replicar las funciones más avanzadas de su IA.

La firma con sede en San Francisco sostiene que estas empresas generaron más de 16 millones de interacciones con Claude, recurrían a unas 24.000 cuentas falsas y empleaban servicios proxy para esquivar tanto las restricciones geográficas como los sistemas de detección automatizada. El resultado, afirma Anthropic, es que se habría intentado copiar de forma sistemática el comportamiento del modelo en áreas sensibles como el razonamiento complejo, el uso de herramientas y la programación.

La técnica en cuestión, la destilación, es conocida en el sector: se trata de entrenar un modelo más ligero utilizando como referencia las respuestas de uno más potente. Bien usada, permite ofrecer sistemas más pequeños y baratos con prestaciones cercanas a las de los modelos de frontera. El problema, denuncia Anthropic, aparece cuando esa destilación se dirige específicamente a replicar sin permiso las capacidades diferenciales de un competidor, reduciendo drásticamente el coste y el tiempo de desarrollo propios.

En este caso, cada laboratorio chino habría afinado su táctica sobre segmentos concretos. MiniMax se centró en agentes de IA, programación y uso de herramientas, acumulando más de 13 millones de interacciones. DeepSeek priorizó tareas de razonamiento y resolución de problemas, con algo más de 150.000 intercambios. Moonshot, reconocido por sus modelos Kimi, habría extraído datos relacionados con visión, análisis de datos, capacidades de razonamiento y agentes, entre otros campos.

Anthropic insiste en que no se trata de consultas sueltas de usuarios avanzados, sino de patrones repetitivos y coordinados: prompts muy específicos, diseñados para forzar explicaciones paso a paso, evaluaciones detalladas o rúbricas que permiten generar valiosos conjuntos de datos de “razonamiento” y de evaluación. En conjunto, el tráfico apuntaría a una recolección deliberada de salidas de Claude con fines de entrenamiento, difícil de detectar si se mira solo el comportamiento de cada cuenta individual.

Contenido exclusivo - Clic Aquí  ¿Cómo se pueden configurar las opciones de «Alexa Hunches» en Alexa?

Refuerzo de defensas y cooperación entre laboratorios para proteger los datos

Infraestructura de IA y regulación

Ante estas campañas, Anthropic afirma que ha desplegado nuevos clasificadores y sistemas de “huella digital” de comportamiento para identificar patrones anómalos de uso. El objetivo es detectar aquellas combinaciones de volumen, contenido y estructura de las peticiones que encajan con intentos de destilación masiva sin penalizar el uso legítimo de clientes reales, tanto empresariales como individuales.

La empresa asegura haber reforzado también sus controles de acceso a nivel de producto, API e infraestructura, además de introducir contramedidas específicas para “reducir la eficacia” de las respuestas de Claude cuando son utilizadas con fines de destilación ilícita. Es un equilibrio delicado: endurecer demasiado las barreras puede empeorar la experiencia de desarrolladores y compañías que utilizan estos modelos de forma legítima, pero no actuar deja abierta la puerta a que rivales externos reconstruyan capacidades clave a bajo coste.

Anthropic subraya que este tipo de ataques ya supera la capacidad de respuesta de una sola empresa. Por ello, ha empezado a compartir información con otros laboratorios de IA, proveedores de nube y autoridades, con la idea de crear un “intercambio de inteligencia” que permita detectar y bloquear redes de cuentas fraudulentas, servicios de reventa de acceso y clusters de tráfico sospechoso. La compañía sostiene que la ventana de tiempo para reaccionar es limitada y que la amenaza afecta a todo el ecosistema de IA, no solo a una región o actor concreto.

El contexto geopolítico añade una capa adicional de tensión. Estados Unidos ve con preocupación cómo China inunda el mercado con modelos de texto, imagen y vídeo de bajo coste, algunos de ellos, como el propio DeepSeek, presentados como alternativas muy competitivas construidas a una fracción del coste de los modelos estadounidenses. Desde Washington, responsables de política tecnológica —incluido el denominado zar de la IA, David Sacks— han señalado la destilación como una de las vías por las que los competidores chinos estarían aprovechando los avances de laboratorios occidentales.

Resulta llamativo que Anthropic, como tantos otros actores del sector, haya basado el entrenamiento de sus modelos en grandes corpus de datos obtenidos en internet, a menudo mediante scraping masivo de webs, repositorios y bibliotecas digitales. Críticos de la compañía recuerdan que buena parte de estos datos se han recopilado pese a existir bloqueos explícitos por parte de medios y creadores, lo que alimenta el debate sobre quién está legitimado para acusar a quién de “apropiación” en la carrera por los datos de la IA.

Centros de datos, lobby y el giro político de Anthropic

Seguridad de datos en modelos de IA

Mientras se defiende de la destilación de sus modelos, Anthropic está profundamente inmersa en otra batalla relacionada con los datos a un nivel más físico: la expansión de centros de datos y la influencia política necesaria para sostener ese despliegue. El propio director ejecutivo, Dario Amodei, reconocía recientemente que la proliferación de infraestructuras de IA está alineando los intereses financieros de los grandes laboratorios con los objetivos políticos de los gobiernos.

En Estados Unidos, Anthropic ha protagonizado una disputa con el Departamento de Defensa en torno a un contrato de unos 200 millones de dólares destinado a desarrollar sistemas de IA para usos de seguridad nacional, tanto militares como empresariales. Esa negociación llega en paralelo a un notable incremento del gasto en lobbying: en 2025, Anthropic habría destinado alrededor de 3,13 millones de dólares a presión política a nivel federal, a los que se suman unos 300.000 dólares en California. Su rival OpenAI se mueve en cifras similares, con unos 2,99 millones de dólares.

Contenido exclusivo - Clic Aquí  OpenAI lanza GPT-4.1: mejoras significativas para ChatGPT y novedades para todos los usuarios

La compañía también ha iniciado una estrategia de donaciones políticas explícitas. Un ejemplo es la contribución de 20 millones de dólares a Public First Action, una organización que aboga por una regulación más estricta de la IA. Anthropic presenta este movimiento como una apuesta no partidista por la seguridad, aunque varias de las políticas defendidas por dicho grupo chocan con la orientación desreguladora de buena parte de la industria y con líneas marcadas por la administración estadounidense actual.

La aparente divergencia con OpenAI se ha hecho especialmente visible en torno a la ley de seguridad de la IA de California, conocida como SB 53, que impone a los desarrolladores de modelos de gran tamaño la obligación de implantar salvaguardas y autoevaluar la seguridad de sus sistemas antes de cada lanzamiento, bajo amenaza de sanciones. Mientras que OpenAI se mostró contraria a esta norma, Anthropic acabó apoyándola, algo que algunos analistas interpretan como un intento de posicionarse como empresa “pro-regulación” más que como un cambio real de fondo.

En todo caso, la línea de actuación de los grandes laboratorios converge en varios frentes. Tanto Anthropic como OpenAI priorizan en su actividad de lobby temas como la seguridad nacional y la infraestructura de IA. Numerosas agencias federales estadounidenses han comenzado a utilizar sus modelos para diferentes funciones, con acuerdos que en algunos casos llegan a ofrecer acceso a precios simbólicos (incluso por 1 dólar), en un discurso centrado en que una escalada rápida en capacidad de IA refuerza la competitividad estratégica de Estados Unidos.

Regulación, exportaciones y la carrera por el hardware de IA

El pulso por los datos también se traslada al control del hardware avanzado necesario para entrenar modelos de frontera. Anthropic ha hecho referencia en sus documentos públicos de presión política a iniciativas como la ley GAIN AI, un proyecto de norma que pretende endurecer las restricciones a la venta de chips de IA de altas prestaciones a países considerados adversarios, otorgando a clientes estadounidenses una especie de derecho de tanteo antes de que esos componentes se puedan exportar.

El debate sobre exportaciones se ha intensificado a medida que empresas como Nvidia han logrado autorización para vender GPUs H200 a compañías chinas tras años de negociaciones con participación de autoridades de Washington y Pekín. Aunque no está claro en qué medida OpenAI ha presionado en este campo, su consejero delegado, Sam Altman, ha cuestionado la utilidad de restricciones demasiado rígidas, mientras la administración estadounidense busca asegurar que los sistemas de IA más potentes protejan los intereses de seguridad nacional.

Todo ello se produce en un entorno regulatorio aún inmaduro. En el plano federal, todavía no se ha aprobado en Estados Unidos ninguna ley que reoriente de forma drástica el desarrollo de la IA; varias iniciativas relevantes se han quedado en órdenes ejecutivas, sin pasar por el Congreso. Desde organizaciones que abogan por una regulación más estricta se advierte de que los responsables políticos están “atrasados” respecto al ritmo tecnológico, lo que acaba dejándolos dependientes de la información proporcionada por las propias tecnológicas.

Centros de datos gigantes y costes desbocados: el otro lado de la moneda

Centro de datos y modelos de IA

La expansión de la IA de Anthropic y sus competidores tiene una traducción directa en el mundo físico: la construcción de enormes centros de datos que requieren permisos complejos, grandes consumos eléctricos y fuertes inversiones. La compañía, junto con OpenAI y gigantes tradicionales como Google o Meta, compite por ampliar capacidad mientras denuncia cuellos de botella regulatorios, retrasos en obra civil y resistencia local a nuevos proyectos.

Contenido exclusivo - Clic Aquí  NotebookLM: El asistente de IA que revolucionará la investigación

Más de la mitad de las iniciativas de centros de datos en 2025 habrían sufrido retrasos de al menos tres meses, según datos sectoriales. OpenAI se ha comprometido públicamente a destinar cerca de 1,4 billones de dólares a este tipo de infraestructuras en los próximos ocho años, lo que suscita dudas entre analistas sobre cómo se financiará semejante despliegue sin un plan de ingresos igual de ambicioso. Anthropic, por su parte, ha apoyado órdenes ejecutivas que agilicen la concesión de permisos federales y ha anunciado que cubrirá gastos energéticos vinculados a la conexión de nuevos centros de datos a la red.

En este punto, el mensaje que se traslada a los gobiernos es que la velocidad y la escala en IA son sinónimo de patriotismo y seguridad, y que facilitar la construcción de centros de datos y su alimentación energética beneficia a la economía nacional. El riesgo, señalan voces críticas, es que los mismos actores que definirán las capacidades y límites de la IA sean quienes marquen las reglas del juego regulatorio, en ausencia de marcos legislativos robustos y de supervisión independiente suficiente.

El mercado bursátil ya está reflejando parte de estas tensiones. Empresas tecnológicas consolidadas como IBM han sufrido caídas significativas, en parte por la percepción de que herramientas como Claude Code pueden automatizar tareas clave en sistemas heredados (por ejemplo, modernización de código COBOL) que antes constituían una fuente de ingresos recurrentes para proveedores tradicionales. La propia Anthropic sostiene que sus modelos son capaces de mapear dependencias en cientos de miles de líneas de código, documentar flujos y detectar riesgos en tiempos muy inferiores a los de equipos humanos expertos.

Esta disrupción se extiende a sectores como la ciberseguridad, donde soluciones como Claude Code Security prometen escanear grandes bases de código en busca de vulnerabilidades, una promesa que ha inquietado a diferentes empresas cotizadas del sector. La volatilidad en bolsa, unida a las dudas sobre la sostenibilidad de los gastos en centros de datos, pone presión sobre compañías como Anthropic para que conviertan sus ambiciosas proyecciones de ingresos en resultados tangibles.

En este contexto, Anthony prevé ingresos de decenas de miles de millones de dólares a medio plazo, apoyados en el crecimiento de suscripciones y productos ligados a Claude. Aunque sus ingresos anualizados se han multiplicado por diez en los últimos años, la realidad es que los laboratorios de IA siguen siendo en gran medida negocios poco rentables con gastos muy elevados, mientras los clientes empresariales tienden a combinar varios modelos (OpenAI, Anthropic y otros) en lugar de concentrarse en un único proveedor.

El panorama que se dibuja es el de un sector donde los datos de entrenamiento, los resultados de los modelos y la infraestructura física forman una cadena estrechamente ligada a la geopolítica, la regulación y la competencia económica. Las acusaciones de Anthropic contra laboratorios chinos, el refuerzo de sus defensas frente a la destilación, su creciente peso en el lobby político y la carrera por construir centros de datos ilustran cómo el poder de la IA no se juega solo en benchmarks técnicos, sino en quién controla los flujos de información y las reglas de acceso a esa información. Para Europa y España, el reto será integrarse en este nuevo mapa sin renunciar a estándares propios de protección de datos, seguridad y responsabilidad pública.

Checklist de seguridad: qué NO debes pegar en un chatbot
Artículo relacionado:
Checklist de seguridad: qué NO debes pegar en un chatbot