Nemotron 3: la gran apuesta abierta de NVIDIA para la IA multiagente

Last update: 17/12/2025

  • Nemotron 3 es una familia abierta de modelos, datos y bibliotecas centrada en IA agéntica y sistemas multiagente.
  • Incluye tres tamaños MoE (Nano, Super y Ultra) con arquitectura híbrida y entrenamiento eficiente en 4 bits sobre NVIDIA Blackwell.
  • Nemotron 3 Nano ya está disponible en Europa vía Hugging Face, nubes públicas y como microservicio NIM, con ventana de 1 millón de tokens.
  • El ecosistema se completa con datasets masivos, NeMo Gym, NeMo RL y Evaluator para entrenar, ajustar y auditar agentes de IA soberana.

Modelo de inteligencia artificial Nemotron 3

La carrera por la inteligencia artificial se está moviendo desde el simple chatbot aislado hacia sistemas de agentes que colaboran entre sí, gestionan flujos de trabajo largos y necesitan ser auditables. En este nuevo escenario, NVIDIA ha decidido dar un paso bastante claro: abrir no solo modelos, sino también datos y herramientas, para que empresas, administraciones públicas y centros de investigación puedan construir sus propias plataformas de IA con más control.

Ese movimiento se materializa en Nemotron 3, una familia de modelos abiertos orientados a IA multiagente que busca combinar rendimiento alto, costes de inferencia contenidos y transparencia. La propuesta no está pensada como otro chatbot generalista más, sino como una base sobre la que desplegar agentes que razonan, planifican y ejecutan tareas complejas en sectores regulados, algo especialmente relevante en Europa y España, donde pesan la soberanía de datos y el cumplimiento normativo.

Una familia abierta de modelos para IA agéntica y soberana

Nemotron 3 se presenta como un ecosistema completo: modelos, conjuntos de datos, bibliotecas y recetas de entrenamiento bajo licencias abiertas. La idea de NVIDIA es que las organizaciones no solo consuman la IA como un servicio opaco, sino que puedan inspeccionar qué hay dentro, adaptar los modelos a sus dominios y desplegarlos en su propia infraestructura, ya sea en la nube o en centros de datos locales.

La compañía enmarca esta estrategia dentro de su apuesta por la Sovereign AI: gobiernos y empresas de Europa, Corea del Sur y otras regiones buscan alternativas abiertas frente a sistemas cerrados o foráneos, que a menudo no encajan bien con sus leyes de protección de datos o sus exigencias de auditoría. Nemotron 3 quiere ser ese pilar técnico sobre el que construir modelos nacionales, sectoriales o corporativos con más visibilidad y control.

In parallel, NVIDIA refuerza su posición más allá del hardware. Hasta ahora era sobre todo el proveedor de GPU de referencia; con Nemotron 3 se posiciona también en la capa de modelos y herramientas de entrenamiento, compitiendo de forma más directa con actores como OpenAI, Google, Anthropic o incluso Meta, y frente a modelos premium como SuperGrok Heavy. Meta ha ido rebajando su apuesta por el código abierto en las últimas generaciones de Llama.

Para el ecosistema europeo de investigación y startups —muy apoyado en modelos abiertos alojados en plataformas como Hugging Face—, la disponibilidad de pesos, datos sintéticos y bibliotecas bajo licencias abiertas supone una alternativa potente a los chinese models y estadounidenses que dominan el ranking de popularidad y benchmarks.

Exclusive content - Click Here  How to use Microsoft Copilot on Telegram: Complete guide

Arquitectura MoE híbrida: eficiencia para agentes a gran escala

El rasgo técnico central de Nemotron 3 es una arquitectura híbrida de mezcla latente de expertos (Mixture-of-Experts, MoE). En vez de activar todos los parámetros del modelo en cada inferencia, solo se enciende una fracción de ellos, el subconjunto de expertos más relevantes para la tarea o el token en cuestión.

This approach allows reducir de forma drástica el coste computacional y el consumo de memoria, aumentando a la vez el throughput de tokens. Para arquitecturas multiagente, donde decenas o cientos de agentes intercambian mensajes de manera continua, esa eficiencia es clave para que el sistema no se vuelva inasumible en GPU y factura de nube.

Según datos compartidos por NVIDIA y benchmarks independientes, Nemotron 3 Nano consigue hasta cuatro veces más tokens por segundo que su predecesor Nemotron 2 Nano, y logra reducir en torno a un 60 % la generación de tokens de razonamiento innecesarios. En la práctica, esto significa respuestas igual o más precisas, pero con menos «palabrería» y menos coste por consulta.

La arquitectura MoE híbrida, combinada con técnicas de entrenamiento específicas, ha llevado a que buena parte de los modelos abiertos más avanzados adopten esquemas de expertos. Nemotron 3 se suma a esa tendencia, pero la orienta expresamente a la IA agéntica: rutas internas pensadas para coordinación entre agentes, uso de herramientas, manejo de estados largos y planificación por pasos.

Tres tamaños: Nano, Super y Ultra para distintas cargas de trabajo

Arquitectura de modelos Nemotron 3

La familia Nemotron 3 se organiza en tres tamaños principales de modelo MoE, todos ellos abiertos y con parámetros activos reducidos gracias a la arquitectura de expertos:

  • Nemotron 3 Nano: alrededor de 30.000 millones de parámetros totales, con unos 3.000 millones activos por token. Está pensado para tareas dirigidas donde importa la eficiencia: depuración de software, resumen de documentos, recuperación de información, supervisión de sistemas o asistentes de IA especializados.
  • Nemotron 3 Super: aproximadamente 100.000 millones de parámetros, con 10.000 millones activos en cada paso. Se orienta a razonamiento avanzado en arquitecturas multiagente, con baja latencia incluso cuando múltiples agentes cooperan para resolver flujos complejos.
  • Nemotron 3 Ultra: el nivel superior, con unos 500.000 millones de parámetros y hasta 50.000 millones activos por token. Opera como un gran motor de razonamiento para investigación, planificación estratégica, soporte a decisiones de alto nivel y sistemas de IA especialmente exigentes.

En la práctica, esto permite a las organizaciones elegir el tamaño del modelo según su bolsillo y sus requisitos: Nano para cargas masivas de uso intensivo y costes ajustados; Super cuando se necesita más profundidad de razonamiento con muchos agentes colaborando; y Ultra para casos donde la calidad y el contexto largo pesan más que el coste de GPU.

Exclusive content - Click Here  How to use Autoruns to remove programs that auto-start without permission

For now, solo Nemotron 3 Nano está disponible para uso inmediato. Las variantes Super y Ultra están previstas para la primera mitad de 2026, dando margen a empresas y laboratorios europeos para experimentar primero con Nano, establecer pipelines y, más adelante, migrar los casos que requieran mayor capacidad.

Nemotron 3 Nano: ventana de 1 millón de tokens y coste contenido

Nemotron 3 Nano

Nemotron 3 Nano es, a día de hoy, la punta de lanza práctica de la familia. NVIDIA lo describe como el modelo más eficiente en coste computacional de la gama, optimizado para ofrecer máximo rendimiento en flujos de trabajo multiagente y tareas intensivas pero repetitivas.

Entre sus características técnicas destacan una ventana de contexto de hasta un millón de tokens, lo que permite mantener memoria sobre documentos extensos, repositorios de código completos o procesos empresariales de muchos pasos. Para aplicaciones europeas en banca, salud o administración pública, donde los expedientes pueden ser voluminosos, esa capacidad de contexto largo resulta especialmente interesante.

Los benchmarks de la organización independiente Artificial Analysis sitúan a Nemotron 3 Nano como uno de los modelos abiertos más equilibrados entre inteligencia, precisión y velocidad de salida, con tasas que rondan los cientos de tokens por segundo. Esa combinación lo hace atractivo para integradores y proveedores de servicios de IA en España que necesitan buena experiencia de usuario sin disparar los costes de infraestructura.

En cuanto a casos de uso, NVIDIA orienta Nano a resumen de contenidos, depuración de software, recuperación de información y asistentes de IA corporativos. Gracias a la reducción de tokens de razonamiento redundantes, resulta viable ejecutar agentes que mantengan conversaciones largas con usuarios o sistemas sin que la factura de inferencia se dispare.

Datos abiertos y bibliotecas: NeMo Gym, NeMo RL y Evaluator

bibliotecas NeMo

Uno de los puntos más diferenciales de Nemotron 3 es que no se limita a liberar pesos de modelo. NVIDIA acompaña la familia con un paquete amplio de recursos abiertos para entrenar, ajustar y evaluar agentes.

Por un lado, pone a disposición un corpus sintético de varios billones de tokens de datos de preentrenamiento, postentrenamiento y refuerzo, centrados en razonamiento, codificación y flujos de trabajo multi‐paso. Estos conjuntos de datos permiten a empresas y centros de investigación generar variantes propias de Nemotron adaptadas a su dominio (por ejemplo, jurídico, sanitario o industrial) sin partir de cero.

Entre estos recursos destaca el conjunto de datos Nemotron Agentic Safety, que recopila telemetría de comportamiento de agentes en escenarios reales. Su objetivo es ayudar a los equipos a medir y reforzar la seguridad de sistemas autónomos complejos: desde qué acciones toma un agente cuando se encuentra con un dato sensible, hasta cómo reacciona ante órdenes ambiguas o potencialmente dañinas.

Exclusive content - Click Here  How is speech recognition used in the field of automation?

Sobre la parte de herramientas, NVIDIA lanza NeMo Gym y NeMo RL como bibliotecas de código abierto para entrenamiento por refuerzo y postentrenamiento, junto con NeMo Evaluator para evaluar seguridad y rendimiento. Estas librerías proporcionan entornos de simulación y pipelines listos para usar con la familia Nemotron, pero pueden extenderse a otros modelos.

Todo este material —pesos, datasets y código— se distribuye a través de GitHub y Hugging Face bajo la Licencia de Modelo Abierto de NVIDIA, de forma que equipos europeos puedan integrarlo en sus propios MLOps sin fricción. Empresas como Prime Intellect o Unsloth ya están incorporando NeMo Gym directamente en sus flujos de trabajo para simplificar el aprendizaje por refuerzo sobre Nemotron.

Disponibilidad en nubes públicas y ecosistema europeo

Nemotron 3 Nano Hugging Face

Nemotron 3 Nano está ya disponible en hugging face y GitHub, así como a través de proveedores de inferencia como Baseten, DeepInfra, Fireworks, FriendliAI, OpenRouter y Together AI. Esto abre la puerta a que equipos de desarrollo en España puedan probar el modelo vía API o desplegarlo en infraestructuras propias sin excesiva complejidad.

En el frente de la nube, Nemotron 3 Nano se incorpora a AWS mediante Amazon Bedrock para inferencia sin servidor, y cuenta con soporte anunciado para Google Cloud, CoreWeave, Crusoe, Microsoft Foundry, Nebius, Nscale y Yotta. Para las organizaciones europeas que ya trabajan sobre estas plataformas, esto facilita adoptar Nemotron sin cambios drásticos en su arquitectura.

Además de la nube pública, NVIDIA impulsa el uso de Nemotron 3 Nano como microservicio NIM desplegable en cualquier infraestructura acelerada por NVIDIA. Esto permite escenarios híbridos: parte de la carga en nubes internacionales y parte en centros de datos locales o en nubes europeas que priorizan la residencia de datos en la UE.

Versions Nemotron 3 Super y Ultra, orientadas a cargas de trabajo de razonamiento extremo y sistemas multiagente de gran escala, están previstas para la primera mitad de 2026. Este calendario da margen para que el ecosistema europeo de investigación y empresas experimente con Nano, valide casos de uso y diseñe estrategias de migración hacia modelos más grandes cuando resulten necesarios.

Nemotron 3 sitúa a NVIDIA como uno de los principales proveedores de modelos abiertos de alta gama orientados a IA agéntica, con una propuesta que mezcla eficiencia técnica (MoE híbrido, NVFP4, contexto masivo), apertura (pesos, datasets y librerías disponibles) y un foco claro en la soberanía de datos y la transparencia, aspectos especialmente sensibles en España y en el resto de Europa, donde la regulación y la presión por auditar la IA son cada vez mayores.

Microsoft Discovery IA-2
Related article:
Microsoft Discovery AI drives scientific and educational breakthroughs with personalized artificial intelligence