- Nemotron 3 ist eine offene Familie von Modellen, Daten und Bibliotheken mit Schwerpunkt auf agentenbasierter KI und Multiagentensystemen.
- Es umfasst drei MoE-Größen (Nano, Super und Ultra) mit Hybridarchitektur und effizientem 4-Bit-Training auf NVIDIA Blackwell.
- Nemotron 3 Nano ist jetzt in Europa über Hugging Face, öffentliche Clouds und als NIM-Mikroservice mit einem Volumen von 1 Million Token verfügbar.
- Das Ökosystem wird durch massive Datensätze, NeMo Gym, NeMo RL und Evaluator zum Trainieren, Optimieren und Überprüfen souveräner KI-Agenten vervollständigt.
Der Wettlauf um künstliche Intelligenz verlagert sich von einfachen, isolierten Chatbots hin zu Agentensystemen, die miteinander zusammenarbeiten, komplexe Arbeitsabläufe verwalten und auditierbar sein müssen. In diesem neuen Szenario NVIDIA hat sich für einen ziemlich klaren Schritt entschieden: nicht nur Modelle, sondern auch Daten und Werkzeuge zu öffnen.damit Unternehmen, öffentliche Verwaltungen und Forschungszentren ihre eigenen KI-Plattformen mit mehr Kontrolle aufbauen können.
Diese Bewegung manifestiert sich in Nemotron 3, eine Familie offener Modelle, die auf Multiagenten-KI ausgerichtet sind. Es zielt darauf ab, hohe Leistung, geringe Inferenzkosten und Transparenz zu vereinen. Der Vorschlag ist nicht als bloßer Allzweck-Chatbot gedacht, sondern als eine Basis, auf der Agenten eingesetzt werden können, die in regulierten Sektoren komplexe Aufgaben analysieren, planen und ausführen.Dies ist insbesondere in Europa und Spanien relevant, wo Datensouveränität und die Einhaltung gesetzlicher Vorschriften von großer Bedeutung sind.
Eine offene Familie von Modellen für agentenbasierte und souveräne KI
Nemotron 3 wird vorgestellt als ein komplettes Ökosystem: Modelle, Datensätze, Bibliotheken und Trainingsrezepte unter offenen Lizenzen. NVIDIAs Idee ist, dass Organisationen KI nicht nur als undurchsichtigen Dienst nutzen, sondern auch Einblick in die Funktionsweise erhalten, die Modelle an ihre Anwendungsbereiche anpassen und sie auf ihrer eigenen Infrastruktur einsetzen können, sei es in der Cloud oder in lokalen Rechenzentren.
Das Unternehmen bettet diese Strategie in sein Engagement für Souveräne KIRegierungen und Unternehmen in Europa, Südkorea und anderen Regionen suchen nach offenen Alternativen zu geschlossenen oder ausländischen Systemen, die oft nicht mit ihren Datenschutzgesetzen oder Prüfungsanforderungen vereinbar sind. Nemotron 3 soll die technische Grundlage für nationale, branchenspezifische oder unternehmensweite Modelle mit mehr Transparenz und Kontrolle bilden.
Parallel zu, NVIDIA stärkt seine Position über die Hardware hinaus.Bislang war das Unternehmen hauptsächlich ein Anbieter von Referenz-GPUs; mit Nemotron 3 positioniert es sich nun auch im Bereich der Modellierungs- und Trainingswerkzeuge und konkurriert direkter mit Anbietern wie OpenAI, Google, Anthropic oder sogar Meta sowie mit Premium-Modellen wie SuperGrok HeavyMeta hat sein Engagement für Open Source in den letzten Generationen von Llama reduziert.
Für das europäische Forschungs- und Startup-Ökosystem – das stark auf offene Modelle angewiesen ist, die auf Plattformen wie Hugging Face gehostet werden – stellt die Verfügbarkeit von Gewichten, synthetischen Daten und Bibliotheken unter offenen Lizenzen eine leistungsstarke Alternative zu den chinesische Modelle und Amerikaner, die die Popularitäts- und Benchmark-Rankings dominieren.
Hybride MoE-Architektur: Effizienz für großflächige Agenten
Das zentrale technische Merkmal von Nemotron 3 ist ein Hybridarchitektur latenter Mixture-of-Experts (MoE)Anstatt bei jeder Inferenz alle Modellparameter zu aktivieren, wird nur ein Bruchteil davon aktiviert, nämlich die Teilmenge der Experten, die für die jeweilige Aufgabe oder das jeweilige Token am relevantesten sind.
Dieser Ansatz ermöglicht drastische Reduzierung des Rechenaufwands und des SpeicherverbrauchsDies erhöht auch den Token-Durchsatz. Bei Multiagentenarchitekturen, in denen Dutzende oder Hunderte von Agenten kontinuierlich Nachrichten austauschen, ist diese Effizienz entscheidend, um zu verhindern, dass das System hinsichtlich GPU- und Cloud-Kosten unwirtschaftlich wird.
Laut von NVIDIA veröffentlichten Daten und unabhängigen Benchmarks erreicht der Nemotron 3 Nano folgende Leistung: bis zu viermal so viele Token pro Sekunde Im Vergleich zum Vorgängermodell Nemotron 2 Nano reduziert es die Generierung unnötiger Schlussfolgerungs-Token um etwa 60 %. In der Praxis bedeutet dies gleich genaue oder sogar noch genauere Antworten, jedoch mit weniger Umständlichkeit und geringeren Kosten pro Anfrage.
Die hybride MoE-Architektur hat in Kombination mit spezifischen Trainingsmethoden dazu geführt, dass Viele der fortschrittlichsten offenen Modelle verwenden Expertensysteme.Nemotron 3 schließt sich diesem Trend an, konzentriert sich aber speziell auf agentenbasierte KI: interne Routen, die für die Koordination zwischen Agenten, den Einsatz von Werkzeugen, die Handhabung langer Zustände und die schrittweise Planung entwickelt wurden.
Drei Größen: Nano, Super und Ultra für unterschiedliche Arbeitslasten.

Die Nemotron 3-Familie ist wie folgt organisiert: drei Hauptgrößen des MoE-ModellsAlle diese Funktionen sind dank der Expertenarchitektur offen und mit reduzierten aktiven Parametern:
- Nemotron 3 Nano: rund 30.000 Milliarden Parameter insgesamt, mit etwa 3.000 Milliarden Vermögenswerte pro TokenEs ist für gezielte Aufgaben konzipiert, bei denen Effizienz wichtig ist: Software-Debugging, Dokumentenzusammenfassung, Informationsabfrage, Systemüberwachung oder spezialisierte KI-Assistenten.
- Nemotron 3 Super: ungefähr 100.000 Milliarden Parameter, mit Vermögenswerte in Höhe von 10.000 Milliarden bei jedem Schritt. Es ist darauf ausgerichtet Fortgeschrittenes logisches Denken in Multiagentenarchitekturenmit geringer Latenz auch dann, wenn mehrere Agenten zusammenarbeiten, um komplexe Abläufe zu lösen.
- Nemotron 3 Ultra: die obere Ebene mit etwa 500.000 Milliarden Parametern und bis zu 50.000 Milliarden Vermögenswerte pro TokenEs fungiert als leistungsstarke Denkmaschine für Forschung, strategische Planung, Entscheidungsunterstützung auf hoher Ebene und insbesondere für anspruchsvolle KI-Systeme.
In der Praxis ermöglicht dies Organisationen Wählen Sie die Modellgröße entsprechend Ihrem Budget und Ihren Anforderungen.Nano für massive, intensive Arbeitslasten und knappe Kosten; Super, wenn eine größere Schlussfolgerungstiefe mit vielen zusammenarbeitenden Agenten erforderlich ist; und Ultra für Fälle, in denen Qualität und langer Kontext wichtiger sind als die GPU-Kosten.
Für jetzt Nur der Nemotron 3 Nano ist sofort einsatzbereit.Die Varianten Super und Ultra sind für das erste Halbjahr 2026 geplant, um europäischen Unternehmen und Laboren Zeit zu geben, zunächst mit Nano zu experimentieren, Produktionsabläufe zu etablieren und später Fälle zu migrieren, die eine höhere Kapazität erfordern.
Nemotron 3 Nano: 1 Million Token-Fenster und begrenzte Kosten

Nemotron 3 Nano ist, Stand heute, die praktische Speerspitze der FamilieNVIDIA beschreibt es als das rechentechnisch effizienteste Modell der Produktreihe, optimiert für maximale Leistung in Multiagenten-Workflows und intensiven, sich wiederholenden Aufgaben.
Zu den technischen Merkmalen zählen insbesondere folgende: Kontextfenster von bis zu einer Million TokenDies ermöglicht die Speicherung von Informationen über umfangreiche Dokumente, ganze Code-Repositories oder mehrstufige Geschäftsprozesse. Für europäische Anwendungen im Bankwesen, Gesundheitswesen oder in der öffentlichen Verwaltung, wo die Datensätze sehr umfangreich sein können, ist diese Langzeitkontext-Fähigkeit besonders wertvoll.
Die Maßstäbe der unabhängigen Organisation Künstliche Analysen stufen Nemotron 3 Nano als eines der ausgewogensten Open-Source-Modelle ein. Es vereint Intelligenz, Genauigkeit und Geschwindigkeit mit Durchsatzraten von mehreren hundert Token pro Sekunde. Diese Kombination macht es attraktiv für KI-Integratoren und -Dienstleister in Spanien, die eine gute Benutzererfahrung ohne explodierende Infrastrukturkosten benötigen.
Hinsichtlich der Anwendungsfälle zielt NVIDIA mit Nano auf folgende Zielgruppe ab: Inhaltsübersicht, Software-Debugging, Informationsabruf und KI-Assistenten für UnternehmenDank der Reduzierung redundanter Schlussfolgerungs-Tokens ist es möglich, Agenten einzusetzen, die lange Gespräche mit Benutzern oder Systemen führen, ohne dass die Inferenzkosten in die Höhe schnellen.
Offene Daten und Bibliotheken: NeMo Gym, NeMo RL und Evaluator

Eines der markantesten Merkmale von Nemotron 3 ist, dass Es beschränkt sich nicht auf die Veröffentlichung der Modellgewichte.NVIDIA stellt der Produktfamilie eine umfassende Suite offener Ressourcen für das Training, die Optimierung und die Evaluierung der Agenten zur Verfügung.
Zum einen stellt es einen synthetischen Korpus zur Verfügung mehrere Billionen Token an Daten vor, nach und während des Trainings sowie der VerstärkungsphaseDiese Datensätze, die sich auf logisches Denken, Codierung und mehrstufige Arbeitsabläufe konzentrieren, ermöglichen es Unternehmen und Forschungszentren, ihre eigenen domänenspezifischen Varianten von Nemotron (z. B. für den Rechts-, Gesundheits- oder Industriebereich) zu generieren, ohne bei Null anfangen zu müssen.
Unter diesen Ressourcen sticht die folgende besonders hervor: Nemotron Agentic Safety-DatensatzEs sammelt Telemetriedaten zum Verhalten von Agenten in realen Szenarien. Ziel ist es, Teams dabei zu helfen, die Sicherheit komplexer autonomer Systeme zu messen und zu verbessern: von den Aktionen eines Agenten beim Umgang mit sensiblen Daten bis hin zu seinen Reaktionen auf mehrdeutige oder potenziell schädliche Befehle.
Im Bereich der Tools startet NVIDIA Folgendes: NeMo Gym und NeMo RL als Open-Source-Bibliotheken Für die Vertiefung und Nachbereitung von Schulungen sowie für die Bewertung von Sicherheit und Leistung stehen die Bibliotheken NeMo Evaluator zur Verfügung. Sie bieten sofort einsatzbereite Simulationsumgebungen und Pipelines für die Nemotron-Familie, können aber auch auf andere Modelle erweitert werden.
Das gesamte Material – Gewichte, Datensätze und Code – wird verteilt über GitHub und Hugging Face sind unter der NVIDIA Open Model License lizenziert.So können europäische Teams es nahtlos in ihre eigenen MLOps integrieren. Unternehmen wie Prime Intellect und Unsloth setzen NeMo Gym bereits direkt in ihren Workflow ein, um Reinforcement Learning auf Nemotron zu vereinfachen.
Verfügbarkeit in öffentlichen Clouds und im europäischen Ökosystem

Nemotron 3 Nano ist jetzt erhältlich bei Gesicht umarmen y GitHubsowie über Inferenzanbieter wie Baseten, DeepInfra, Fireworks, FriendliAI, OpenRouter und Together AI. Dies ermöglicht es Entwicklungsteams in Spanien, das Modell per API zu testen oder es ohne übermäßigen Aufwand auf ihren eigenen Infrastrukturen bereitzustellen.
Im Bereich der Wolken, Nemotron 3 Nano schließt sich AWS über Amazon Bedrock an Nemotron bietet serverlose Inferenz und unterstützt Google Cloud, CoreWeave, Crusoe, Microsoft Foundry, Nebius, Nscale und Yotta. Für europäische Unternehmen, die bereits mit diesen Plattformen arbeiten, vereinfacht dies die Einführung von Nemotron, da keine grundlegenden Architekturänderungen erforderlich sind.
Zusätzlich zur öffentlichen Cloud fördert NVIDIA die Nutzung von Nemotron 3 Nano als NIM-Mikrodienst, der auf jeder NVIDIA-beschleunigten Infrastruktur bereitgestellt werden kannDies ermöglicht hybride Szenarien: Ein Teil der Last wird in internationalen Clouds und ein Teil in lokalen Rechenzentren oder in europäischen Clouds verteilt, die den Datenstandort in der EU priorisieren.
Versionen Nemotron 3 Super und Ultra, Sie sind auf extrem hohe Denkaufgaben und groß angelegte Multiagentensysteme ausgerichtet. geplant für das erste Halbjahr 2026Dieser Zeitplan gibt dem europäischen Forschungs- und Wirtschaftsökosystem Zeit, mit Nano zu experimentieren, Anwendungsfälle zu validieren und gegebenenfalls Migrationsstrategien für größere Modelle zu entwickeln.
Nemotron 3 positioniert NVIDIA als einen der führenden Anbieter von Hochwertige offene Modelle, die auf agentenbasierte KI ausgerichtet sindMit einem Vorschlag, der technische Effizienz (hybrides Bildungsministerium, NVFP4, massiver Kontext), Offenheit (Gewichte, Datensätze und verfügbare Bibliotheken) und einen klaren Fokus auf Datensouveränität und Transparenz verbindet – Aspekte, die in Spanien und dem übrigen Europa, wo die Regulierung und der Druck zur Überprüfung von KI immer größer werden, besonders sensibel sind.
Ich bin ein Technik-Enthusiast, der seine „Geek“-Interessen zum Beruf gemacht hat. Ich habe mehr als 10 Jahre meines Lebens damit verbracht, modernste Technologie zu nutzen und aus purer Neugier an allen möglichen Programmen herumzubasteln. Mittlerweile habe ich mich auf Computertechnik und Videospiele spezialisiert. Das liegt daran, dass ich seit mehr als fünf Jahren für verschiedene Websites zum Thema Technologie und Videospiele schreibe und Artikel erstelle, die Ihnen die Informationen, die Sie benötigen, in einer für jeden verständlichen Sprache vermitteln möchten.
Bei Fragen reicht mein Wissen von allem rund um das Windows-Betriebssystem bis hin zu Android für Mobiltelefone. Und mein Engagement gilt Ihnen, ich bin immer bereit, ein paar Minuten zu investieren und Ihnen bei der Lösung aller Fragen in dieser Internetwelt zu helfen.
