Nvidia beschreitet bei der Konkurrenz zu Google und OpenAI neue Wege: Der Chipkonzern wird nicht nur Lieferant der notwendigen Hardware, sondern steigt selbst in die Entwicklung von KI-Modellen ein.
Mit der Nemotron-3-Familie präsentiert Nvidia offene Modelle, die laut der Mitteilung im hauseigenen Blog Nutzer herunterladen, modifizieren und auf eigener Infrastruktur betreiben können.
2:11
GameStar Survivors: Wir haben ein Spiel mit KI programmiert und würden dem Ergebnis im Test mindestens eine 84er-Wertung geben
Drei Varianten für unterschiedliche Anforderungen
Die Nemotron-3-Familie umfasst drei verschiedene Modellgrößen, die laut Entwicklerangaben für unterschiedliche Einsatzszenarien optimiert sind.
- Nemotron 3 Nano verfügt über 30 Milliarden Parameter und konzentriert sich auf hocheffiziente, spezialisierte Aufgaben wie Software-Debugging, Inhaltszusammenfassung und KI-Assistenten.
- Nemotron 3 Super bietet etwa 100 Milliarden Parameter für Multi-Agent-Anwendungen mit anspruchsvollen Schlussfolgerungen, während die Ultra-Variante mit rund 500 Milliarden Parametern als leistungsstarke Reasoning-Engine für komplexe KI-Anwendungen fungieren soll.
Das Besondere an dieser Architektur ist laut Nvidia das hybride »Mixture-of-Experts-Design« (MoE) mit Mamba-Transformern (via Hugging Face).
Dabei handelt es sich um eine Kombination zweier Technologien: MoE steht effektiv für ein KI-System aus vielen speziellen Submodellen, die je nach Aufgabe aktiviert werden. Mamba-Transformer stellt indes eine moderne Variante der KI-Architekturen dar, die besser mit längeren Textsequenzen umgehen kann.
Schneller, größer, effizienter
Besonders das neue Nano-Modell steht aktuell im Fokus und erreicht nach Herstellerangaben einen viermal höheren Token-Durchsatz im Vergleich zu seinem Vorgänger Nemotron 2 Nano; zeitgleich soll die neue Variante bis zu 60 Prozent weniger Reasoning-Token benötigen, was die Inferenzkosten erheblich senken dürfte.
Ein weiteres Merkmal, das Nemotron 3 auszeichnet, ist ein Kontextfenster von einer Million Token – das ist die Menge an Text, die das System gleichzeitig berücksichtigen kann.
- Dies soll präzisere Langzeit-Ausgaben und bessere Fähigkeiten zur Verknüpfung von Informationen über mehrstufige, längere Aufgaben ermöglichen.
- Das Training basierte Nvidia zufolge auf drei Billionen neuer Nemotron-Datensätze, die Vorabtraining, Nachschulung und verstärkendes Lernen abdecken.
Verfügbarkeit und Partnerschaften
Nemotron 3 Nano wird laut Nvidia als NIM-Mikroservice (eine kleine, spezialisierte Softwarekomponente, die in größere Systeme integriert wird) auf Nvidia-beschleunigter Infrastruktur verfügbar sein.
- Das Modell wird durch Amazon Bedrock (serverlos) auf AWS und in Kürze auf Google Cloud, Coreweave, Nebius, Nscale und Yotta bereitgestellt.
- Zu den frühen Anwendern zählen laut Mitteilungen Unternehmen wie Microsoft Azure, Dell, Oracle Infrastructure, Perplexity, ServiceNow, Siemens und Zoom.
- Nemotron 3 Super und Ultra werden voraussichtlich in der ersten Hälfte des Jahres 2026 verfügbar sein.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.