Google, OpenAI und Co. werden immer gefährlicher für Nvidia. Deren Lösung: Sie drehen den Spieß einfach um

Nvidia kontert die KI-Konkurrenz durch Google und OpenAI mit einer neuen Strategie: Der Chipkonzern wird selbst zum Modell-Entwickler.

Nvidia erweitert sein Portfolio: Mit Nemotron 3 bietet der Chipriese nun auch eigene, modifizierbare KI-Modelle für Entwickler an. (Bildquelle: Nvidia) Nvidia erweitert sein Portfolio: Mit Nemotron 3 bietet der Chipriese nun auch eigene, modifizierbare KI-Modelle für Entwickler an. (Bildquelle: Nvidia)

Nvidia beschreitet bei der Konkurrenz zu Google und OpenAI neue Wege: Der Chipkonzern wird nicht nur Lieferant der notwendigen Hardware, sondern steigt selbst in die Entwicklung von KI-Modellen ein.

Mit der Nemotron-3-Familie präsentiert Nvidia offene Modelle, die laut der Mitteilung im hauseigenen Blog Nutzer herunterladen, modifizieren und auf eigener Infrastruktur betreiben können.

Video starten 2:11 GameStar Survivors: Wir haben ein Spiel mit KI programmiert und würden dem Ergebnis im Test mindestens eine 84er-Wertung geben

Drei Varianten für unterschiedliche Anforderungen

Die Nemotron-3-Familie umfasst drei verschiedene Modellgrößen, die laut Entwicklerangaben für unterschiedliche Einsatzszenarien optimiert sind.

  • Nemotron 3 Nano verfügt über 30 Milliarden Parameter und konzentriert sich auf hocheffiziente, spezialisierte Aufgaben wie Software-Debugging, Inhaltszusammenfassung und KI-Assistenten.
  • Nemotron 3 Super bietet etwa 100 Milliarden Parameter für Multi-Agent-Anwendungen mit anspruchsvollen Schlussfolgerungen, während die Ultra-Variante mit rund 500 Milliarden Parametern als leistungsstarke Reasoning-Engine für komplexe KI-Anwendungen fungieren soll.

Das Besondere an dieser Architektur ist laut Nvidia das hybride »Mixture-of-Experts-Design« (MoE) mit Mamba-Transformern (via Hugging Face).

Dabei handelt es sich um eine Kombination zweier Technologien: MoE steht effektiv für ein KI-System aus vielen speziellen Submodellen, die je nach Aufgabe aktiviert werden. Mamba-Transformer stellt indes eine moderne Variante der KI-Architekturen dar, die besser mit längeren Textsequenzen umgehen kann.

Schneller, größer, effizienter

Besonders das neue Nano-Modell steht aktuell im Fokus und erreicht nach Herstellerangaben einen viermal höheren Token-Durchsatz im Vergleich zu seinem Vorgänger Nemotron 2 Nano; zeitgleich soll die neue Variante bis zu 60 Prozent weniger Reasoning-Token benötigen, was die Inferenzkosten erheblich senken dürfte.

Ein weiteres Merkmal, das Nemotron 3 auszeichnet, ist ein Kontextfenster von einer Million Token – das ist die Menge an Text, die das System gleichzeitig berücksichtigen kann.

  • Dies soll präzisere Langzeit-Ausgaben und bessere Fähigkeiten zur Verknüpfung von Informationen über mehrstufige, längere Aufgaben ermöglichen.
  • Das Training basierte Nvidia zufolge auf drei Billionen neuer Nemotron-Datensätze, die Vorabtraining, Nachschulung und verstärkendes Lernen abdecken.

Verfügbarkeit und Partnerschaften

Nemotron 3 Nano wird laut Nvidia als NIM-Mikroservice (eine kleine, spezialisierte Softwarekomponente, die in größere Systeme integriert wird) auf Nvidia-beschleunigter Infrastruktur verfügbar sein.

  • Das Modell wird durch Amazon Bedrock (serverlos) auf AWS und in Kürze auf Google Cloud, Coreweave, Nebius, Nscale und Yotta bereitgestellt.
  • Zu den frühen Anwendern zählen laut Mitteilungen Unternehmen wie Microsoft Azure, Dell, Oracle Infrastructure, Perplexity, ServiceNow, Siemens und Zoom.
  • Nemotron 3 Super und Ultra werden voraussichtlich in der ersten Hälfte des Jahres 2026 verfügbar sein.
zu den Kommentaren (0)

Kommentare(0)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.