Amazon Web Services hat auf der »AWS re:Invent 2025« genannten Veranstaltung den neuen KI-Trainingschip Trainium3 vorgestellt.
Das Unternehmen kündigt damit einen wichtigen Schritt in der hausinternen Chip-Entwicklung an, die seit Jahren vorangetrieben wird, denn bei Trainium3 handelt es sich um den ersten Chip mit 3-nm-Fertigung. Gleichzeitig signalisiert AWS in einem Ausblick eine strategische Öffnung gegenüber dem Marktführer Nvidia.
7:12
Der Fire TV Stick kann viel mehr! 8 wertvolle (Einsteiger-)Tipps zum Amazon-Streamer
Ein Chip im Wettbewerb um Relevanz
Mit dem Trainium3 stellt AWS auf eine neue Fertigung um, woraus einige Vorteile entstehen sollen: Der auf 3 Nanometer gefertigte Prozessor soll Kunden beim KI-Training und bei der Inferenz von Sprachanwendungen deutlich schneller bedienen als der Vorgänger.
- In Zahlen will Trainium3 mit einer vierfachen Rechenleistung und dem vierfachen Speicher punkten. Zeitgleich lassen sich bis zu einer Million solcher Chips in einem System verbinden. Das entspricht einem riesigen Computing-Pool, der zehn Mal größer als die vorige Generation ausfällt.
- Das Unternehmen verspricht allerdings nicht nur Performance, sondern auch Wirtschaftlichkeit. So soll Trainium3 auch bei der Energieeffizienz zulegen: 40 Prozent sparsamer soll der neue KI-Chip im Vergleich mit dem Vorgänger sein.
Die »Erstkäufer« zeigen sich laut Amazon zufrieden mit dem bisher vom Trainium3 gesehenen. Anthropic (in das Amazon selbst investiert hat) gehört ebenso zu den Testnutzern wie das japanische Start-up Karakuri. Unternehmensangaben zufolge freuen sich diese Partner über »signifikant reduzierte Inferenzkosten«.
Brücke zu Nvidia statt Bruch
Das eigentliche Signal liegt jedoch in der Ankündigung der kommenden Generation in Form des Trainium4. Während die Konkurrenz auf benutzerdefinierte Prozessoren oder Spezialisierungen setzt, wird der kommende Chip Nvidias NVLink-Fusion-Standard unterstützen – eine Schnittstelle für High-Speed-Kommunikation zwischen Chips verschiedener Hersteller.
Wie TechCrunch erklärt, geht AWS damit einen eher ungewöhnlichen Weg: Während sich viele Chip-Hersteller bemühen, ein Konkurrenzprodukt auf die Beine zu stellen, reicht Amazon dem Marktführer eher die Hand.
- Immerhin ist CUDA – Nvidias Softwarestandard für Grafik-Computing – zum faktischen Quasi-Monopol in der KI-Entwicklung geworden. Fast jede neue Machine-Learning-Anwendung wird zunächst für Nvidias Hardware optimiert.
- Durch die geplante NVLink-Kompatibilität des Trainium4 könnte AWS großen, auf Nvidia ausgelegten Projekten einen Migrations-Katalysator anbieten: Sie könnten ihre bestehende Software beibehalten und trotzdem zu günstigerer, effizienterer AWS-Hardware wechseln.
Zeitangaben für den Release des Trainium4 fehlen allerdings bislang. Von den bisherigen Produktzyklen ausgehend dürfte AWS nächstes Jahr auf der re:Invent 2026 weitere Details mitteilen. Bis dahin bleibt offen, wie schnell der Trainium4 tatsächlich in Produktionsreife gehen wird und welche realen Performance-Unterschiede sich zeigen.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.