Apple hat sie, Samsung hat sie, AMD hat sie und Intel hat sie jetzt auch: eine eigene NPU.
Dabei handelt es sich um einen Chip, der vor allem bei KI-Anwendungen zum Einsatz kommt. Die weite Verbreitung über die Hersteller hinweg zeigt: Die NPU ist offenbar keine Mode-Erscheinung, sondern gekommen, um zu bleiben.
Aber was macht eine NPU? Warum will jeder Hersteller eine haben? Was bringt sie euch im Alltag und löst sie vielleicht irgendwann sogar die GPU ab?
- Was ist eine NPU?
- NPUs: Das Ende der Grafikchips?
- Warum bald jeder Laptop eine NPU hat
- Was euch eine NPU in der Praxis bringt
Was ist eine NPU?
Bei der NPU (Neural Processing Unit) handelt es sich wie bei CPU oder GPU um einen Prozessor. Ihr Aufgabengebiet sind aber nicht Grafik oder allgemeine Tasks. Die NPU soll stattdessen Machine-Learning-Aufgaben schnell und effizient erledigen.
Das bringt nicht nur einen Performance-Schub, sondern soll auch CPU und GPU entlasten. Dafür wurde die NPU auf die beim Machine Learning stattfindenden mathematischen Berechnungen optimiert.
Ähnlich wie Grafikchips nutzt sie dabei Parallelisierung, um viele kleine Aufgaben auf einmal anzugehen. Gleichzeitig ist sie noch stärker spezialisiert.
Bei diesen Berechnungen sind NPUs daher nicht nur effizienter als Grafikchips, sondern teils sogar bis zu 10.000-mal schneller.
NPUs: Das Ende für Grafikchips?
Das klingt erstmal verdammt mächtig - und in der Größenordnung schon fast wie ein Abgesang für die GPU. Brauchen wir dann in Zukunft GPUs gar nicht mehr, wenn NPUs sparsamer und viel schneller sind?
Aktuell lautet die Antwort ganz klar: doch.
Denn NPUs nutzen ihre Parallelisierung aktuell vor allem, um kleinere, repetitive Aufgaben möglichst effizient anzugehen: Den Hintergrund in einem Videoanruf zu blurren oder einen KI-Chatbot antworten lassen.
GPUs übernehmen hingegen größere Tasks wie (immer stärker auf KI setzende) Grafik-Berechnungen, Videobearbeitung oder das Trainieren von KI-Modellen - damit sind sie selbst im KI-Bereich aktuell die Hardware der Wahl, wenn Stromverbrauch keine Rolle spielt.
Gleichzeitig gibt es schon jetzt das Konzept einer GPNPU (General Purpose NPU), also eines GPU-NPU-Hybriden. Dabei handelt es sich um einen einzelnen Chip, der eine gesunde Balance zwischen der spezialisierten NPU und der Allzweckwaffe
GPU einschlagen soll.
Gut möglich, dass das in Zukunft so gut gelingt, dass GPU und NPU gerade bei besonders platzbeschränkter und auf Akkulaufzeit angewiesener Hardware wie Smartphones und Ultrabooks wieder zu einem Chip zusammenwachsen.
Warum bald jeder Laptop eine NPU hat
Wer sich trotz aller prophezeiten Vorteile einer NPU denkt: Das brauche ich nicht
, hat wohl schon bald gar keine Wahl mehr. Denn die Wahrscheinlichkeit liegt hoch, dass ihr in wenigen Jahren zumindest auf dem mobilen Markt - bei Smartphones und Laptops - zu einem Modell mit NPU greifen müsst.
Schon jetzt hat nahezu jeder große Chip-Hersteller eine eigene Form der NPU entwickelt.
Da wäre etwa Qualcomm, die NPUs bereits seit der Einführung des Snapdragon 855 im Jahr 2018 verwenden. Damals wollte man vor allem mit Huawei gleichziehen, die für ihren hauseigenen Prozessor Kirin 970 mit als Erste auf eine NPU setzten, mittlerweile misst man sich eher mit Samsungs Exynos-Prozessoren, die natürlich ebenfalls eine NPU verbauen.
Auch Apple nutzt NPUs schon seit längerem in seinen Produkten - vor allem unter der Bezeichnung Neural Engine. Die ist in den Prozessoren der M-Serie (u.a. Mac) wie auch der A-Serie (u.a. iPhone) verbaut. Ein Feature, bei dem die NPU zum Tragen kommt, ist etwa Face-ID. Per KI kann der Bildscanner euch dadurch auch erkennen, wenn ihr eine Brille tragt oder euch einen Bart wachsen lasst.
Intel ist erst im Januar so richtig auf den NPU-Zug aufgesprungen. Jeder der neuen Ultra-Chips enthält neben CPU und integrierter GPU auch eine NPU - einer der Gründe, warum man sich bei Intel mit Meteor Lake für einen Wechsel auf ein Chiplet-Design entschieden hat.
AMD ist da schon etwas weiter. Erst vor rund drei Wochen stellte man dort bereits die zweite Generation der hauseigenen NPU unter der Bezeichnung XDNA 2 vor, die 2024 in den Strix-Point-Prozessoren zum Einsatz kommen soll.
Link zum YouTube-Inhalt
Was euch eine NPU in der Praxis bringt
Noch ist der tatsächliche Nutzen vieler NPUs überschaubar. Einen gewissen Vorteil bei Performance und Laufzeit liefern die Chips schon jetzt, gerade dort, wo Hard- und Software aus einer Hand kommen (Hust, Apple).
Aber vor allem in absehbarer Zukunft soll der Vorteil von NPUs so richtig ausgespielt werden können. Denn aktuell sieht es nicht so aus, als seien KI-Anwendungen nur ein Trend, der vorübergeht.
Vorhersagen sind bei einem sich so schnell entwickelnden Feld schwierig, doch je mehr Apps und Anwendungen auf den Zug aufspringen und generative KI in ihren Werkzeugkasten integrieren, desto mächtiger dürften auch NPUs werden.
Gleichzeitig dürften Betriebssysteme noch besser darin werden, KI-Aufgaben zwischen CPU, GPU und NPU zu verteilen, was die Hardware Aufgaben noch effizienter lösen lässt.
Was meint ihr? Nehmen NPUs in Computern künftig eine immer größere Rolle? Gesellen sie sich dabei als Dritte im Bunde zu CPU und GPU - oder wachsen sie in ein paar Jahren wieder mit letzteren zusammen? Welche Anwendungen nutzt ihr selbst, bei denen eine NPU im Alltag helfen könnte - oder das vielleicht bereits tut? Schreibt es uns in die Kommentare!
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.