Dieser neue Chip könnte Rechenzentren revolutionieren. Sein Geheimnis: er schickt Daten mittels Lichtpaketen umher, was euch bares Geld sparen könnte

In Computern rasen Daten in Form von digitalen Signalen. Das kostet vor allem in Datenzentren viel Strom – Forscher bieten dafür jetzt eine Lösung an.

Computerchips und ihre Verbindungen untereinander sind heutzutage unerlässlich für unser modernes Leben. Vor allem künstliche Intelligenz setzt auf eine immer weiter steigende Menge, die in der Folge auch Unmengen an Strom brauchen. (Bildquelle: Unsplash, Omar:. Lopez-Rincon) Computerchips und ihre Verbindungen untereinander sind heutzutage unerlässlich für unser modernes Leben. Vor allem künstliche Intelligenz setzt auf eine immer weiter steigende Menge, die in der Folge auch Unmengen an Strom brauchen. (Bildquelle: Unsplash, Omar:. Lopez-Rincon)

ChatGPT, Grok, Gemini, Co-Pilot dürsten nach Strom, wenn sie lernen. Rechenzentren, in denen KIs trainieren, ziehen enorme Mengen an Elektrizität aus den Netzen. Und später wirds nicht besser: Sobald sie zeitgleich Millionen Menschen bei Aufgaben zur Hand gehen, saugen sie erst recht – allein schon durch ihre schiere Masse.

Ein Team aus Kanada hat einen Chip entwickelt, der den Stromdurst der globalen Hirne von Chatbots und Co. mäßigen könnte, die Aussicht: die mehrfache Leistung bei der Übertragung von Daten bei nur einem Bruchteil des bisherigen Strombedarfs. Kurzum: eine Revolution der Datenzentren im Feld der Kommunikation zwischen den Prozessoren.

Video starten 44:19 »Künstliche Intelligenz ist die neue Elektrizität« - Wir busten mit einem Experten 5 Mythen zu KI

Datenstemmen leicht gemacht

Wer KIs trainiert oder einsetzt, belastet sie vor allem an einer Front: Bandbreite. Damit ist die Datenmenge gemeint, die während einer festgelegten Zeitspanne in die Prozessoren hinein oder heraus gelangen kann. Sie müssen nämlich ständig miteinander Informationspakete austauschen - tausende Mini-Rechenhirne untereinander. Es geht also vereinfacht um ultramoderne Netzwerkkarten, sogenannte: optische Modulatoren.

Der neue Transfer-Chip hebt das alte Limit von 56 Gigabits pro Sekunde auf 1.000 Gigabits pro Sekunde, also um das fast 20-fache, wie einer der beteiligten Forscher, Alireza Geravand, beschreibt.

Achtung: Nicht Gigabits mit Gigabytes verwechseln. Wir messen Festplattengrößen in Größenordnungen von Bytes und Übertragungsgeschwindigkeiten in verschiedenen Ordnungen von Bits. Umrechnen könnt ihr es stets folgendermaßen: Teile die Anzahl der Bits durch 8. 56 Gigabits entsprechend 7 Gigabytes.

Aber wie kann das gehen? Herkömmliche optische Modulatoren operieren vor allem darüber, dass sie die Intensität eines Lichtstrahls, also Photonen, als Datenträger verändern. Hinzu kommt die simpelste Art überhaupt zu kommunizieren: an und aus, nur eben unglaublich schnell.

Die neue Technologie geht zurück ans physikalische Reißbrett und nimmt eine weitere Dimension des Lichts hinzu: seine Phase. Einfachst heruntergebrochen lässt sich dieses Konzept wie halb an und halb aus beschreiben. Das geht zurück auf die Wellennatur von Licht, also dem Auf- und Abschwingen. An welchem Punkt in diesem ultrarasch ablaufenden Vorgang sich ein einzelnes Signal befindet, wird als Phase definiert. Hierzu kommen sogenannte Mikroringmodulatoren (MRMs) zum Einsatz.

Sie helfen, den Strombedarf für die gleiche Datenmenge auf nur noch rund ein Zehntel von heute abzusenken. Die Idee nimmt quasi die Last von der Berechnung und erleichtert somit buchstäblich den Datentransfer, wodurch weniger Energie aufgewendet werden muss, um die Informationen von A nach B, nach C und wieder nach A zu senden. Statt Datenstau und Flaschenhälsen also ungehinderter, geradezu sturzflutartiger Fluss gen Ergebnis.

Server bilden das Rückgrat der globalen Wirtschaft. Dabei kommt es aber nicht nur auf ihre interne Geschwindigkeit, sondern auch auf die Datenübertragungsraten untereinander an. (Bildquelle: Adobe Stock, Gorodenkoff) Server bilden das Rückgrat der globalen Wirtschaft. Dabei kommt es aber nicht nur auf ihre interne Geschwindigkeit, sondern auch auf die Datenübertragungsraten untereinander an. (Bildquelle: Adobe Stock, Gorodenkoff)

Geravand verbildlicht die Verbesserung folgendermaßen: Stellen wir uns vor, wir packen Tausende Prozessoren in einen Raum. Die Daten würden bei der derzeit üblichen Technik trotz der nur millimetergroßen Chips Kilometer zurücklegen, um zu den benötigten Punkten zu gelangen. Denn die Verluste an möglicher Geschwindigkeit aufgrund mangelnder Bandbreite summieren sich. Dank der Innovation aus Kanada können die Rechenkerne so effizient und schnell miteinander kommunizieren, als wären sie nur einige Meter voneinander entfernt.

Letztendlich könnte sich die Technik positiv auf unser aller Stromrechnungen auswirken. Mehren sich doch in Amerika inzwischen Proteste von Anwohnern gegen Rechenzentren – ein Grund die steigenden Stromkosten in der Region. Setzt sich der aktuelle Trend wie derzeit bestehend fort, könnte sich das Problem global ausweiten.

Obschon der neue Chip helfen sollte, den Mehrbedarf an Strom der zukünftigen Rechenzentren gegenüber heute zu senken, wird die Gesamtzahl an Rechnern wahrscheinlich weiter drastisch zunehmen. Deshalb kommt es weiterhin – allein aus Umsicht – auf eine grüne Energieversorgung und Speichermöglichkeiten an:

Seine Leistungsfähigkeit zeigt der Chip an einem hypothetischen Beispiel: Wir kopieren die gesamte Textmenge (keine Bilder oder Videos, nur Buchstaben und sonstige Zeichen) aller 332 Versionen von Wikipedia, insgesamt etwa 8,3 Terabyte, rund 8.300 Gigabyte. Hierbei ignorieren wir die Datenträger, wir transferieren nur Daten von einem Rechenkern zum nächsten. Der Transfer dauert etwa 66 Sekunden.

Vom Prototyp zur Chipfabrik

Bis solch ein Chip mit derartigen Signalgebern aber massenweise in Rechenzentren zum Einsatz kommt, werden noch einige Jahre vergehen. Die Technik ist laut Angabe der Forschenden vor rund zehn Jahren im Labor in gröbsten Grundzügen entstanden, von da an brauchte es einen Großteil dieser Zeitspanne, um einen funktionsfähigen Prototyp zu bauen.

Ganz so lange werde es eventuell nicht erneut dauern, zeigt sich das Team optimistisch. Denn er könnte beispielsweise potenziell auf ähnlichen industriellen Fertigungsstraßen entstehen wie aktuelle, allgegenwärtige Chips von Intel, AMD und Nvidia. Eine Massenproduktion ist also denkbar.

zu den Kommentaren (1)

Kommentare(1)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.