ChatGPT, Grok, Gemini, Co-Pilot dürsten nach Strom, wenn sie lernen. Rechenzentren, in denen KIs trainieren, ziehen enorme Mengen an Elektrizität aus den Netzen. Und später wirds nicht besser: Sobald sie zeitgleich Millionen Menschen bei Aufgaben zur Hand gehen, saugen sie erst recht – allein schon durch ihre schiere Masse.
Ein Team aus Kanada hat einen Chip entwickelt, der den Stromdurst der globalen Hirne von Chatbots und Co. mäßigen könnte, die Aussicht: die mehrfache Leistung bei der Übertragung von Daten bei nur einem Bruchteil des bisherigen Strombedarfs. Kurzum: eine Revolution der Datenzentren im Feld der Kommunikation zwischen den Prozessoren.
44:19
»Künstliche Intelligenz ist die neue Elektrizität« - Wir busten mit einem Experten 5 Mythen zu KI
Datenstemmen leicht gemacht
Wer KIs trainiert oder einsetzt, belastet sie vor allem an einer Front: Bandbreite. Damit ist die Datenmenge gemeint, die während einer festgelegten Zeitspanne in die Prozessoren hinein oder heraus gelangen kann. Sie müssen nämlich ständig miteinander Informationspakete austauschen - tausende Mini-Rechenhirne untereinander. Es geht also vereinfacht um ultramoderne Netzwerkkarten, sogenannte: optische Modulatoren.
Der neue Transfer-Chip hebt das alte Limit von 56 Gigabits pro Sekunde auf 1.000 Gigabits pro Sekunde, also um das fast 20-fache, wie einer der beteiligten Forscher, Alireza Geravand, beschreibt.
Achtung: Nicht Gigabits mit Gigabytes verwechseln. Wir messen Festplattengrößen in Größenordnungen von Bytes und Übertragungsgeschwindigkeiten in verschiedenen Ordnungen von Bits. Umrechnen könnt ihr es stets folgendermaßen: Teile die Anzahl der Bits durch 8. 56 Gigabits entsprechend 7 Gigabytes.
Aber wie kann das gehen? Herkömmliche optische Modulatoren operieren vor allem darüber, dass sie die Intensität eines Lichtstrahls, also Photonen, als Datenträger verändern. Hinzu kommt die simpelste Art überhaupt zu kommunizieren: an und aus, nur eben unglaublich schnell.
Die neue Technologie geht zurück ans physikalische Reißbrett und nimmt eine weitere Dimension des Lichts hinzu: seine Phase. Einfachst heruntergebrochen lässt sich dieses Konzept wie halb an und halb aus beschreiben. Das geht zurück auf die Wellennatur von Licht, also dem Auf- und Abschwingen. An welchem Punkt in diesem ultrarasch ablaufenden Vorgang sich ein einzelnes Signal befindet, wird als Phase definiert. Hierzu kommen sogenannte Mikroringmodulatoren (MRMs) zum Einsatz.
Sie helfen, den Strombedarf für die gleiche Datenmenge auf nur noch rund ein Zehntel von heute abzusenken. Die Idee nimmt quasi die Last von der Berechnung und erleichtert somit buchstäblich den Datentransfer, wodurch weniger Energie aufgewendet werden muss, um die Informationen von A nach B, nach C und wieder nach A zu senden. Statt Datenstau und Flaschenhälsen also ungehinderter, geradezu sturzflutartiger Fluss gen Ergebnis.
Geravand verbildlicht die Verbesserung folgendermaßen: Stellen wir uns vor, wir packen Tausende Prozessoren in einen Raum. Die Daten würden bei der derzeit üblichen Technik trotz der nur millimetergroßen Chips Kilometer zurücklegen, um zu den benötigten Punkten zu gelangen. Denn die Verluste an möglicher Geschwindigkeit aufgrund mangelnder Bandbreite summieren sich. Dank der Innovation aus Kanada können die Rechenkerne so effizient und schnell miteinander kommunizieren, als wären sie nur einige Meter voneinander entfernt.
Letztendlich könnte sich die Technik positiv auf unser aller Stromrechnungen auswirken. Mehren sich doch in Amerika inzwischen Proteste von Anwohnern gegen Rechenzentren – ein Grund die steigenden Stromkosten in der Region. Setzt sich der aktuelle Trend wie derzeit bestehend fort, könnte sich das Problem global ausweiten.
Obschon der neue Chip helfen sollte, den Mehrbedarf an Strom der zukünftigen Rechenzentren gegenüber heute zu senken, wird die Gesamtzahl an Rechnern wahrscheinlich weiter drastisch zunehmen. Deshalb kommt es weiterhin – allein aus Umsicht – auf eine grüne Energieversorgung und Speichermöglichkeiten an:
- Die Riesen der Zukunft, die auf dem größten Windrad der Welt basieren, spielen hierbei eine zentrale Rolle und eventuell hilft es auch, Solarzellen einfach mal nass zu spritzen. Wenn wir dann erstmal reichlich regenerative Quellen für Elektrizität haben, braucht es nur noch viele, clevere Speicher – eventuell auch 30 Meter große Betonkugeln am Boden der Nordsee.
Seine Leistungsfähigkeit zeigt der Chip an einem hypothetischen Beispiel: Wir kopieren die gesamte Textmenge (keine Bilder oder Videos, nur Buchstaben und sonstige Zeichen) aller 332 Versionen von Wikipedia, insgesamt etwa 8,3 Terabyte, rund 8.300 Gigabyte. Hierbei ignorieren wir die Datenträger, wir transferieren nur Daten von einem Rechenkern zum nächsten. Der Transfer dauert etwa 66 Sekunden.
Vom Prototyp zur Chipfabrik
Bis solch ein Chip mit derartigen Signalgebern aber massenweise in Rechenzentren zum Einsatz kommt, werden noch einige Jahre vergehen. Die Technik ist laut Angabe der Forschenden vor rund zehn Jahren im Labor in gröbsten Grundzügen entstanden, von da an brauchte es einen Großteil dieser Zeitspanne, um einen funktionsfähigen Prototyp zu bauen.
Ganz so lange werde es eventuell nicht erneut dauern, zeigt sich das Team optimistisch. Denn er könnte beispielsweise potenziell auf ähnlichen industriellen Fertigungsstraßen entstehen wie aktuelle, allgegenwärtige Chips von Intel, AMD und Nvidia. Eine Massenproduktion ist also denkbar.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.