Microsoft: Das Internet ist besser, wenn es aus dem Meer kommt

Microsoft hat den ersten Test seiner Unterwasser-Server beendet und ist erfreut: Das Datenzentrum am Meeresboden arbeiter zuverlässlicher als andere Zentren dieser Art.

von Mathias Dietrich,
17.09.2020 15:17 Uhr

Die Zeit im Meer ist nicht spurlos am Unterwasser-Server von Microsoft vorbeigegangen. Die Zeit im Meer ist nicht spurlos am Unterwasser-Server von Microsoft vorbeigegangen.

Microsoft treibt das Konzept der Wasserkühlung auf die Spitze: Der Konzern hat von Juni 2018 bis 2020 einen Ozean genutzt, um eines seiner Datenzentren zu kühlen - mit Erfolg! Im Sommer beendeten sie den »Project Natick« genannten Test jedoch und fischten ihren Container wieder aus dem Meer.

Für den Bau ihres experimentellen Datenzentrums hat Microsoft mit der Naval Group zusammengearbeitet - einer französischen Firma, die sich unter anderem auf erneuerbare Energien spezialisieren.

Gemeinsam verbauten sie ihre Technologie in einem Gehäuse, das ungefähr so groß ist wie ein standardmäßiger Frachtcontainer und füllten dieses mit Nitrogen.

Was steckt hinter dem Projekt?

Project Natick begann im Jahr 2014 während einer ThinkWeek. Währenddessen konnten die Angestellten von Microsoft unkonventionelle Ideen vorschlagen.

Schnelleres Internet: Der Grundgedanke war, dass ein Großteil der Menschheit in Küstennähe lebt. Ein Datenzentrum in der Nähe großer Küstenstädte könne deswegen zu stark verbesserten Internetgeschwindigkeiten führen.

Für den Test nutzte man das Meer in der Nähe von Orkney bei Schottland. Die Gründe dafür waren vielfältig. Nicht nur wird in dem Gebiet Forschung für erneuerbare Energien betrieben, auch war Microsoft der Ansicht, dass sie dazu in der Lage sind, ihre Unterwasser-Datenzentren überall einzusetzen, wenn es ihnen in Orkney gelingt.

Besser als herkömmliche Serverfarmen

So sehen die eigentliche Server-Hardware im Inneren des Containers aus. So sehen die eigentliche Server-Hardware im Inneren des Containers aus.

Überzeugendes Ergebnis: Wie Microsoft bekannt gibt, erwies sich Project Natick als wesentlich verlässlicher als die bisher übliche Methode, Datenzentren zu betreiben. Es soll nur 1/8 so viele Probleme gegeben haben wie in Land-basierten Systemen.

Dafür machte man nicht nur die Nitrogenhaltige Umgebung verantwortlich, die zu weniger Korrosion führt als Sauerstoff, sondern auch »die Abwesenheit von Menschen, die gegen die Geräte rennen«. Sollte man diese Hypothesen in der weiteren Analyse bestätigen können, wird man die Erkenntnisse auch nutzen, um klassische Serverfarmen zu verbessern.

Natick half gegen Corona

Bevor Microsoft Natick wieder aus dem Meer angelte, unterstützte die Serverfarm gar die Erforschung des Corona-Virus mithilfe von Folding@home. Der technische Leiter Spencer Fowers installierte die notwendige Software dafür auf den Rechnern, die vor der Küste Schottlands versenkt waren.

Nachdem die erste Testphase jetzt erfolgreich beendet wurde, plant man bereits die zweite. Damit will man den längerfristigen Einsatz von bis zu fünf Jahren untersuchen und zudem weitere Lösungen ergründen, die weniger Ressourcen benötigen. Das große Ziel des Projektes ist ein kommerzieller Einsatz von Project Natick.

zu den Kommentaren (39)

Kommentare(39)

Nur angemeldete Benutzer können kommentieren und bewerten.