Zum Hauptinhalt springen

Die Rechenzentren der ZukunftDatenzentren sollen grüner und kleiner werden

Datenzentren sind das Rückgrat der digitalen Welt, aber auch gewaltige Energiefresser. IT-Konzerne forschen nach Lösungen, Microsoft zum Beispiel versucht es am Meeresgrund.

Reinigung nach zwei Jahren auf dem Meeresgrund: Das Microsoft-Rechenzentrum Natick.
Reinigung nach zwei Jahren auf dem Meeresgrund: Das Microsoft-Rechenzentrum Natick.
Foto: PD

Natick heisst das Rechenzentrum der Zukunft – zumindest dann, wenn man den Ingenieuren von Microsoft Glauben schenken will. Vor zwei Jahren hat der Softwarekonzern den weissen Stahltank, vollgepackt mit 864 Servern, in der Nordsee versenkt. Diesen Sommer hat er Natick wieder an die Oberfläche geholt, mitsamt Algen, Minikrebsen und Seeanemonen. Innerlich hat sich das Rechenzentrum von all dem nicht beeindrucken lassen. Es hat das gemacht, sagt Microsoft, was es machen sollte: rechnen, und zwar sparsamer und effizienter als seine Pendants an Land.

Der Softwarekonzern ist mit diesen Forschungsaktivitäten nicht allein. Auch andere Digitalunternehmen arbeiten daran, ihre Rechenzentren fit zu machen für die Zukunft. Sie sollen nicht länger Kostentreiber, Energiefresser und Nadelöhre sein. Stattdessen sollen sie kleiner werden, grüner und dezentraler. Das allerdings ist auch dringend nötig, wenn der Traum von einer durch und durch digitalen Welt nicht jäh enden soll.

Ohne Rechenzentren geht heutzutage schliesslich nichts mehr: Die meist unscheinbaren Gebäude sind das Rückgrat des Internets. Hier werden die Bilder gespeichert, die Menschen bei Instagram hochladen. Hier laufen die Videos von Netflix. Hier werden Google-Suchen durchgeführt, Amazon-Bestellungen und die Schlachten des Computerspiels «Fortnite».

Auch immer mehr Berechnungen werden hier angestellt – für all jene Prozesse, die in die nebulöse «Cloud» ausgelagert worden sind, jenen weltumspannenden, unsichtbaren Computer. Kurzum: Ohne die geschätzt acht Millionen Rechenzentren rund um den Globus würde kein Smartphone funktionieren und keine digitale Information ihren Empfänger erreichen.

Bald fünf Milliarden Internetnutzer

Rechenzentren sind aber auch gewaltige Stromfresser. Gut 200 Terawattstunden haben die Zentren im Jahr 2018 weltweit aus der Steckdose gezogen – etwa ein Prozent des globalen Stromverbrauchs. Zu diesem Schluss kommt Eric Masanet von der US-Universität Northwestern in einer aktuellen Studie, die der Ingenieur gemeinsam mit Kollegen im Fachmagazin «Science» veröffentlicht hat.

Es hätte schlimmer kommen können: Seit 2010 hat sich die globale Rechenlast in den Zentren versechsfacht, der Internetverkehr wuchs um den Faktor 10, der Speicherplatz sogar um den Faktor 25. Trotzdem ist der Stromverbrauch, so Masanet, im gleichen Zeitraum nur um 6 Prozent gestiegen. Sparsame Prozessoren und immer besser ausgelastete Server haben dies möglich gemacht.

Doch kann das so weitergehen? Im Jahr 2023 wird die Zahl der Internetnutzer weltweit erstmals die Marke von fünf Milliarden übersteigen, schätzt der Netzwerkausrüster Cisco. Zwei Drittel aller Menschen können dann ihre Katzenbilder im Netz speichern. Auch die Datenmenge wird rasant klettern, um etwa 60 Prozent pro Jahr, wie das Beratungsunternehmen IDC ermittelt hat.

Mitte des Jahrzehnts könnten demnach weltweit 175 Zettabyte erreicht sein oder 175 Billiarden Megabyte. Knapp die Hälfte davon, schätzt IDC, wird in der Cloud liegen – und damit in Rechenzentren. Lässt sich all das leisten, ohne dass der Energieverbrauch durch die Decke geht?

Statt Wasser durch Server zu pumpen, will Microsoft seine Server ins Wasser stellen.

Nicht mit heutiger Technologie: Bislang sind Rechenzentren eher unwirtliche Orte. Wer die Möglichkeit hat, solch einen Datentempel zu besuchen, steht inmitten grosser Schränke. Ein jeder ist bis obenhin vollgestapelt mit Servern, die allesamt nicht grösser sind als eine halbhohe Besteckschublade aus der Küche. Dioden blinken, es ist laut, kalt, trocken und zugig.

Die wenig einladende Umgebung hat ihren Grund: Server laufen heiss, sobald sie komplexe Berechnungen anstellen – ganz ähnlich wie der alte Laptop zu Hause auf dem Sofa, wenn er stundenlang Videos abspielen muss. Um die Wärme abzuführen, blasen Rechenzentren bislang meist kalte Luft durch Löcher im Boden in den Serverraum. Der Luftstrom wird über die Prozessoren geleitet und an der Decke wieder abgesaugt – nun deutlich wärmer durch die Hitze der Computer. Das Prinzip funktioniert für Serverschränke mit einer Leistung von bis zu 20’000 Watt recht gut.

Künftig rechnen Ingenieure allerdings mit 100’000 Watt pro Schrank oder mehr. Solche Wärmemengen allein mit Luft abzuführen, wäre ausgesprochen ineffizient und teuer. Der Strombedarf für die Kühlung, der bei heutigen Rechenzentren zwischen 10 und 20 Prozent des gesamten Energieaufwands liegt, würde massiv steigen. Daher stellen die Zentren zunehmend auf wassergekühlte Systeme um.

Rechenzentrum in 35 Metern Tiefe

Microsoft geht einen anderen Weg. Statt Wasser durch Server zu pumpen, will der Softwarekonzern seine Server ins Wasser stellen. Beim weissen Rechenzylinder namens Natick, im Juni 2018 vor den schottischen Orkney-Inseln in 35 Metern Tiefe versenkt, wird dazu Süsswasser aus einem internen, geschlossenen Kühlkreislauf zu den Prozessoren geleitet.

Das Wasser erhitzt sich und fliesst über Rohre nach aussen, wo ein Wärmetauscher die Energie ans Meer abgibt – ohne dass eine Wasserrechnung droht. Ein ähnliches System wird auch benutzt, um das Innere von U-Booten kühl zu halten.

Grösste Sorge im Vorfeld von Natick sei gewesen, dass sich Algen oder sonstiges Meeresgetier auf den Kühllamellen des 14 Meter langen Stahltanks niederlassen und den Wärmeaustausch behindern, erzählt Projektmanager Ben Cutler auf der Website von Microsoft. Die Ingenieure experimentierten daher mit verschiedenen Beschichtungen, sogar der Einsatz von Schall und ultraviolettem Licht wurde diskutiert, um Meereslebewesen zu vertreiben.

Am Ende setzte sich eine Legierung aus Kupfer und Nickel durch. Das Material führt Wärme gut ab und widersteht zugleich dem Bewuchs durch maritime Organismen, ist allerdings etwas teurer als herkömmliche Wärmetauscher.

Auch Befürchtungen, das umgebende Wasser würde sich durch die Leistung des versenkten Rechenzentrums – immerhin 240 Kilowatt – stark erhitzen, bewahrheiteten sich nicht. Ein paar Meter vom Stahlzylinder entfernt seien Temperaturen gemessen worden, die lediglich um einige Tausendstel Grad Celsius höher gelegen hätten als zuvor, schreibt Projektmanager Cutler im Fachblatt «IEEE Spectrum». Noch ist unklar, welche Effekte riesige Serverfarmen, zusammengesetzt aus vielen einzelnen Rechenzylindern, auf die maritime Umgebung hätten.

Die Schweden gehen in die umgekehrte Richtung. In Stockholm wollen sie die Abwärme von Rechenzentren nutzen, um ihre Häuser zu heizen. Das bis zu 85 Grad Celsius heisse Wasser aus den Kühlsystemen wird dazu ins bestehende Fernwärmenetz der Stadt gespeist. Zehn Megawatt an Leistung reichen laut den Stockholmer Ingenieuren, um 20’000 Wohnungen zu heizen.

Zum Vergleich: Ein modernes Grossrechenzentrum, wie es unter anderem von Facebook betrieben wird, erreicht 120 Megawatt. Bis zum Jahr 2035 sollen 10 Prozent der Stadt Stockholm mit der Abwärme von Rechenzentren beheizt werden.

Nordische Länder stehen bei den Betreibern der Zentren ohnehin hoch im Kurs: Das Klima ist frostig, was den Aufwand für Kühlsysteme senkt. Der Strom ist günstig (oder wird, wie in Schweden, stark subventioniert) und stammt meist aus regenerativen Quellen.

Facebook zum Beispiel hat im schwedischen Lulea ein riesiges Rechenzentrum direkt neben einem Wasserkraftwerk errichtet. Auch der Strom für den Natick-Zylinder auf den Orkney-Inseln stammt von Wind, Sonne und Wellen. Man habe gezeigt, heisst es bei Microsoft, dass sich ein Rechenzentrum mit einem Strommix betreiben lasse, der bislang als unzuverlässig gegolten habe.

Beim Ökostrom liegt mehr drin

Unzuverlässig, vor allem aber unpraktisch: Zwar behaupten alle grossen Digitalkonzerne, mit Strom aus erneuerbaren Energien zu rechnen. Meist erwerben die Unternehmen dazu allerdings globale Öko-Zertifikate, während der Strom vor Ort vom nächsten Kohlekraftwerk kommt. Um auch lokal grüner zu werden, experimentiert Google in seinen Rechenzentren seit kurzem mit einem neuen Algorithmus: Er prognostiziert auf Basis der Wettervorhersage des kommenden Tages, in welchen Stunden mit besonders viel regenerativem Strom zu rechnen ist, und legt nicht dringend benötigte Rechenaufgaben in genau diese Zeiträume.

Dazu gehört, wie Projektleiterin Ana Radovanovic im Blog des Internetgiganten schreibt, unter anderem das Bearbeiten von Videos oder das Training der firmeneigenen Übersetzungssoftware. «Erste Ergebnisse zeigen, dass die klimafreundliche Lastverteilung funktioniert», sagt Radovanovic, ohne allerdings konkrete Zahlen zur CO2-Einsparung zu nennen.

Potenzial ist jedenfalls vorhanden: Bislang sind, nach Einschätzungen von Google, nur etwa zwei Drittel aller Berechnungen des Unternehmens mit Ökostrom gelaufen. Künstliche Intelligenz soll zudem helfen, die Kühlsysteme besser an den prognostizierten Rechenbedarf anzupassen. Drei Grad weniger Raumtemperatur senken die Energiekosten theoretisch um ein Viertel. In der Praxis will Google den Strombedarf auf diese Weise bereits um 30 Prozent reduziert haben (Lesen Sie zum Thema auch den Artikel «Google will komplett auf Kohle und Gas verzichten».)

Der Trend geht zu kleinen, dezentralen Rechenzentren direkt vor der Haustür.

Das Problem: Hoch im Norden, wo es kühl ist und der Strom sauber, werden all diese Datenmengen nicht benötigt. Die Ballungszentren liegen woanders. Durch die grossen Distanzen steigt allerdings die Latenz, wie Informatiker die Verzögerung beim Abruf von Informationen nennen: Ist ein Rechenzentrum 100 Kilometer entfernt, vergeht eine Tausendstelsekunde, bis es auf einen Klick reagieren kann.

Liegen 5000 Kilometer zwischen Computer und Server, vergehen 50 Tausendstelsekunden. Beim Abspielen eines Films ist das vernachlässigbar. Wird allerdings die heimische Textverarbeitung in die Cloud verlegt, was viel Interaktion mit dem Server benötigt, macht sich eine hohe Latenz störend bemerkbar.

Der Trend geht daher zu kleinen, dezentralen Rechenzentren direkt vor der Haustür. Auch hierzu soll Natick seinen Beitrag leisten. Mehr als die Hälfte aller Menschen lebe weniger als 200 Kilometer von einer Küste entfernt, heisst es bei Microsoft. Im Meer versenkte Rechenzentren – effizient, schnell angebunden und ohne hohe Grundstückskosten – könnten daher eine gute Alternative darstellen.

Allerdings nur, wenn nicht alle paar Tage ein Taucher für Reparaturen vorbeischauen muss. Rechenzentren wie Natick, benannt nach einer Stadt im US-Bundesstaat Massachusetts, arbeiten daher autonom – jahrelang, bis zum Ende ihrer geplanten Lebensdauer. Vor den Orkney-Inseln hat das offenbar gut funktioniert. Zwar hätten einige Server während des Testbetriebs die Arbeit eingestellt, heisst es bei Microsoft. Insgesamt habe die Ausfallrate nur bei einem Achtel des Werts eines vergleichbaren landgestützten Rechenzentrums gelegen.

Projektmanager Cutler macht dafür die trockene Stickstoffatmosphäre im hermetisch abgeschlossenen Zylinder verantwortlich, die Korrosion und Temperaturschwankungen unterbunden habe. Und er weist darauf hin, dass keine Techniker durch das Rechenzentrum geschlurft und versehentlich gegen Server gestossen sind, dass sie keine Kabel herausgerissen oder anderes Chaos veranstaltet haben.

Das allerdings liesse sich auch ohne von Algen und Krebsen überzogene Stahlzylinder realisieren: durch autonome, komplett wartungsfreie Rechenzentren an Land. Auch daran arbeiten Microsoft, Google und Co. bereits.

36 Kommentare
    Hanspeter P.

    Hmmmm... „Zehn Megawatt an Leistung reichen laut den Stockholmer Ingenieuren, um 20’000 Wohnungen zu heizen“ ergibt 0,5 kw pro Wohnung. Hier wird ein Fehler vorliegen. Oder die Wohnungen bestehen aus Toilette mit Einbauküche ;-