designsoliman - Fotolia

Energieeffizienz von Rechenzentren: aus alt mach nachhaltig

Unternehmen sind gezwungen, den Energieverbrauch ihrer Rechenzentren zu senken und so die CO2-Bilanz zu verbessern. Eine Modernisierung ist auch mit Bordmitteln möglich.

Hohe Stromkosten, der Wunsch der Kunden nach mehr Nachhaltigkeit und strenge Vorgaben zwingen Unternehmen, den Energieverbrauch ihres Rechenzentrums zu senken und so die CO2-Bilanz zu verbessern. Geld für neue Systeme fehlt jedoch oftmals. Was gerne vergessen wird: Eine Modernisierung ist bei Bestandsstrukturen auch mit Bordmitteln möglich.

Bis vor ein paar Jahren haben sich die meisten Unternehmen – einmal abgesehen von Colocation-Betreibern – keine großen Gedanken über den Strombedarf ihres Rechenzentrums gemacht. Verfügbarkeit, Performance und Sicherheit hatten einen höheren Stellenwert. Angesichts der deutlich gestiegenen Energiesparpreise hat sich der Blickwinkel jedoch verschoben.

Die Erwartungshaltung seitens der Kunden, Partner und Kapitalgeber sowie die immer strengeren Regulatorien der EU setzen die Firmen zusätzlich unter Druck, die Klimabilanz ihrer Infrastruktur endlich zu verbessern. Zuletzt hat das anstehende Energieeffizienzgesetz für Unruhe gesorgt: Neue Rechenzentren sollen ab dem 1. Juli 2026 im Jahresmittel eine PUE (Power Usage Effectiveness) von 1,2 erreichen. Zudem ist bei einem jährlichen Energiebedarf von mehr als 7,5 GWh ein Energie- und Umweltmanagementsystem vorgeschrieben. Bestehende Anlagen nimmt der Gesetzgeber ab 2017 schrittweise in die Pflicht.

Unnütze Systeme schlagen sich in Stromrechnung nieder

Fakt ist: Die Total Cost of Ownership, die Investitions- und Betriebskosten bewertet, um den Erfolg und die Effizienz des Anlagendesigns zu messen, hilft bei der Bewertung der Nachhaltigkeit nicht weiter. Vielmehr muss die Leistung des Rechenzentrums in Relation zu Energie- und Rohstoffaufwand gesetzt werden.

Die wichtigste Metrik für die Messung der Energieeffizienz ist dabei der PUE-Wert: Er setzt den gesamten Strombedarf des Data Center mit dem Verbrauch des eingesetzten Equipments ins Verhältnis. So wird sichtbar, wie viel Energie für Kühlung, Netzwerk und Spannungswandlung verloren geht. Je niedriger die Nachkommazahl beim PUE ist, desto geringer ist der Prozentsatz der verschwendeten Energie.

Die Ausgangslage ist jedoch unterschiedlich: Einem Rechenzentrum in Norwegen wird ein geringerer CO2-Fußabdruck (CO2) aufgrund der deutlich kühleren Außentemperaturen leichter fallen als einer Anlage in Spanien, wo mehr Strom für die Klimatisierung notwendig ist. Ein relativ neues Rechenzentrum ist zudem per se nachhaltiger als ein älteres, das seit vielen Jahren mehr oder minder unverändert in Betrieb ist.

Der Idealfall ist natürlich ein Greenfield-Projekt: Beim Neubau eines Rechenzentrums kommen moderne Standards, Materialien und Techniken zum Einsatz, und auch der Standort inklusive möglicher Abwärmenutzung lässt sich berücksichtigen. In der Folge sind Neubauten in der Regel effizienter als Brownfield-Strukturen – also vorhandene Rechenzentren – letztere sind jedoch in Deutschland Standard. Der Abriss solch älterer Anlagen ist aber nicht nur teuer, sondern auch energieintensiv. Es ist deshalb immer sinnvoller, zunächst einmal das vorhandene Optimierungspotenzial des Rechenzentrums auszuschöpfen. Im Anschluss lassen sich dann veraltete Systeme stückweise gegen modernere und damit energieeffizientere Lösungen austauschen.

Erster Schritt: Energiefresser auf Diät setzen

Mit dem Ziel, die CO2-Bilanz zu verbessern, sollten Unternehmen im ersten Schritt ermitteln, welche Bereiche im Data Center die meiste Energie verbrauchen, also das größte Einsparpotenzial haben. In einer typischen Anlage benötigen Kühlung und Betrieb der Systeme gut über die Hälfte des Stroms, etwa ein Viertel geht auf das Konto der eigentlichen Datenverarbeitung und der Rest verteilt sich auf den Netzwerkbetrieb sowie weitere Energieverbraucher.

Peter Dümig, Dell Technologies Deutschland

„Allein die Entfernung nicht mehr benötigter Software und damit Reduzierung der Hardwareressourcen senkt den Strombedarf in einem Rechenzentrum erheblich.“

Peter Dümig, Dell Technologies Deutschland

Eine ungefähre Kalkulation ist jedoch wenig zielführend, auch weil mögliche Stromfresser, eine schlechte Auslastung, unnötige Redundanzen oder Hotspots in der Klimatisierung so unbemerkt bleiben. Unternehmen benötigen deshalb Echtzeit-Einblicke in die Auslastung und den Stromverbrauch ihrer IT-Systeme. Damit können sie realistisch einschätzen, wie effizient Server, Storage-Arrays und Netzwerkgeräte arbeiten und darauf aufbauend Verbesserungsmöglichkeiten identifizieren.

Eine intelligente Lösung für das Systemmanagement, die viele Server standardmäßig integriert haben, erlaubt es, die Leistungs- und Verbrauchswerte detailliert zu erfassen und das Energie- und Wärmemanagement zu automatisieren. Zudem lassen sich mit den Daten wichtige Kennzahlen wie Carbon Use Effectiveness (CUE), Cooling Capacity Factor (CCF), Datacenter Space Efficiency (DCSE), Technology Carbon Efficiency (TCE) und Water Usage Effectiveness (WUE) berechnen, die für die Bewertung der Effizienz notwendig sind.

Die daraus abgeleiteten Maßnahmen lassen sich am besten verstehen, wenn man sich den bisherigen Architekturansatz eines Rechenzentrums anschaut: Die Hardware ist so dimensioniert, dass auch in Spitzenzeiten eine optimale Performance garantiert ist. Mit der realen Server-Auslastung hat diese Vollausstattung in der Regel aber wenig zu tun, denn manche CPUs arbeiten lediglich mit 15 Prozent ihrer Kapazität. Darüber hinaus schlägt sich der Einsatz vieler einzelner Rack-Server und dezidierter Storage-Systeme in einem hohen Bedarf an Platz, Strom und Kühlung nieder, sodass modulare Systeme oftmals die bessere Wahl sind. Im Netzwerk wiederum stellt jeder Switch einen eigenen Managementpunkt dar, wobei die Port-Auslastung nicht immer optimal ist. Alles zusammen führt schnell zu einem unnötig hohen Energieverbrauch.

Sparmöglichkeiten der Systeme nutzen

Bevor Unternehmen jedoch in neue Hardware investieren, sollten sie erst einmal die Leistungsanforderungen ihrer Anwendungen und die Performance der Maschinen aufeinander abstimmen. Bis zu einem Drittel der Applikationen auf Servern wird beispielsweise laut einer Schätzung des Bundesministeriums für Umwelt, Naturschutz und Reaktorsicherheit (BMU) gar nicht mehr genutzt. Allein die Entfernung nicht mehr benötigter Software und damit Reduzierung der Hardwareressourcen senkt den Strombedarf in einem Rechenzentrum erheblich. Eine umfangreiche Konsolidierung beziehungsweise Verschlankung von IT-Landschaften und -Architekturen liefert immer einen wirksamen Hebel, um den eigenen CO2-Fußabdruck spürbar zu verbessern.

Neuere Server bieten zudem die unterschiedlichsten Werkzeuge, um den Energiebedarf zu reduzieren. Zwar schalten viele IT-Teams den Stromsparmodus aus, um die maximale Performance aus den Rechnern herauszuholen. Höchstleistung ist allerdings selten verlangt – und sollte es doch der Fall sein, dauert es nicht lange, bis die Rechner den Sparmodus verlassen haben und wieder volle Performance liefern. Mit Workload-Optimierer lassen sich darüber hinaus ganze Server abschalten, ohne dass im Rechenzentrum eine Überlastsituation entsteht. Sollte aufgrund steigenden Ressourcenbedarfs eine kritische Schwelle überschritten werden, wird automatisiert Hardware einfach hinzugeschaltet oder Workloads neu verteilt. Auch bei der Betriebstemperatur der Systeme können Administratoren Hand anlegen, einzelne Komponenten dürfen durchaus wärmer werden.

Größte Stellschraube ist die Kühlung

Den größten Kostenblock im Infrastrukturbereich bildet nach wie vor die Klimatisierung – auch wenn es in diesem Bereich in den letzten Jahren deutliche Fortschritte gab. Moderne Kühlkonzepte mit höheren Temperaturniveaus und getrennten Luftströmen für kalte und warme Luft verbessern die Effizienz enorm.

Eine Kaltgangeinhausung beispielsweise lässt sich relativ einfach implementieren, ohne dass zusätzliche Konstruktionen wie eine Zwischendecke oder ein Luftplenum für die Einhausung und Rückführung der Abluft erforderlich sind. Die Serverschränke können zudem enger platziert werden, was zu einer besseren Raumnutzung führt. Um für einen optimalen Luftstrom zu sorgen, sollten Unternehmen zudem alle ungenutzten Flächen abdecken und versiegeln. So stellen sie sicher, dass keine kalte Luft verloren geht und weniger Energie für die Klimatisierung des gesamten Rechenzentrums gebraucht wird.

Was die Nachhaltigkeit von Rechenzentren betrifft, gibt es noch viel Luft nach oben. Unternehmen werden nicht umhinkommen, ihre Systeme zu optimieren. Diese Modernisierung ist heute ein Muss, denn nur so lässt sich die Geschäftskontinuität sicherstellen.

Über den Autor:

Peter Dümig ist Senior Server Product Manager bei Dell Technologies Deutschland.

 

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Data-Center-Betrieb

ComputerWeekly.de
Close