juanjo tugores - Fotolia

Wie Rechenzentren den Städten weniger Strom wegnehmen

KI treibt den Stromverbrauch in Rechenzentren rasant nach oben. Moderne Kühlsysteme und leistungsstarke Serverarchitekturen helfen, Energie zu sparen und Netze zu entlasten.

Künstliche Intelligenz (KI) ist heute in Unternehmen aller Branchen und Größen ein fester Bestandteil des Geschäftsbetriebs. Die wachsende Nachfrage nach KI-gestützten Anwendungen wird weiter zunehmen und somit auch den Strombedarf der dafür erforderlichen Rechenzentrumsinfrastruktur erhöhen. Obwohl Energieversorger ständig nach Möglichkeiten suchen, die Stromproduktion zu erhöhen, stoßen sie bei der Umsetzung auf Grenzen. Ein Grund dafür ist der zunehmende Wettbewerb um Netzkapazitäten. Dieser Wettbewerb wiederum beeinträchtigt die Fähigkeit der Energieversorger, ausreichend Strom für Wohnungsneubau, öffentliche Infrastruktur und andere gesellschaftliche Vorhaben bereitzustellen.

Es gibt jedoch Technologien, mit denen sich der Stromverbrauch von Rechenzentren erheblich senken lässt. Dazu zählen hochentwickelte, energieeffiziente Flüssigkühlsysteme und modulare Rack-Scale-Architekturen. Diese Lösungen reduzieren nicht nur die Betriebskosten, sondern ermöglichen auch die Bereitstellung von mehr Stromkapazität für gesellschaftlich relevante Vorhaben.

KI-Wachstum treibt den städtischen Energiebedarf

In ganz Europa wird die Netzkapazität zunehmend zum limitierenden Faktor für die Stadtentwicklung. Aktuelle Berichte zeigen, dass Wohnungsbauprojekte in London verzögert wurden, weil das Stromnetz keine ausreichende Versorgung mehr gewährleisten konnte. Dies wird in erster Linie auf den Energiebedarf von Rechenzentren zurückgeführt. In den Niederlanden verbrauchen Rechenzentren inzwischen so viel Strom wie rund zwei Millionen Haushalte.

In Deutschland ist das Problem an zentralen Standorten bereits spürbar: Im Raum Frankfurt entfallen auf Rechenzentren bis zu 40 Prozent des gesamten städtischen Strombedarfs und Netzanschlusskapazitäten sind auf Jahre hinaus vergeben.

Um den potenziell negativen Auswirkungen eines steigenden Strombedarfs entgegenzuwirken, lassen sich Technologien einsetzen, die den Energieverbrauch von Rechenzentren senken. Durch die gezielte Messung ihrer Wirkung wird zudem mehr Stromkapazität für andere Verbraucher verfügbar gemacht.

Den Grundstein für moderne Infrastruktur legen

Zunächst müssen Rechenzentrumsbetreiber das Alter und die Leistungsfähigkeit der eingesetzten Systeme und Technologien kritisch bewerten. Ein wesentliches Hindernis bei der Senkung des Energieverbrauchs, insbesondere im großen Maßstab, ist veraltete Legacy-Infrastruktur. Abhilfe kann hier der Umstieg auf aktuelle Servertechnologien schaffen, die deutlich mehr Rechenleistung pro Watt liefern als frühere Generationen.

Liquid Cooling als erste Wahl für KI-Workloads

Rechenzentren, die für intensive KI-Workloads genutzt werden, müssen zudem bei deutlich höheren Temperaturen betrieben werden. Um eine Überhitzung der Komponenten zu verhindern und eine optimale Leistung zu gewährleisten, sind modernste Kühlsysteme erforderlich. Besonders hervorzuheben ist dabei die Flüssigkühlung (Liquid Cooling): Aktuelle Innovationen ermöglichen einen effizienten Wärmeaustausch bei Umgebungstemperaturen von bis zu 45°C.

Die Flüssigkühlung von Servern reduziert den Strombedarf, indem sie die Wärme von CPUs, GPUs und anderen Hardwarekomponenten ableitet. Auch die Flüssigkeit selbst muss gekühlt werden, und zwar innerhalb oder außerhalb des Rechenzentrums. Die herkömmliche Luftkühlinfrastruktur lässt sich dadurch erheblich reduzieren.

Nicht jedes Rechenzentrum braucht dieselbe Kühlung

Flüssigkühlung ist jedoch nicht die einzige Option. Rechenzentrumsbetreiber sollten gemeinsam mit Partnern und Fachexperten die verfügbaren Möglichkeiten evaluieren, um das Kühlsystem auszuwählen, das ihren spezifischen Anforderungen am besten entspricht.

In luftgekühlten Rechenzentren ist eine sorgfältige Planung erforderlich, um Warm- und Kaltluft konsequent zu trennen. Dies fördert eine effizientere Kühlung der Warmluft und reduziert den Stromverbrauch der CRAC-Einheiten (Computer Room Air Conditioning). Je nach Standort des Rechenzentrums kann auch eine Freiluftkühlung eine Option sein, sofern die Luft entsprechend entfeuchtet wird. Dadurch lässt sich der Stromverbrauch über einen erheblichen Teil des Jahres deutlich senken.

Vik Malyala, Supermicro

„Es gibt eine Reihe von Technologien, mit denen sich der Strombedarf im RZ senken lässt. Wenn der Energieverbrauch von Rechenzentren sinkt, steht mehr Strom für andere gesellschaftliche Bereiche zur Verfügung, beispielsweise für Privathaushalte, öffentliche Infrastruktur und kleine Unternehmen.“

Vik Malyala, Supermicro

Durch den Einsatz von Hardware- und Softwaresystemen lässt sich zudem der Energieverbrauch von Servern im Leerlauf oder bei Nichtnutzung reduzieren. Dadurch wird unnötiger Stromverbrauch vermieden, die Gesamtbetriebskosten gesenkt und Energie kann gezielt dort eingesetzt werden, wo sie am meisten benötigt wird.

Der Einsatz dieser Technologien – einzeln oder in Kombination – kann den Strombedarf von Rechenzentren erheblich senken, was sich wiederum positiv auf die Energiekosten und die Umwelt auswirkt.

Lastspitzen im Rechenzentrum reduzieren

Die neuesten Server mit CPUs und GPUs der nächsten Generation bieten eine deutlich höhere Leistung pro Watt als frühere Generationen. So ist beispielsweise die Anzahl der Token pro Watt – also die typischen KI-Workloads, die mit aktueller Technologie geleistet werden – deutlich höher. Dadurch ist entweder die gleiche Arbeitsmenge bei geringerem Stromverbrauch oder mehr Leistung bei gleichem Verbrauch möglich. Je nach Service Level Agreement (SLA) für die an die Endkunden gelieferten Dienste kann dies ein erheblicher Vorteil bei der Senkung des Stromverbrauchs auf Serverebene sein.

Intelligentes Lastmanagement für mehr Effizienz

In der Regel müssen KI-Rechenzentren auf die Bewältigung von Lastspitzen ausgelegt sein. Es gibt jedoch häufig Phasen, in denen die CPU- oder GPU-Auslastung deutlich geringer ist. Mithilfe intelligenter Software-Management-Lösungen können in solchen Phasen gezielt bestimmte Server belastet werden, während die übrigen heruntergefahren oder in ihrer Leistungsaufnahme reduziert werden. Neben der direkten Senkung des Stromverbrauchs kann dieser Prozess auch den PUE-Wert des Rechenzentrums verbessern. Der PUE-Wert ist ein Maß für den Gesamtstromverbrauch im Verhältnis zur IT-Last (Power Usage Effectiveness).

Es gibt eine Reihe von Techniken und Technologien, mit denen sich der Strombedarf von Rechenzentren senken lässt. Wenn der Energieverbrauch von Rechenzentren sinkt, steht mehr Strom für andere gesellschaftliche Bereiche zur Verfügung, beispielsweise für Privathaushalte, öffentliche Infrastruktur und kleine Unternehmen.

Über den Autor:
Vik Malyala ist President & Managing Director EMEA sowie Senior Vice President Technology & AI bei Supermicro. Mit über 25 Jahren Erfahrung in der Halbleiter- und Serverindustrie verfügt er über tiefes technisches Know-how in den Bereichen Server-, Storage- und KI-Infrastruktur. Seit seinem Einstieg bei Supermicro im Jahr 2009 verantwortet er die Expansion des Unternehmens in den Bereichen Data Center, Cloud, HPC und Enterprise sowie die strategischen Technologiepartnerschaften in der EMEA-Region.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

 

Erfahren Sie mehr über Data-Center-Infrastruktur