GPUs und FPGAs zur Beschleunigung der Performance im SDDC

Um die Performance im Software-defined Data Center zu erhöhen, genügt es nicht, einfach nur GPUs und FPGAs hinzuzufügen. Sonst entstehen schnell unerwünschte Beschleunigungsinseln.

Manche Anwendungen im Software-defined Data-Center (SDDC) benötigen spezielle Hardware, um mit der bestmöglichen Performance zu laufen. GPUs und FPGAs sind ein effektiver Weg, um die Leistung für diese Applikationen zu erhöhen. Standardserver bieten heutzutage in der Regel nicht mehr genug Leistung, um ressourcenhungrige Workloads wie eine Virtual Desktop Infrastructure (VDI) oder KI-Anwendungen (künstliche Intelligenz) mit genügend Leistung versorgen zu können.

Beim Design und Betrieb eines SDDCs sollten deswegen auch die Voraussetzungen für den Einsatz von Hardwarebeschleunigern wie GPUs (Graphics Processing Units) und FPGAs (Field-Programming Gate Arrays, im Feld programmierbare Gatter-Anordnungen). In Betracht gezogen werden, wenn die Performance des Data Centers erhöht werden soll.

Üblicherweise ist ein SDDC am effektivsten, wenn alle seine Server in einem Pool zusammengefasst werden. Die damit erreichte hohe Flexibilität beruht darauf, dass es damit möglich ist, nahezu jede beliebige Aufgabe auf einem frei auswählbaren physischen Server platzieren zu können. Die Frage ist deswegen, ob Hardwarebeschleuniger zum gesamten SDDC-Pool oder nur zu einem Teil der in einem Pool enthaltenen Hosts hinzugefügt werden sollen? In letzterem Fall entstehen dabei jedoch eventuell unerwünschte Beschleunigungsinseln inmitten des SDDC.

Die benötigte Beschleunigung bestimmen

Bevor neue Hardware eingebaut wird, sollten die Admins die benötigte Beschleunigung definieren. So kann es vermieden werden, dass durch die eingesetzten GPUs und FPGAs entweder die bereits erwähnten beschleunigten Inseln oder nicht ausgelastete Hardware entstehen. Beschleunigte Inseln reduzieren die Flexibilität, die ein SDDC eigentlich bietet. Wenn andererseits aber jeder Host mit einem Accelerator ausgestattet wird, aber nur zehn Prozent der genutzten Workloads wirklich Beschleunigung benötigen, werden nicht alle GPUs und FPGAs voll ausgelastet. Das führt dann wiederum dazu, dass ein Teil der Investitionen in den Sand gesetzt wurde.

Wenn zum Beispiel ein SDDC mehrere virtuelle Desktops bereitstellen soll, die auf den Clients der Endanwender zügig arbeiten und reagieren sollen, dann macht es Sinn, dafür viele etwas schwächere GPUs einzusetzen. Eine Grafikkarte der Mittelklasse in jedem Host sorgt dafür, dass jeder Server Teil der virtuellen Umgebung des Unternehmens sein kann.

Wenn das SDDC jedoch der Betrugsabteilung einer Bank dienen soll, die immer wieder eine erhebliche Performance für ihr KI-System benötigt, dann sollte eher zu einer Handvoll Hosts mit High-end-GPUs gegriffen werden. Dadurch entsteht in dem SDDC eine hochperformante Insel, die allen anfallenden Aufgaben gewachsen ist.

Kalkulieren der Verwaltungskosten

Ein weiterer wesentlicher Punkt, der in Betracht gezogen werden sollte, ist die Austauschrate bei den Beschleunigern im Vergleich zur Austauschrate bei den x86-Servern. Einer der größten Vorteile eines SDDCs ist ja, dass es nur minimale Änderungen an der Hardware erfordert, weil sich die Software um alles kümmert. Wenn die eingesetzten GPUs oder FPGAs alle zwei Jahre ersetzt werden müssen, die x86-Server sich aber in einem drei oder vier Jahre langem Zyklus befinden, werden jedoch deutlich häufiger als bisher Data-Center-Upgrades benötigt.

Größere SDDCs sollten deswegen jährlich oder sogar alle sechs Monate die eingesetzte Hardware aktualisieren. Das hat den Vorteil, dass jeweils aktuelle Beschleuniger eingesetzt werden können, ohne dass gleich auch noch die verwendeten Server erneuert werden müssen. Ein so genanntes rollendes Update ist in Hyperscale-Architekturen beliebt. Für Unternehmen, die bislang vor allem dreijährige Zyklen genutzt haben, sind sie aber eine nicht zu unterschätzende Herausforderung.

Vorrausschauender Blick auf die Performance des Data Centers

Selbst in Anbetracht der bereits genannten Verbesserungen sind viele Hersteller danach bestrebt, die Performance ihrer Beschleuniger weiter zu erhöhen. Eines der aktuellen Ziele ist etwa, die in einem Data Center eingesetzten GPUs als geteilte Ressourcen einzurichten, die nicht mehr an spezifische Server gebunden sind.

So arbeitet zum Beispiel Dell daran, Computern ohne physische GPU zu ermöglichen, ihre Anfragen über das Netzwerk an einen Pool aus Grafikkarten zu senden. Dank der Compute Unified Device-Architektur von Dell sollen sie dann die gleichen Resultate erhalten, wie wenn sie in einem Data Center mit physisch vorhandenen GPUs untergebracht wären. Die neue Technik soll es den Grafikkarten erlauben, wie eine in einem Pool zusammengefasste Ressource zu fungieren, auf die per Software über das Netzwerk zugegriffen werden kann. Das soll ähnlich gut wie bei den bereits verfügbaren geteilten Storage-Angeboten funktionieren.

Darüber hinaus können Admins auch auf so genannte wegwerfbare Infrastrukturen zugreifen, bei denen eine PCIe-Fabric als Netzwerk dient. Das SDDC kann dann bestimmte physische Hosts mit einer Bank mit Beschleunigern verbinden, um die Performance im Rechenzentrum zu erhöhen. Manche dieser Angebote sind auch Cloud-basiert und nutzen einem Unternehmen in manchen Fällen mehr als teure On-Premises-Hardware.

Software, die auf Standard-Servern läuft, ist das Herz eines jeden SDDCs. Es gibt aber zahlreiche Anwendungen, die unterschiedliche Anforderungen an die zur Verfügung stehende Rechenkraft stellen. Bevor eine Investition getätigt wird, sollte deswegen klar sein, welche Bedürfnisse an die Performance wirklich im Unternehmen bestehen. Im schlimmsten Fall kann es ansonsten geschehen, dass einzelne Fachabteilungen das bereitgestellte SDDC umgehen, um anderswo die Rechenleistung zu bekommen, die sie wirklich für ihre Arbeit benötigen.

Folgen Sie SearchDataCenter.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

So lässt sich ein Software-defined Data Center gestalten

Wichtige Faktoren bei der SDDC-Planung

Software-defined Data Center als Ansatz für IT-Automatisierung

Erfahren Sie mehr über Data-Center-Betrieb

ComputerWeekly.de
Close