Hochverfügbarkeit als zentrales Problem konvergenter Pod-Architektur

Konvergente Pod-Architekturen bieten zwar viele Vorteile, sind aber kein Allheilmittel. Gerade bei Hochverfügbarkeit offenbaren sie gewisse Defizite.

Konvergente Pod-Architektur bietet eine ganze Reihe von Vorteilen, ist aber nicht immer für jede virtuelle Infrastruktur die beste Lösung. Vom Grundkonzept her vereint ein Pod Server-, Storage- und Netzwerk-Komponenten in einem einzigen Produkt, das auch genau so als integrierte Einheit verkauft wird.

Eines der Hauptargumente für die Kaufentscheidung dürfte damit der vereinfachte Support sein. Die einzelnen Komponenten einer Pod-Infrastruktur werden ausführlich getestet, um ein optimales Funktionieren der gesamten Architektur zu garantieren. Weil alle Komponenten als integrierter, konvergenter Pod verkauft werden, erfolgt der Support auf Hardwareebene meist durch den Anbieter, der den Pod schlussendlich verkauft. Allerdings gehen die Vorteile konvergenter Pod-Architektur weit über Support und Instandhaltung hinaus.

Ein weiterer großer Vorteil konvergenter Pod-Architektur ist die zu erwartende Konsistenz. Weil Pods auf einem getesteten Referenzdesign basieren, sollte das Verhalten der Hardware idealerweise vollkommen vorhersehbar sein. Daher sollte es weder bei Bereitstellung, Installation oder Konfiguration noch bei der Performance zu Überraschungen kommen.

Im Übergang zu hyper-konvergenter Infrastruktur gibt es zudem auch einige Anbieter, die sehr eng mit Softwareanbietern für Hypervisoren, wie zum Beispiel VMware oder Microsoft, zusammenarbeiten. Damit lässt sich sicherstellen, dass die Pods als virtuelle Server-Plattform ideal konfiguriert sind. Zudem ist die gesamte Architektur durch die enge Integration der Komponenten ganz auf Performance getrimmt

Bei allen Vorteilen für die Virtualisierung: Pods sind kein Allheilmittel

Kritiker weisen im Zusammenhang mit konvergenter Infrastruktur schnell auf das starre und unflexible Design hin, das sich nur selten anpassen oder in einzelnen Komponenten erweitern lässt. Daraus resultierend zahlen Unternehmen oft für Ressourcen in einem Pod, die sie nicht wirklich brauchen, beispielsweise wenn die Storage-Anforderungen schneller wachsen als die Anforderungen an die Compute-Ressourcen und zur Skalierung trotzdem einfach ein weiterer Pod angeschafft wird.

Dieses starre Design variiert allerdings von Hersteller zu Hersteller. Einige bieten relativ wenige Möglichkeiten für eigene Anpassungen, andere wiederum sehen Pods als modulare Architektur, bei der Kunden als Compute-, Storage- und Netzwerk-Ressourcen aus verschiedenen Komponenten auswählen können.

Ein weiterer Kritikpunkt lautet, dass die Verwendung eines Pods zu einem „Goldenen Käfig“ führt und man sich damit von einem Anbieter abhängig macht. Dieses Argument hält allerdings kaum Stand oder gilt zumindest für jegliche Infrastruktur im Data Center. 

Nur weil ein Administrator einen Pod von einem bestimmten Anbieter gekauft hat, heißt das nicht, dass er nicht wieder auf ein herkömmliches Rack-Design umsteigen kann. Natürlich hat er auch bei der nächsten Anschaffung von Computing-Ressourcen die Möglichkeit, sich für einen anderen Anbieter zu entscheiden.

Dennoch muss man immer im Hinterkopf behalten, dass eines der größten Verkaufsargumente eines Pods die enthaltene Management-Software ist. Diese wiederum ist durchaus speziell für dieses eine Gerät entwickelt. Mischen Unternehmen die Hardware von verschiedenen Herstellern, verkomplizieren sie damit also potenziell ihr System-Management.

Gerade bei der Server-Virtualisierung bieten konvergente Pod-Architekturen sowohl Vor- als auch Nachteile. Ein weiterer Vorteil wäre zum Beispiel die Einfachheit, mit der sich ein Pod in einen in sich geschlossenen Server-Cluster verwandeln lässt. Der Cluster verwendet dann das im Pod enthaltene Storage oder ein damit verbundenes zentrales Storage. Bei einem weiteren Wachstum des Unternehmens können einfach weitere Pods eingesetzt und jeder als separater Host-Cluster konfiguriert werden.

Neben der einfachen Installation bieten konvergente Pod-Architekturen aber noch einen weiteren Vorteil: Viele Pod-Hersteller bieten unterschiedliche Optionen für die Geräte an. Oft gibt es zum Beispiel ein Produkt für virtuelle Server, ein auf Performance getrimmtes und eines für VDI-Umgebungen (Virtuelle Desktop-Infrastruktur). Je nach Einsatzzweck würde man sich für die entsprechende Variante entscheiden.

Durch die modulare Natur konvergenter Pod-Architektur ist es sicherlich einfacher, die virtualisierte Infrastruktur eines Unternehmens zu skalieren. Dabei gibt es aber zumindest einen großen Nachteil, wenn Pods zur Virtualisierung verwendet werden.

Konvergente Pod-Architektur mit Defiziten bei Hochverfügbarkeit

Stellt ein Pod keine volle Redundanz für alle Komponenten zur Verfügung, inklusive Netzteile und Kühlsysteme, wird dies leicht zu einem Single Point of Failure (SPoF). Fällt ein Pod aus, ereilt alle Server auf diesem Gerät das gleiche Schicksal. 

Ist der Pod als in sich eigenständiger Cluster konfiguriert, können die virtuellen Maschinen kein Failover auf andere Hardware durchführen – die komplette Hardware in diesem Cluster läuft ja auch auf dem gleichen Pod. Das heißt natürlich nicht, dass man per se von der Verwendung von Pods Abstand nehmen sollte. Vielmehr muss der Host-Cluster so designed werden, dass diese Situation gar nicht erst auftritt.

Wie bei jeder IT-Technologie gilt auch hier, dass Pods ihre Vor- und Nachteile haben. In erster Linie eignen sich Pods vor allem für den Einsatz als Virtualisierungs-Host bei Unternehmen oder in Zweigstellen, wo die Komplexität der Infrastruktur reduziert werden soll.

Ein großer Vorteil konvergenter Pods ist ihre Modularität. Administratoren können sich die Komponenten aussuchen, die sie gerne im Gerät haben möchten. Somit sollte die entsprechende Infrastruktur optimal für die jeweiligen Einsatzgebiete angepasst sein. Natürlich könnte man argumentieren, dass dies mit standardmäßigen Rack-Systemen ebenso möglich wäre. Allerdings sind die Pod-Komponenten besser aufeinander abgestimmt und für eine optimale Zusammenarbeit zertifiziert. Das erleichtert das Management und sorgt bei geringerem Aufwand für mehr Performance.

Folgen Sie SearchDataCenter.de auch auf Facebook, Twitter und Google+!

Fortsetzung des Inhalts unten

Erfahren Sie mehr über Data-Center-Infrastruktur

ComputerWeekly.de

Close