carloscastilla - Fotolia

Planung und Design verhindern das Erreichen von vSphere-Maximalwerten

Werden die Maximalwerte von vSphere ausgereizt, geht die Performance der virtuellen Umgebung in die Knie. Diese Tipps versprechen Abhilfe.

Jeder der schon einmal an einer VCP-Prüfung (VMware Certified Professional) teilgenommen hat, weiß, dass man sich die Maximalwerte für vSphere besonders gut einprägen sollte. Gleich nach der Prüfung sind diese Werte aber meist schnell wieder vergessen. Diese Maximalwerte werden oft als zu vernachlässigen angesehen, in großen Umgebungen kann man die Maxima aber durchaus recht schnell erreichen.

Die Grenzwerte gibt es aber aus einem guten Grund und sie sollten auf keinen Fall als Ziel anvisiert werden, das zur Nutzenmaximierung gerade so unterschritten werden sollte. An die Maximalwerte heranzukommen bedeutet ohne jeden Zweifel eine Beeinträchtigung der Performance der VMware-Umgebung. Kleine Unternehmen mit wenigen Hosts und einigen hundert virtuellen Maschinen dürften die vSphere-Maximalwerte kaum erreichen. Wer aber mit hunderten Hosts und tausenden VMs hantiert, der sollte sich der jeweiligen Maximalwerte auf jeden Fall bewusst sein.

Typische vSphere-Maximalwerte

In großen Umgebungen ist eines der häufigsten Beispiele für das Erreichen von vSphere-Maximalwerten die Anzahl unterstützter Datastores pro Host. Dies ist auch ein Beispiel für einen Grenzwert, der sich kaum ändern wird, weil es sich hierbei um eine Hardwarebeschränkung handelt, die man schwer auf Softwareebene umgehen kann. In dem Maße, in dem der Server-Cluster wächst, werden Administratoren dem Cluster auch mehr und mehr Datastore-Storage hinzufügen, um die steigende Nachfrage zu bedienen. Gleichzeitig steigt aber auch die Anzahl physischer Server, und bevor man sich versieht, hat man die Grenze von 256 Datastores pro Host erreicht.

Dieses Problem lässt sich zwar lösen, aber es kann sehr zeitaufwändig werden. Letztendlich müsste hier die Anzahl an Datastores reduziert werden, um die Umgebung überhaupt wieder effektiv verwalten zu können. Die Anzahl von Datastores lässt sich zum Beispiel durch die Migration virtueller Maschinen weg von diesem speziellen Host reduzieren, bis der Datastore des Hosts leer ist. An diesem Punkt könnte man ihn durch einen größeren ersetzen.

Anschließend müssten die virtuellen Maschinen wieder zurückmigriert werden, entweder automatisiert oder händisch. Vor VMFS 5 (Virtual Machine File System) hatte diese Methode aber noch einen weiteren unerwünschten Nebeneffekt: Umso größer der Datastore, umso größer wurde auch die Blockgröße. Dieser Ansatz bringt also viel manuellen Aufwand mit sich und bedeutet auch eine höhere I/O-Aktivität durch die erhöhte Anzahl virtueller Maschinen pro Datastore.

Bis vor kurzem galt für VMware View ein Limit von acht Hosts pro Cluster, was viele VMware-Administratoren erst herausfanden, als sie den neunten Host hinzufügen wollten oder bei VMware Support für diese Konfiguration anfragten.

In gewisser Weise kann man heutige Maximalwerte auch als Versuch der Hypervisor-Hersteller betrachten, sich gegenseitig immer wieder zu überbieten. Wer aber tatsächlich versucht, 2048 virtuelle Maschinen auf einen einzelnen Host zu quetschen, der verdient auch, was dann unweigerlich passieren wird. Die Ressourcenlimits wären, außer mit der extremsten Hardwarekonfiguration, schon weit vor dem beworbenen Maximum erreicht.

Das richtige Design virtueller Umgebungen

Ein Weg, das Erreichen von vSphere-Maximalwerten zu vermeiden, besteht in einem effektiven Design der virtuellen Umgebung. Wenn es um das Virtualisierungs-Design geht, gibt es zwei unterschiedliche Ansätze: sorgfältige Planung oder alles Equipment je nach Bedarf einfach wahllos in die Racks packen.

Für die Planung einer wirklich effizienten Hardwareplattform kommt es im Grund nur auf die relativ einfache Formel „Anzahl virtueller Maschinen vs. Kosten möglicher Downtime und schlechter Performance“ an.  Gerade das ungeplante Vollstopfen von Server-Racks wird die Performance sicher negativ beeinflussen, das größere Problem sind in dieser Situation aber Ausfälle physischer Hosts.

Das Neustarten von möglicherweise hunderten Maschinen gleichzeitig wird eine größere Ausfallzeit bedeuten, während die betroffenen Gast-VMs auf neuen Hosts wieder hochfahren. Durch den hohen Disk-I/O dürften die Neustarts zusätzlich langsamer vonstattengehen.

vSphere-Maximalwerte einhalten

Die beste Vorgehensweise, um das Erreichen von vSphere-Maximalwerten zu verhindern, besteht in einer vorausschauenden Planung beim Design der virtuellen Umgebung und in der Auswahl der am besten geeigneten Hardware. Wer ohne Planung einfach loslegt, der dürfte bei ungefähr 80 virtuellen Maschinen pro Server landen, bei einer sorgfältigen Planung sollten man allerdings viele kleinere Cluster anlegen.

Ein derartiges Design bietet einen zentralen Vorteil: vSphere-Maxima dürften auf diesem Weg weniger schnell erreicht werden. Aber selbst wenn Maximalwerte erreicht werden, sorgt der kleinere Cluster für schnellere Neustarts. Zudem ist jedes Cluster-weite Problem auf den kleineren Cluster beschränkt. Der Nachteil bei dieser Vorgehensweise liegt in den höheren Lizenzkosten, weil hier weniger virtuelle Maschinen pro Host-Sockel verwendet werden.

Letzten Endes hängt es natürlich immer vom Administrator ab, welcher Weg eingeschlagen werden soll. Das Erreichen von Maximalwerte von vSphere lässt sich aber durch intelligentes Design der Umgebung und mit Blick auf die Kosten eines Ausfalls durchaus verhindern, auch wenn dem natürlich höhere Hardware- und Lizenzkosten gegenüberstehen.

Folgen Sie SearchDataCenter.de auch auf Twitter, Google+ und Facebook!

Erfahren Sie mehr über Containervirtualisierung

- GOOGLE-ANZEIGEN

ComputerWeekly.de

Close