Hindernisse und Probleme bei der Virtualisierung physischer Workloads

Obwohl die Server-Virtualisierung viele Vorteile bietet, ist sie kein Allheilmittel. Manche Workloads sollten auf physischer Hardware bleiben.

In den letzten Jahren habe ich eine Menge Artikel darüber gelesen, dass Unternehmen ihre IT inzwischen vollständig virtualisiert haben sollten. Die Server-Virtualisierung ist eindeutig erwachsen geworden und könne demnach jeden Workload auch auf virtuellen Maschinen abbilden – einschließlich sehr ressourcenintensiver Workloads. In vielen Artikeln wird zudem argumentiert, die Virtualisierung sei ein unabdingbarer Baustein auf dem Weg in die Public Cloud.

Trotz der Empfehlungen dieser Artikel gibt es jedoch bis heute Workloads, die auf physischer Hardware abgearbeitet werden sollten. Der folgende Artikel zeigt, welche Arten von Workloads in Unternehmen typischerweise vorhanden sind und unter welchen Umständen es sinnvoll ist, diese zu virtualisieren – oder eben auch nicht.

Workloads zu groß zum Scheitern

Die Server-Virtualisierung ist also erwachsen geworden und hat sich so weit entwickelt, dass sogar sehr große, ressourcenintensive Workloads sicher virtualisiert werden können. Das Problem bei der Virtualisierung solcher Workloads ist jedoch die Ausfallsicherheit.

Man stelle sich einmal vor, ein Unternehmen betreibt eine geschäftskritische, extrem ressourcenintensive Datenbankapplikation auf physischer Hardware. Diese ist zudem durch Server-Cluster gegen einen Serverausfall gesichert.

Ob diese Applikation nun virtualisiert wird oder nicht – es wäre ohne Probleme auch möglich, den Workload durch Failover Cluster abzusichern. Man könnte beispielsweise einen Gast-Cluster innerhalb der virtuellen Serverumgebung erzeugen oder Clustering auf Host-Ebene einsetzen, um die virtuelle Maschine bei einem Host-Ausfall live auf einen anderen Virtualisierungs-Host zu migrieren. Problematisch ist dabei allerdings der Ressourcenverbrauch.

Die grundlegende Idee der Server-Virtualisierung ist bekanntlich das Teilen physischer Hardware-Ressourcen unter mehreren virtuellen Maschinen. Extrem große Workloads könnten jedoch derartig viele dieser Ressourcen in Anspruch nehmen, dass eine Failover-Operation zu einem anderen Host kaum noch sauber abgearbeitet werden kann, wenn den Host noch weitere Workloads belasten. Für den Moment würde es sich wohl empfehlen, einen solchen Arbeitstyp weiterhin auf physischer Hardware zu betreiben, wenn nicht ein dringender geschäftlicher Grund dagegen spricht (wie beispielweise die Planung einer etwaigen Migration in die Cloud).

Ressourcenintensive Workloads

Im vorangegangenen Abschnitt haben wir extrem ressourcenintensive Workloads aus der Perspektive des Failover-Clusterings betrachtet. Es kann aber auch logistische Gründe geben, die eine Virtualisierung von Large-Scale-Workloads ausschließen. Hypervisoren wie ESXi von VMware oder Microsoft Hyper-V begrenzen die Skalierungsfähigkeit virtueller Maschinen. 

Beispielsweise gelten Grenzen für die Anzahl nutzbarer virtueller CPUs oder die Größe des der VM zugewiesenen Hauptspeichers. Zugegebenermaßen braucht es eine reichlich große VM, um diese Grenzen zu sprengen, aber sie existieren tatsächlich und es kann durchaus vorkommen, dass man davon ausgebremst wird, wenn der zu virtualisierende Workload nur groß genug ist.

Hardwareabhängigkeit verhindert Server-Virtualisierung

Bei der Entscheidung für oder gegen die Virtualisierung sollte auch eine Rolle spielen, wie sehr die Workloads von der verwendeten Hardware abhängig sind. Hardwareabhängigkeiten können sich in ganz unterschiedlichen Ausprägungen zeigen. Erst kürzlich sah ich beispielsweise eine Anwendung, die fest auf einen ganz bestimmten Host-Bus-Adapter hin programmiert war. Eine solche Abhängigkeit schließt die korrekte Virtualisierung der Anwendung ohne Anpassung aus.

Eine weitere Form der Hardwareabhängigkeit kann in Gestalt von Urheberrechts-Durchsetzungen begegnen. Es gibt Anwendungen, die die Anwesenheit eines USB-Flash-Geräts erfordern oder die Seriennummer eines Prozessors auslesen, um illegale Kopien der Software zu unterbinden. Server, auf denen Anwendungen ablaufen, die sich aus Kopierschutzgründen auf physische Hardware berufen, sind außerordentlich schlechte Kandidaten für eine Virtualisierung.

Hinderungsgrund obskure oder supportfreie Betriebssysteme

Als unpraktisch erweist es sich ebenso, Server virtualisieren zu wollen, die obskure, veraltete oder anderweitig vom Hersteller nicht (mehr) unterstützte Betriebssysteme aufweisen. Es ist liegt dabei nicht nur daran, dass Hypervisor-Anbieter solche Betriebssysteme meist nicht unterstützen. Auch Systemkomponenten wie die VMware Tools oder die Hyper-V Integration Services sind nur darauf ausgelegt, mit ganz bestimmten Betriebssystemen zusammenzuarbeiten.

Bei der Virtualisierung von Servern mit veralteten Betriebssystemen gibt es zwei grundsätzlich unterschiedliche Sichtweisen: Einerseits, dass man niemals veraltete Betriebssysteme auf einem Hypervisor benutzen sollte, andererseits, dass gerade die Virtualisierung dabei hilft, die Abhängigkeit von veralteter kritischer Hardware aufzulösen.

Virtualisierungs-Problem: Abhängigkeit von physischen Speicher

Als letztes Hindernis bei der Virtualisierung physischer Workloads lässt sich die Abhängigkeit einiger Workloads von physischen Datenträgern anführen. Sowohl Hyper-V als auch vSphere unterstützen die Möglichkeit, eine virtuelle Maschine mit einem physischen Laufwerk zu verbinden. In Hyper-V beispielsweise wird physischer Massenspeicher als iSCSI-Pass-Through-Laufwerk behandelt.

Auch wenn die Nutzung von Pass-Through-Laufwerken von den Hypervisor-Anbietern vollständig unterstützt wird, kann der Einsatz dieser Möglichkeit Backup-Szenarien verkomplizieren. Die meisten Backup-Anwendungen für Hyper-V unterstützen die Sicherung von Pass-Though-Laufwerken eben nicht, wenn das Backup auf Host-Ebene stattfindet.

Zum jetzigen Stand gibt es nach wie vor Workloads, die man besser nicht virtualisieren sollte. Dabei sollte man aber auch nicht vergessen, dass sich Technologie beständig weiterentwickeln. Nur weil sich ein Workload heute nicht sinnvoll virtualisieren lässt, ist es keineswegs ausgeschlossen, dass die Dinge in ein oder zwei Jahren nicht schon wieder ganz anders liegen können.

Über den Autor:
Brien M. Posey hat bereits acht Microsoft-MVP-Auszeichnungen für Exchange Server, Windows Server und Internet Information Server (IIS) erhalten. Er hat als CIO für eine Krankenhauskette gearbeitet und war für das Department of Information Management in Fort Knox zuständig. Weitere Informationen zu seiner Person finden Sie auf seiner Website unter brienposey.com.

Folgen Sie SearchDataCenter.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im September 2015 aktualisiert

Erfahren Sie mehr über Containervirtualisierung

- GOOGLE-ANZEIGEN

ComputerWeekly.de

Close