Joshua Resnick - Fotolia

Storage- und Compute-Skalierung als Herausforderung hyperkonvergenter IT

Beim Einsatz hyperkonvergenter IT sollten die tatsächlichen Anforderungen bekannt sein. Storage und Compute lassen sich nur schwer getrennt skalieren.

Bei der Erwägung hyperkonvergenter Architekturen müssen IT-Spezialisten entscheiden, welche Workloads die Umgebung unterstützen soll. Die gute Nachricht ist, dass hyperkonvergente Technologien inzwischen für die meisten Mainstream-Anwendungen im Rechenzentrum geeignet sind.

Dies sind Anwendungen, die eine mäßige Leistungsanforderung stellen (unterhalb von 10.000 IOPS) und nicht anfällig für Ausschläge in der Latenz sind. Anwendungen mit hohen Leistungsansprüchen oder hoher Anfälligkeit für Latenzausschläge benötigen oftmals noch immer dedizierte Compute-, Storage- und Netzwerkressourcen. Damit stellt sich die Frage, ob Hersteller hyperkonvergenter Infrastrukturlösungen ihre Produkte soweit optimieren können, dass sie alle Arten von Workloads bedienen können.

Hyperkonvergente IT arbeitet als einheitliche Umgebung und kann somit nicht leistungsfähiger sein als ihr schwächstes Glied. Auch wenn es in einigen Plattformen Parameter für ein Tuning gibt, ist es nahezu unmöglich, bestimmten virtuellen Maschinen (VMs) eine bestimmte Leistungscharakteristik zuzusichern. Im besten Fall kann hyperkonvergente Infrastruktur garantieren, dass eine vorhandene Anwendung einen höheren Prozentsatz der verfügbaren Compute-, Storage- und Netzwerkressourcen erhalten wird.

Compute als größte Performance-Bremse

Hyperkonvergente Produkte haben verschiedene Leistungsschwachpunkte, bei denen Administratoren hellhörig werden sollten. Meistens liegt die Ursache dann in zu geringen Compute-Ressourcen.

Die primäre Komponente eines hyperkonvergenten Systems ist die Storage-Software. Hyperkonvergente Lösungen basieren grundsätzlich auf Software-defined Storage, der zur Nutzung in einem Hypervisor-Cluster optimiert wird. Diese Systeme bilden einen Pool aus Speicherressourcen und präsentieren diese den VMs, die vom Hypervisor verwaltet werden.

Einige Hersteller hyperkonvergenter IT bieten Features wie Thin Provisioning, Deduplizierung und Komprimierung sowie die nötige Node-Verwaltung für ein horizontal skalierendes System. Auch wenn all diese Funktionen nützlich und sinnvoll sind, so belasten sie die Infrastruktur doch auch zusätzlich – insbesondere die Compute-Komponente, die neben Anwendungen und virtuellen Maschinen immerhin ja auch die Storage-Software unterstützen muss.

Keine getrennte Skalierung von Compute und Storage

Viele Hersteller hyperkonvergenter Produkte argumentieren, Prozessorleistung werde nie zum Problem werden, da hyperkonvergente Architekturen horizontal skalierbar sind. Allerdings wird die Prozessorressource nicht im gleichen Maße aggregiert wie die Storage-Kapazität.

Da Speicher innerhalb eines Nodes mit dem Speicher aus anderen Nodes in einem einzigen virtuellen Pool zusammengefasst wird, müssen spezifische Aufgaben spezifischen CPU-Kernen jedes Nodes im Cluster zugewiesen werden. Einige dieser CPU-Kerne müssen sich aber auch um den Workload der Storage-Software kümmern. Fehlt es nun einem bestimmten Node an Prozessorleistung, so kann er die Aufgabe der Speicherverwaltung nicht an einen anderen Node im Cluster abgeben.

Die offensichtlichste Umgehung dieses Problems ist eine Überkompensierung durch den Einsatz von mehr Compute-Ressourcen als benötigt. Das treibt allerdings den Preis des hyperkonvergenten Gesamtsystems in die Höhe. Andernfalls besteht aber die Gefahr, dass die Compute-Komponenten zum Performance-Problem wird.

Einige Anbieter hyperkonvergenter Systeme bieten auch dedizierte Storage-Nodes an. Diese Nodes sind dann die einzigen im Cluster, die für die Verarbeitung von Storage-I/O und Storage-Software zuständig sind. Unter der Annahme, dass solche Nodes in ausreichender Zahl beschafft werden, sollte dies das Problem lösen. Natürlich bedeutet das zusätzliche Ausgaben und konterkariert in gewisser Weise das Konzept einer konvergenten Lösung.

Eine andere Alternative besteht darin, dedizierte Prozessorleistung in Nodes zu packen, die speziell auf die Übernahme prozessorintensiver Speicheraufgaben wie Deduplizierung und Komprimierung ausgelegt sind. Der Vorteil dieses Ansatzes liegt in der Erhaltung der Integrität des Konzepts Hyperkonvergenz, im konsistenteren Leistungsprofil sowie in geringeren zusätzlichen Kosten.

Rechenleistung ist eine kritische Komponente jeder hyperkonvergenten Architektur und kann nur schwer einer spezifischen Anwendung garantiert werden. Unternehmen, die Anwendungen mit hohem oder sehr spezifischem Leistungsbedarf haben, sollten sich nach Plattformen umsehen, die Storage-I/O-intensive Operationen auslagern oder dediziert zuweisen können.

Folgen Sie SearchDataCenter.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im Juli 2016 aktualisiert

Erfahren Sie mehr über Serverhardware

- GOOGLE-ANZEIGEN

ComputerWeekly.de

Close