Definition

Hyper-Converged Infrastructure (HCI)

Hyper-Converged Infrastructure – zu Deutsch: Hyperkonvergente Infrastruktur – ist eine softwarezentrierte Architektur, die Rechen-, Speicher- und Virtualisierungsressourcen in einem einzigen System integriert, das normalerweise aus x86-Hardware besteht.

Moderne Unternehmen verlassen sich auf das Rechenzentrum, um die Rechen-, Speicher-, Netzwerk- und Verwaltungsressourcen bereitzustellen, die für das Hosten von wichtigen Unternehmens-Workloads und Daten erforderlich sind. Doch Rechenzentren sind komplexe Orte, an denen eine Vielzahl von Anbietern miteinander konkurrieren, um unzählige unterschiedliche Geräte, Systeme und Software zu liefern. Diese heterogene Mischung hat oft Schwierigkeiten, miteinander zu interagieren - und liefert ohne sorgfältige, zeitaufwändige Optimierungen selten Spitzenleistungen für das Unternehmen. Heutzutage haben IT-Teams einfach nicht mehr die Zeit, sich mit den Herausforderungen der Bereitstellung, Integration und Verwaltung von Rechenzentren auseinanderzusetzen, die sich in herkömmlichen heterogenen Umgebungen stellen.

Das Konzept der Konvergenz entstand ursprünglich, um die Herausforderungen der Heterogenität zu bewältigen. Schon früh fasste ein einziger Anbieter die Systeme und Software verschiedener Anbieter zu einem einzigen vorkonfigurierten und optimierten Satz von Geräten und Tools zusammen, der als Paket verkauft wurde. Dies wurde als konvergente Infrastruktur oder CI (Converged Infrastructure) bezeichnet. Später gingen die Konvergenzanbieter einen Schritt weiter und entwickelten und produzierten ihre eigene Produktlinie von vorkonfigurierten und hoch integrierten Rechen-, Speicher- und Netzwerkgeräten für das Rechenzentrum. Dies war ein evolutionärer Schritt, der heute als hyperkonvergente Infrastruktur (Hyper-Converged Infrastructure, HCI) bezeichnet wird.

Konvergente und hyperkonvergente Infrastrukturen werden durch eine Kombination aus Virtualisierungstechnologie und einheitlicher Verwaltung möglich. Durch Virtualisierung können Rechen-, Speicher- und Netzwerkressourcen als Ressourcenpools behandelt werden. Ein einheitliches Management ermöglicht es, all diese Ressourcen zu erkennen, in Pools zu organisieren, in Leistungsstufen zu unterteilen und dann nahtlos für Arbeitslasten bereitzustellen, unabhängig davon, wo sich diese Ressourcen physisch befinden. Die einheitliche Verwaltung stellt einen Quantensprung gegenüber herkömmlichen heterogenen Rechenzentrumsumgebungen dar, die sich auf mehrere unterschiedliche Verwaltungs-Tools stützen konnten, mit denen oft nicht alle Ressourcen erkannt oder verwaltet wurden.

Heutzutage wird die Kombination aus virtualisierter Hardware und zugehörigen Verwaltungs-Tools häufig als eigenständige Appliance behandelt, die als einzelnes, vollständiges Subsystem im Rechenzentrum betrieben oder mit anderen HCI-Appliances kombiniert werden kann, um eine hyperkonvergente Infrastruktur schnell und einfach zu erweitern.

Wie funktioniert die hyperkonvergente Infrastruktur?

Allzu oft wurden vielschichtige Kombinationen von Hardware verschiedener Anbieter mit unzureichender Netzwerkausrüstung verbunden, die sich nicht mit einem einzigen Tool bereitstellen und verwalten lassen. Das Ergebnis ist fast immer ein Sammelsurium verschiedener Geräte und Software, das zu Verwirrung, Versäumnissen, unnötigen Problembehebungen und Zeitverschwendung seitens der IT-Administratoren führt.

Die hyperkonvergente Infrastruktur basiert auf den beiden Grundvoraussetzungen Integration und Management, die als Mittel zur Lösung von zwei der größten Probleme herkömmlicher heterogener Rechenzentren entstanden sind: suboptimale Leistung und bruchstückhaftes - problematisches - Systemmanagement. Das Ziel von HCI ist die Bereitstellung virtualisierter, skalierbarer Rechen-, Speicher- und Netzwerkressourcen, die alle über eine einzige Plattform auffindbar und verwaltbar sind.

Abbildung 1: Vor der Einführung einer hyperkonvergenten Infrastruktur sollten Einsatzoptionen, Vorteile und Herausforderungen genau evaluiert werden.
Abbildung 1: Vor der Einführung einer hyperkonvergenten Infrastruktur sollten Einsatzoptionen, Vorteile und Herausforderungen genau evaluiert werden.

Über diese grundlegende Prämisse hinaus gibt es jedoch zahlreiche Varianten und Optionen für hyperkonvergente Infrastrukturen. Es ist wichtig, die häufigsten Überlegungen zur HCI-Technologie zu verstehen.

Hardware- oder Software-Bereitstellung. Hyperkonvergente Infrastrukturen können durch Hardware oder Software implementiert werden.

  • Hardware-Bereitstellung. Die HCI-Technologie entstand als Hardwareplattform, die Rechen-, Speicher- und manchmal auch Netzwerkressourcen in einem dedizierten Gerät vereint, das oft als Appliance bezeichnet wird. Hardwarebasierte HCI ermöglicht ein hohes Maß an Integration und Optimierung, was die Leistung in wichtigen Bereichen, wie zum Beispiel der Datenübertragung zwischen Speicher und CPU, erheblich verbessern kann. Hardware-HCI kann sich als ideal erweisen, wenn eine hohe Leistung für Workloads - wie Echtzeit-Datenanalyseaufgaben - wichtig ist und wenn Hardwaremodularität und Skalierbarkeit für das Unternehmen von Bedeutung sind. Hardwarebasierte HCI ist jedoch in der Regel herstellerspezifisch, was die Kosten in die Höhe treibt und ein gewisses Risiko der Herstellerbindung birgt. Mit Hardware-HCI kann ein Unternehmen bei Bedarf problemlos neue HCI-Appliances hinzufügen, ohne sich Gedanken über die Kompatibilität und den Support der Verwaltungssoftware machen zu müssen. Beispiele für hardwarebasierte HCI sind die VxRail-Systeme von Dell, auf denen VMWare-Virtualisierung läuft, und die SimpliVity-Plattform von Hewlett Packard Enterprise (HPE).
  • Software-Bereitstellung. HCI kann auch als Softwareschicht implementiert werden, die dazu dient, vorhandene Hardwarekomponenten zu erkennen, zu virtualisieren und zu verwalten. Der Softwareansatz ermöglicht es einem Unternehmen, die Vorteile von HCI zu nutzen, ohne dass umfangreiche neue Hardware-Investitionen erforderlich sind. Der Nachteil dabei ist, dass vorhandene Hardwaregeräte - einschließlich Server und Speichersubsysteme - nicht von der engen Integration und den Optimierungen profitieren, die bei hardwarebasierter HCI zu finden sind. HCI-Software ist von VMware vSAN, Nutanix Acropolis, Microsofts Azure Stack - der lokalen Version von Azure - und sogar OpenStack erhältlich. Der Software-Ansatz kann auch architektonische Änderungen und neue Überwachungsanforderungen mit sich bringen, die die HCI-Softwareschicht möglicherweise nicht bietet. Daher kann softwarebasierte HCI für Unternehmen komplizierter zu implementieren und zu warten sein.

Integriert oder disaggregiert. Hyperkonvergente Infrastrukturen können in Bezug auf das Hardware-Design zwei verschiedene Ansätze verfolgen.

  • Integrierte HCI. Der integrierte Ansatz ist der traditionellere, bei dem eine HCI-Appliance eine ausgewogene Mischung aus Rechenressourcen, einschließlich Prozessoren, Arbeitsspeicher (Memory) und Speicher, enthält. Jede Appliance wird als Knoten bezeichnet, und eine HCI-Bereitstellung kann auf zahlreiche Knoten skaliert werden. Integrierte HCI-Hardware ist einfach zu verstehen und bietet eine hohe Leistung - alles befindet sich in einem Gehäuse. Aber Ressourcen sind endlich, und die Workloads nutzen die Ressourcen in der Regel nicht gleichmäßig. Wenn einem Knoten eine Ressource ausgeht (zum Beispiel CPUs), muss ein Unternehmen einen völlig neuen Knoten hinzufügen, auch wenn die anderen Ressourcen des neuen Knotens (beispielsweise Memory und Storage) noch nicht genutzt oder benötigt werden. Dies birgt die Gefahr von Fehlinvestitionen.
  • Disaggregierte HCI. Die hyperkonvergente Infrastruktur hat auch eine disaggregierte Architektur zu bieten. Anstatt CPUs, Arbeitsspeicher und Speicher in einem Gerät zu vereinen, werden die verschiedenen Ressourcenkomponenten in verschiedenen Modulen bereitgestellt. Bei einer disaggregierten HCI-Hardwarebereitstellung würden also CPUs und Memory in einer Compute-Box und Storage in einer separaten Storage-Box untergebracht. Alle verschiedenen Ressourcenmodule sind über ein Netzwerk miteinander verbunden. Obwohl es technisch möglich ist, CPUs und Memory für eine stärkere Disaggregation zu trennen, ist es für die Leistung besser, beides in einem Gerät zusammenzuhalten, da CPUs und Arbeitsspeicher in einer Rechenumgebung eng gekoppelt sind. Disaggregierte Ansätze versprechen zusätzliche Flexibilität und ermöglichen es dem Unternehmen, HCI-Investitionen auf die Ressourcen zu konzentrieren, die den größten Nutzen bringen. Mehrere HCI-Anbieter haben disaggregierte HCI-Angebote, darunter Datrium, NetApp und HPE.
Abbildung 2: Vergleich und Gegenüberstellung von traditioneller IT vs. HCI vs. dHCI vs. Composable Infrastructure.
Abbildung 2: Vergleich und Gegenüberstellung von traditioneller IT vs. HCI vs. dHCI vs. Composable Infrastructure.

Bereitstellung. Hyperkonvergente Infrastrukturen werden in der Regel als Paradigma-brechende Technologie betrachtet, da sie in der Regel die vorhandene Data-Center-Hardware verdrängen. Wann immer HCI im Rechenzentrum eingeführt wird, ist es wichtig, sich Gedanken darüber zu machen, wie diese Technologie implementiert oder betrieben werden soll. Grundsätzlich gibt es drei Möglichkeiten, ein herkömmliches heterogenes Rechenzentrum mit HCI zu ergänzen.

  • Vollständiger Ersatz mit HCI-Implementierung. Die erste Option ist ein vollständiger Ersatz der herkömmlichen Umgebung durch ein hyperkonvergentes Infrastrukturprodukt. In der Praxis ist dies wahrscheinlich die am wenigsten wünschenswerte Option, da sie die größtmögliche Verdrängung/Austausch von Hardware mit sich bringt - und auch die höchsten potenziellen Kosten. Nur wenige Unternehmen haben das Kapital oder den technologischen Bedarf für ein solches Unterfangen. Es ist wahrscheinlicher, dass eine neue HCI-Implementierung für Projekte in neuen Rechenzentren oder für neue Bereiche eingesetzt wird, zum Beispiel für den Bau eines zweiten - Backup- oder entfernten - Rechenzentrums oder einen anderen Neubau, bei dem eine Referenzarchitektur verwendet wird, bei der das Ausrüstungskapital in HCI investiert werden kann, ohne dass eine vorhandene Hardware ersetzt werden muss. Die Datenmigration, die eine solche Implementierung mit sich bringt, erfordert in der Regel einen zu großen Aufwand an Zeit und Personal.
  • Side-by-Side-HCI-Bereitstellung. Der zweite - und weitaus attraktivere - Ansatz ist ein Side-by-Side-Einsatz, bei dem eine HCI-Plattform im bestehenden Rechenzentrum zusammen mit einer herkömmlichen heterogenen Infrastruktur eingesetzt wird. Dieser Ansatz ermöglicht es Unternehmen, Workloads im Laufe der Zeit auf HCI zu migrieren und kann langfristig durchgeführt werden. Abgelöste Hardware kann in kleineren, besser handhabbaren Teilen wiederverwendet oder außer Betrieb genommen werden. Es ist wahrscheinlich, dass HCI langfristig mit traditionellen Infrastrukturen zusammenarbeiten wird und beide problemlos koexistieren können. Die Datenmigration ist hier weniger aufwendig und lässt sich gut geplant meist problemlos umsetzen.
  • HCI-Bereitstellung pro Anwendung. Der dritte Ansatz bringt die hyperkonvergente Infrastruktur ebenfalls in die bestehende Rechenzentrumsumgebung ein. Die HCI ist jedoch nicht für die Migration bestehender Arbeitslasten in die neue Infrastruktur gedacht, sondern nur für die Unterstützung spezifischer neuer Anwendungen oder Datenverarbeitungsinitiativen, wie zum Beispiel die Bereitstellung einer neuen virtuellen Desktop-Infrastrukturoder eines neuen Big-Data-Verarbeitungs-Clusters.

Warum ist Hyperkonvergenz so wichtig?

Heterogene Rechenzentren haben sich entwickelt, weil jedes Unternehmen Datenverarbeitungsprobleme hat, die gelöst werden müssen, aber die Antwort ist selten für jedes Unternehmen oder jedes Problem dieselbe. Das Versprechen der Heterogenität gibt einem Unternehmen die Freiheit, zwischen kostengünstigen und leistungsstarken Produkten zu wählen - und allem, was dazwischen liegt -, während das Rechenzentrum weitgehend frei von Herstellerabhängigkeit bleibt.

Aber Heterogenität hat ihren Preis. Der Aufbau einer effektiven heterogenen Rechenzentrumsinfrastruktur erfordert Zeit und Aufwand. Hardware und Software müssen einzeln beschafft, integriert, konfiguriert, optimiert und dann mit Hilfe von Tools verwaltet werden, die oft nur für die Produkte eines bestimmten Anbieters verfügbar sind. Daher erfordert die Verwaltung einer vielfältigen Infrastruktur in der Regel Fachwissen über mehrere Tools, die die IT-Mitarbeiter beherrschen und warten müssen. Dies verursacht zusätzliche Zeit- und Integrationsprobleme, wenn die Infrastruktur geändert oder erweitert werden muss. Die traditionelle heterogene IT ist einfach nicht sehr flexibel.

Heutzutage ändern sich die Geschäftsabläufe in einem viel schnelleren Tempo. Die IT muss viel zügiger auf die Anforderungen des Unternehmens reagieren, neue Ressourcen für neu entstehende Arbeitslasten auf Abruf bereitstellen und neue Ressourcen oft gerade noch rechtzeitig hinzufügen, um die Unternehmensanwendungen am Laufen und sicher zu halten, und gleichzeitig Fehler und Versäumnisse bei der Systemverwaltung vermeiden, die kritische Systeme angreifbar machen könnten. Und all dies muss mit immer kleiner werdenden IT-Budgets und -Teams bewältigt werden. Bei der hyperkonvergenten Infrastruktur geht es vor allem um schnelle Bereitstellung und Flexibilität.

HCI nutzt dieselben Vorteile, die homogene Rechenzentrumsumgebungen populär gemacht haben: Plattformen eines einzigen Anbieters, die Kompatibilität, Interoperabilität und konsistentes Management gewährleisten und gleichzeitig die Möglichkeit bieten, im Falle eines Fehlers auf einen einzigen Anbieter zurückgreifen zu können. HCI geht jedoch noch weiter und stellt Rechen-, Speicher- und Netzwerkressourcen bereit, die mithilfe von softwaredefinierten und Virtualisierungstechnologien organisiert werden. Die Ressourcen sind eng integriert und voroptimiert, und die Hardware und Software sind in praktischen Appliances - oder Knoten - zusammengefasst, die zu Beginn einzeln eingesetzt und dann schnell und einfach skaliert werden können, wenn die Ressourcenanforderungen steigen.

Kurz gesagt, HCI-Produkte sind im Grunde Rechenzentren in einer Box. Wenn ein Unternehmen mehr Rechenzentren benötigt, werden einfach weitere Boxen hinzugefügt. Aber die Attraktivität von HCI geht über das Rechenzentrum hinaus. Die kompakten, hochintegrierten Angebote sind einfach zu installieren und können per Fernzugriff verwaltet werden, und die HCI-Technologie ist für ROBO- (Remote Office/Branch Office) und Edge-Computing-Implementierungen wichtig geworden.

Nehmen wir als Beispiel eine typische Big Data-Installation, bei der Petabytes an Daten von einer Vielzahl von IoT-Geräten ankommen. Anstatt sich auf ein Netzwerk zu verlassen, um die Rohdaten zur Verarbeitung an ein Rechenzentrum zu senden, können die Daten lokal am Rande erfasst und gespeichert werden - dort, wo die Daten ihren Ursprung haben - und eine HCI-Bereitstellung kann problemlos am Rande (Edge) installiert werden, um die Rohdaten per Fernzugriff zu verarbeiten und zu analysieren, wobei eine Überlastung des Netzwerks vermieden wird, indem nur die endgültige Analyse an das Hauptrechenzentrum gesendet wird.

Warum Unternehmen auf Hyperkonvergenz umsteigen

Im Jahr bot der Markt für hyperkonvergente Infrastrukturen einen Umsatz von etwa zwei Milliarden US-Dollar pro Quartal. Diese enormen Investitionen haben HCI von einer Nischen- oder SMB-Plattform zu einer brauchbaren Alternative für Unternehmen gemacht. Auch wenn HCI nicht für alle Workloads ideal ist, kann es doch eine größere Bandbreite von Anwendungen und Anwendungsfällen als je zuvor bewältigen.

HCI begann als punktuelle Plattform - ein Mittel zur Vereinfachung und Beschleunigung kleinerer IT-Implementierungen in ROBO-Umgebungen sowie einer begrenzten Anzahl von Umgebungen der Unternehmensklasse, wie VDI. Schon früh nutzten große Unternehmen HCI, um geschäftsspezifische Ziele zu unterstützen, die von der Hauptproduktionsumgebung getrennt waren, die damit allein gelassen werden konnte, um die anspruchsvollen Aufgaben zu bewältigen.

Heute profitieren HCI-Angebote von den radikalen Verbesserungen bei Prozessoren, Arbeitsspeicher und Speichergeräten sowie von den dramatischen Fortschritten bei softwaredefinierten Technologien, die die Art und Weise, wie Unternehmen Ressourcen und Arbeitslasten wahrnehmen und handhaben, neu definieren. Beispiele hierfür sind unter anderem:

  • HCI-Unterstützung für Container-Cluster. Anbieter wie Dell EMC/VMware, Nutanix und Cisco bieten jetzt HCI-Konfigurationen an, die für Container-Software wie Kubernetes optimiert sind.
  • Unterstützung für maschinelles Lernen und Deep-Learning-Algorithmen. Die Fähigkeit, eine große Anzahl an skalierbaren Containern zu unterstützen, macht HCI zu einer natürlichen Lösung für maschinelles Lernen und künstliche Intelligenz, die eine enorme Anzahl von Recheninstanzen erfordern.
  • Das Aufkommen von Streaming Data Analytics. Streaming-Analytik ist ein Ausdruck von Big Data, der es einem HCI-System ermöglicht, Daten und Metriken aus einer Vielzahl von Quellen in Echtzeit zu erfassen, zu verarbeiten und auszuwerten. Solche Analysen können dazu genutzt werden, wertvolle Geschäftseinblicke zu gewinnen und bevorstehende Probleme oder Störungen vorherzusagen.

Die hyperkonvergente Infrastruktur hat das Edge Computing tiefgreifend beeinflusst. Die heutige beispiellose Verbreitung von IoT-Geräten, Sensoren, entfernten Standorten und mobiler Erreichbarkeit verlangt von Unternehmen ein Umdenken bei der Erfassung, Speicherung und Verarbeitung enormer Datenmengen. In den meisten Fällen erfordert dies, dass das Unternehmen die Datenverarbeitung und -analyse aus dem zentralen Rechenzentrum auslagert und diese Ressourcen näher an die Datenquelle verlagert: an den Rand (Edge). Die Einfachheit und Vielseitigkeit von HCI-Angeboten macht die Remote-Bereitstellung und -Verwaltung wesentlich einfacher als bei herkömmlichen IT-Infrastrukturen.

Und schließlich eignet sich HCI aufgrund seiner Schnelligkeit und Flexibilität für eine schnelle Bereitstellung und sogar für eine schnelle Wiederverwendung. Das Auftreten der COVID-19-Pandemie hat dazu geführt, dass eine große Anzahl von Benutzern plötzlich zu Hause arbeitet. Dies hat dazu geführt, dass Unternehmen plötzlich zusätzliche Ressourcen und Infrastrukturen bereitstellen mussten, um die geschäftlichen Datenverarbeitungsanforderungen von Benutzern, die jetzt zu Hause arbeiten, zu erfüllen. HCI-Systeme haben bei solchen schnellen Infrastrukturanpassungen eine bemerkenswerte Rolle gespielt.

Abbildung 3: Es gibt zahlreiche, unterschiedliche Geschäftstreiber, die IT-Teams dazu bringen, HCI-Technologie einzusetzen.
Abbildung 3: Es gibt zahlreiche, unterschiedliche Geschäftstreiber, die IT-Teams dazu bringen, HCI-Technologie einzusetzen.

Hyperkonvergente Infrastruktur vs. konvergente Infrastruktur

Die heutigen hyperkonvergenten Infrastrukturtechnologien sind nicht über Nacht entstanden. Die heute erhältlichen HCI-Produkte sind das Ergebnis einer jahrzehntelangen Entwicklung von Rechenzentren - und Anwendungsfällen. Um die Entwicklung zu verstehen, ist es wichtig, mit den traditionellen Rechenzentrumsansätzen zu beginnen, bei denen Rechen-, Speicher- und Netzwerkgeräte einzeln ausgewählt, bereitgestellt und in der Regel auch verwaltet wurden. Dieser Ansatz hat sich bewährt, erforderte jedoch eine sorgfältige Integration, um sicherzustellen, dass alle Geräte zusammenarbeiten und eine angemessene Leistung erbringen. Eine Optimierung war, wenn überhaupt, nur begrenzt möglich.

Als sich das Geschäftstempo beschleunigte, erkannten die Unternehmen die Vorteile von Integration und Optimierung bei der Bereitstellung und Leistung. Wenn es möglich wäre, die Herausforderungen der Integration, Konfiguration und Optimierung neuer Geräte zu umgehen, könnten Implementierungen schneller und mit weniger Problemen durchgeführt werden.

So entstand der Begriff der Konvergenz, der es den Anbietern ermöglichte, Server-, Speicher- und Netzwerkkomponenten zu entwickeln, die bereits vorkonfektioniert und vorintegriert waren und deren Zusammenspiel bereits validiert war. Obwohl es sich bei der konvergenten Infrastruktur im Grunde um Gerätepakete verschiedener Anbieter handelte, war die zeitaufwändige Integrations- und Optimierungsarbeit bereits erledigt. In den meisten Fällen war auch eine Softwareschicht enthalten, mit der die konvergenten Infrastrukturprodukte gemeinsam verwaltet werden konnten, so dass das CI-Paket im Grunde aus einem Guss war.

Schließlich erkannten die Anbieter, dass Konvergenz ein noch höheres Maß an Integration und Leistung bieten konnte, indem sie auf die Produkte mehrerer Anbieter verzichteten und stattdessen einen Ansatz verfolgten, der Rechen-, Speicher- und Netzwerkkomponenten in einem einzigen Produkt zusammenfasste. Dieses Konzept wurde als Hyperkonvergenz bezeichnet und führte zum Aufstieg der hyperkonvergenten Infrastruktur.

HCI-Produkte zeichnen sich häufig durch eine modulare Architektur aus, die es ermöglicht, Rechen-, Speicher- und Netzwerkkomponenten als Module zu bauen, die in einem speziellen Rack installiert werden. Der physische Blade-Formfaktor erwies sich als äußerst beliebt für HCI-Module und -Racks, da er eine schnelle Installation und Hot-Swap-Funktionen für Module ermöglicht. Dem Blade-Rack konnten weitere Rechen-, Speicher- und Netzwerk-Blades hinzugefügt werden. Wenn das Rack voll war, konnte ein neues Rack installiert werden, um weitere Module aufzunehmen - eine weitere Skalierung der Bereitstellung. Aus Softwaresicht ist die HCI-Umgebung vollständig virtualisiert und umfasst einheitliche Management-Tools für die Konfiguration, das Pooling, die Bereitstellung und die Fehlerbehebung von HCI-Ressourcen.

VIDEO

<div class="youtube-iframe-container"><iframe id="ytplayer-0" src="https://www.youtube.com/embed/llxXhcjclMM?autoplay=0&amp;modestbranding=1&amp;rel=0&amp;widget_referrer=https://www.techtarget.com/searchdatacenter/definition/What-is-hyper-converged-infrastructure-Guide-to-HCI&amp;enablejsapi=1&amp;origin=https://www.techtarget.com" type="text/html" height="360" width="640" frameborder="0"></iframe></div>

HCI 1.0 vs. HCI 2.0

Die hyperkonvergente Infrastruktur entwickelt sich ständig weiter und bringt neue Funktionen und Möglichkeiten zum Ausdruck, während sie gleichzeitig daran arbeitet, vermeintliche Einschränkungen zu überwinden und potenzielle Anwendungsfälle zu erweitern. Heute gibt es keine allgemein akzeptierte Terminologie, um die Entwicklung von HCI zu definieren, aber die Technologie wird umgangssprachlich als HCI 1.0 und HCI 2.0 bezeichnet. Der Hauptunterschied zwischen diesen Versionen besteht in der Verwendung der Disaggregation.

Die ursprüngliche Prämisse von HCI bestand darin, eng integrierte und optimierte Sets von virtualisierten CPUs, Arbeitsspeicher, Speicher und Netzwerkverbindungen in vorgefertigten Knoten bereitzustellen. Wenn mehr Ressourcen benötigt werden, ist es ein Leichtes, einfach weitere Knoten hinzuzufügen. Eine einheitliche Verwaltungssoftware ermittelt, bündelt, konfiguriert, stellt bereit und verwaltet alle virtualisierten Ressourcen. Der Punkt ist, dass hyperkonvergente Infrastrukturen auf der Nutzung von Aggregation beruhen, das heißt, dass alles in einer einzigen Box untergebracht ist, die einfach und schnell bereitgestellt werden kann. Diese zugrunde liegende Nutzung der Aggregation machte die HCI 1.0-Produkte so attraktiv für die schnelle Bereitstellung in ROBO- und Edge-Anwendungsfällen.

Der Hauptkritikpunkt an HCI 1.0-Produkten ist die Auslastung der Ressourcen und das Potenzial für Ressourcenverschwendung. Ein typisches HCI-Produkt bietet eine begrenzte und feste Menge an CPU, Memory und Storage. Der Anteil dieser Ressourcen spiegelt im Allgemeinen eher traditionelle, ausgewogene Arbeitslasten wider. Workloads, die ungleichmäßige oder unverhältnismäßige Anforderungen an die Ressourcen stellen, können jedoch dazu führen, dass einige Ressourcen schnell erschöpft sind und das Unternehmen gezwungen ist, kostspieligere Knoten hinzuzufügen, um die Ressourcenknappheit zu decken, während die verbleibenden Ressourcen nicht voll ausgelastet sind.

Disaggregation wird zunehmend als potenzielle Antwort auf das Problem der HCI-Ressourcenverschwendung angesehen. Die Einführung einer disaggregierten hyperkonvergenten Infrastruktur - dHCI oder HCI 2.0 - trennt im Wesentlichen die Rechenressourcen vom Speicher. Bei HCI 2.0 befinden sich CPU und Arbeitsspeicher in einem Gerät und der Speicher in einem anderen Gerät, und beide Geräte können bei Bedarf separat hinzugefügt werden. Mit diesem Ansatz können Unternehmen ihre HCI-Investitionen gezielt einsetzen, um weniger traditionelle Workloads zu unterstützen, die möglicherweise spezifischere Ressourcenanforderungen stellen. Nimble Storage dHCI, NetApp HCI und Datrium DVX sind Beispiele für HCI 2.0.

Die Entwicklung von HCI ist jedoch nicht bei der Disaggregation stehen geblieben, und die HCI-Branche beginnt, das Konzept der Composable Infrastructure zu übernehmen. Theoretisch werden bei einer Composable Infrastructure alle Ressourcen in unabhängig voneinander skalierbare Komponenten aufgeteilt, die je nach Bedarf hinzugefügt und über eine spezielle Netzwerkstruktur miteinander verbunden werden können, die eine schnelle Kommunikation mit geringer Latenz zwischen den Komponenten unterstützt. Gleichzeitig sorgt eine einheitliche Verwaltungssoftware für die Erkennung, Zusammenführung, Konfiguration, Bereitstellung und Verwaltung aller verfügbaren Ressourcen. Diese Art der Infrastruktur lässt sich auch als zusammensetzbar bezeichnen, allerdings auf einem modulareren Niveau als die vorangegangenen HCI-Technologien.

Heute ist die Composable Infrastructure noch weit von einem solchen Idealszenario entfernt, aber die Anbieter beginnen, HCI-Geräte mit größerer Vielseitigkeit bei der Hardwareauswahl und -bereitstellung zu liefern, zum Beispiel mit der Möglichkeit, andere, nicht vom Hersteller stammende Speicher hinzuzufügen. Der Schlüssel zum Erfolg einer solchen Infrastruktur ist eine Verwaltungssoftware, die sich auf Ressourcenerkennung, Pooling, Tiering und die fast vollständige Abhängigkeit von softwaredefinierten Verhaltensweisen zur Bereitstellung von Ressourcen konzentrieren muss.

Hyperkonvergente Infrastruktur und Cloud

Es ist leicht, HCI und Cloud-Technologie zu verwechseln. Beide basieren auf Virtualisierung und einer ausgereiften Softwareverwaltungsschicht, die eine Vielzahl von Hardwareressourcen definieren, organisieren, bereitstellen und verwalten kann, auf denen Unternehmens-Workloads ausgeführt werden können. Obwohl HCI und Cloud gut zusammenarbeiten können, sind sie nicht dasselbe, und es gibt subtile, aber wichtige Unterschiede zu beachten.

HCI ist im Grunde ein zentralisierter, softwaregesteuerter Ansatz für die Bereitstellung und Nutzung einer Rechenzentrumsinfrastruktur. Die zugrunde liegende Hardware ist klar definiert, und die Menge der Hardwareressourcen ist endlich. Die Virtualisierung abstrahiert die Ressourcen, während die Software die Art und Weise der Bereitstellung von Ressourcen für Arbeitslasten organisiert und definiert.

Eine Cloud soll Computing als Dienstprogramm bereitstellen, indem sie riesige Mengen virtualisierter Ressourcen umhüllt, die die Benutzer mit Hilfe von Software-Tools nach Belieben bereitstellen und freigeben können. Die Cloud bietet nicht nur ein riesiges Reservoir an Ressourcen, sondern auch eine Vielzahl vordefinierter Dienste wie Load Balancer, Datenbanken und Überwachungs-Tools, die der Benutzer nach Belieben implementieren kann.

Der Unterschied zwischen HCI und Cloud ist im Wesentlichen der Unterschied zwischen Hardware und Software. HCI ist lediglich eine Implementierung von Hardware, die in einem Rechenzentrum eingesetzt werden kann. Bei einer Cloud handelt es sich um die Software und die dazugehörigen Dienste - den Cloud Stack -, die auf der verfügbaren Hardware ausgeführt werden. Daher kann eine HCI-Implementierung zur Unterstützung einer Cloud verwendet werden, typischerweise einer Private Cloud oder einer Private Cloud, die als Teil einer hybriden Cloud integriert ist und die digitale Transformation unterstützt. Umgekehrt wird ein Cloud-Software-Stack auf einer HCI-Bereitstellung im Rechenzentrum ausgeführt.

Azure Stack HCI ist beispielsweise eine Version von Microsoft Azure Public Cloud Stack, die auf lokaler HCI-Hardware ausgeführt werden kann. In ähnlicher Weise ist VCF on VxRail von Dell ein Beispiel für ein HCI-Angebot, das eine Software-Suite umfasst, mit der die HCI-Plattform als Private Cloud betrieben werden kann - und die private Cloud sich in Public-Cloud-Umgebungen, wie VMware on AWS, integrieren lassen kann.

HCI-Vorteile und -Nachteile

Die hyperkonvergente Infrastruktur ist nicht für jedes IT-Projekt oder jede Bereitstellung geeignet. Unternehmen müssen sich die Zeit nehmen, die Technologie zu bewerten, Proof-of-Concept-Tests durchzuführen und die damit verbundenen Kompromisse sorgfältig abzuwägen, bevor sie sich für HCI entscheiden.

Der Hauptvorteil von HCI ist die Einfachheit, und diese Einfachheit kann auf verschiedene Weise zum Ausdruck kommen. Zum Beispiel vereinfacht die modulare Natur eines HCI-Angebots die Bereitstellung. Die Installationszeit ist erheblich kürzer, und auch die Zeit, die für die Konfiguration des installierten Systems und die Bereitstellung von Ressourcen für Workloads benötigt wird, ist potenziell kürzer als bei herkömmlichen Hardwareimplementierungen. Wenn zusätzliche Ressourcen benötigt werden, kann einfach ein weiterer HCI-Knoten installiert werden. Typische Integrationsprobleme und Optimierungsherausforderungen werden erheblich reduziert, da das HCI-System von vornherein auf Interoperabilität und Optimierung ausgelegt ist.

Die Einfachheit drückt sich auch in einem schnelleren und effizienteren HCI-Management aus. Durch den Einsatz einer einheitlichen Managementplattform wird sichergestellt, dass alle HCI-Ressourcen erkannt, zusammengeführt, ordnungsgemäß konfiguriert - unter Einhaltung der vom Unternehmen bevorzugten Richtlinien für Sicherheit und Geschäftsprozesse - und effizient bereitgestellt werden, wobei alle Ressourcen sichtbar und überwacht sind. HCI-Systeme eignen sich gut für die Automatisierung von Bereitstellung und Wartung. Dies ist ein Grund dafür, dass HCI bei Private Clouds, VDI und anderen Arten von IT-Projekten, die von der Automatisierung profitieren, sehr beliebt geworden ist. Dies ist effektiver als bei heterogenen Umgebungen, die möglicherweise mehrere Verwaltungs-Tools erfordern und bei denen versehentlich Ressourcen übersehen werden können, wenn sie nicht richtig erkannt werden.

Letztendlich sind die HCI-Bereitstellung und die Zeit bis zur Produktionsreife einfacher und schneller als bei herkömmlichen heterogenen Bereitstellungen, so dass HCI auch von kleineren Unternehmen mit weniger IT-Personal und weniger technischen Kenntnissen bereitgestellt und unterstützt werden kann. Diese Einfachheit wirkt sich auch auf den laufenden Service und Support aus. Da HCI von einem einzigen Anbieter stammt, ist auch der Support Teil des Pakets, so dass ein einziger Anruf beim technischen Support zu konkreten Lösungen für dringende Probleme führen sollte, ohne dass ein anderer Anbieter dafür verantwortlich gemacht werden kann. Dies kommt auch kleineren und weniger qualifizierten IT-Mitarbeitern zugute. Die von HCI versprochene Einfachheit und Bequemlichkeit kann die Kosten für die Bereitstellung und den Betrieb einer HCI insgesamt senken.

HCI birgt jedoch auch einige potenzielle Nachteile, die sorgfältig abgewogen werden sollten. Die Skalierbarkeit geht zum Beispiel mit der Bindung an einen bestimmten Anbieter einher. Es ist einfach, einen weiteren Knoten hinzuzufügen, aber nur, wenn der neue Knoten vom selben Anbieter stammt. Es gibt keine offenen Standards für die physische oder logische Interoperabilität zwischen Knoten verschiedener HCI-Systeme oder -Anbieter. Herkömmliche HCI-Systeme (HCI 1.0) fassen außerdem CPU, Arbeitsspeicher und Speicher auf demselben Knoten zusammen, so dass der Kauf von mehr einer Ressource fast immer auch den Kauf von mehr aller Ressourcen bedeutet, selbst wenn andere Ressourcen derzeit nicht benötigt werden, was eine Verschwendung von Ressourcen und Kapitalinvestitionen bedeuten kann. Der Vorstoß in Richtung Disaggregation - HCI 2.0 oder dHCI - verspricht, diese Verschwendung zu verringern.

HCI kann Probleme mit der Leistungsdichte mit sich bringen. Wenn riesige Mengen an Hardware auf relativ engem Raum untergebracht werden, kann dies zu Problemen mit den Stromverteilungssystemen und der punktuellen Kühlung in Rechenzentren führen, die seit langem die Probleme mit der Strom- und Kühldichte gelöst haben. Das bedeutet, dass die HCI-Installation einfach ist, wenn die Anforderungen an die Stromversorgung und Kühlung erfüllt werden.

Der Umfang von HCI ist immer noch gering. Obwohl dies für viele Workloads kein Problem darstellt, sind größere Implementierungen mit vielen Compute-Servern und Dutzenden von Terabytes an Speicher möglicherweise besser mit separaten Compute- und Storage-Subsystemen bedient. Dieser traditionelle Ansatz ähnelt eher einer Disaggregation und ermöglicht es, anspruchsvolle Subsysteme separat zu skalieren und zu optimieren. Große Mengen an Server- oder Speicherkäufen können auch von Skaleneffekten profitieren, die HCI-Produkte nicht bieten können.

Einige Highend-Funktionen von HCI - wie zum Beispiel Hochverfügbarkeit - sind möglicherweise nicht ohne zusätzliche Anschaffungen verfügbar. Ein HCI-Knoten ist beispielsweise nur dann wirklich redundant, wenn es mindestens einen zweiten HCI-Knoten gibt, auf dem parallele Arbeitslasten neben dem ersten ausgeführt werden. Dies stellt eine zusätzliche Investition dar, die das Unternehmen möglicherweise nicht tätigen kann, zumindest nicht zu Beginn.

Einer der wiederkehrenden Nachteile sind die HCI-Kosten. HCI-Produkte sind herstellerabhängig und haben in der Regel einen hohen Preis, da es keine einheitliche Interoperabilität zwischen den Angeboten der Hersteller gibt. Aggregierte Knoten können unerwünschte Kapitalkosten für Ressourcen verursachen, die möglicherweise nicht alle benötigt werden. Die Kosten für Softwarelizenzen und Wartungsverträge können die wiederkehrenden HCI-Kosten in die Höhe treiben. Außerdem können die Kosten je nach Knotentyp schwanken. So bieten HCI-Anbieter in der Regel mehrere verschiedene Knotenoptionen an, die unterschiedliche Kombinationen von CPU, Memory, Storage und Netzwerkkonnektivität bieten, um den verschiedenen Workload-Anforderungen gerecht zu werden. Die Auswahl von Knoten mit Highend-CPUs, nichtflüchtigem Speicher, 10-Gigabit-Ethernet und anderen Optionen kann den Preis für eine HCI-Bereitstellung in die Höhe treiben.

HCI-Verwaltung und -Implementierung

Obwohl HCI dem Unternehmen eine ganze Reihe von Vorteilen bietet, gibt es auch zahlreiche Überlegungen zur Verwaltung und Implementierung, die sorgfältig bewertet und verstanden werden müssen, bevor eine HCI-Investition überhaupt getätigt wird.

Ein wichtiger Punkt ist die Resilienz oder Ausfallsicherheit. HCI vereinfacht die Bereitstellung und den Betrieb, aber hinter der Einfachheit, die die Benutzer sehen, verbirgt sich eine enorme Komplexität. Fehler, Störungen und Ausfälle können zu einer Bedrohung für wichtige Geschäftsdaten werden. Und obwohl HCI-Angebote Resilienz unterstützen können, ist diese Funktion niemals automatisch enthalten, und sie kann ein detailliertes Verständnis der Funktionsweise des HCI-Systems erfordern, zum Beispiel von Schreibbestätigungen, RAID-Levels oder anderen Speichertechniken, die für die Resilienz verwendet werden.

Abbildung 4: Zu den wichtigsten Merkmalen hyperkonvergenter Appliances gehören Sicherheit und Interoperabilität.
Abbildung 4: Zu den wichtigsten Merkmalen hyperkonvergenter Appliances gehören Sicherheit und Interoperabilität.

Um zu verstehen, wie ein HCI-Angebot tatsächlich die Datenresilienz adressiert, müssen IT-Führungskräfte das Angebot bewerten und berücksichtigen, wie das System mit Knoten- oder Hardwareausfällen umgeht, die Standardoperationen der Datenresilienz, die Auswirkungen der Verwendung von Resilienzoptionen auf die Workload-Performance und die Overhead-Ressourcenkapazität, die zur Bereitstellung der Resilienz verwendet wird.

Bei der Verwaltung von HCI-Systemen können Benutzer oft von Verwaltungs-Tools von Drittanbietern profitieren, wie zum Beispiel der Unterstützung von DataOn HCI-Systemen für Windows Admin Center. Durch die Offenlegung von APIs können Tools und Services von Drittanbietern mit HCI-Systemen verbunden werden, um eine breitere Palette von Services oder Integrationen anzubieten.

HCI-Bereitstellungen und -Verwaltung profitieren auch von einem klaren Anwendungsfall. Daher ist es wichtig, alle spezifischen oder maßgeschneiderten Rollen zu verstehen, die ein HCI-System in der Umgebung spielt, und diese Rollen entsprechend zu verwalten. Beispielsweise wird eine HCI-Bereitstellung, die für Backup und Disaster Recoveryvorgesehen ist, wahrscheinlich anders verwaltet und unterstützt als eine HCI-Bereitstellung, die für alltägliche Produktions-Workloads verwendet wird.

Nutzen Sie die Vorteile einer automatischen Richtlinienverwaltung und/oder -durchsetzung, die das HCI-System bietet. Softwaredefinierte Tools wie Nutanix Flow können ein Netzwerk- und Richtlinienmanagement ermöglichen, das die Bereitstellung beschleunigt und gleichzeitig Best Practices für das Unternehmen durchsetzt, beispielsweise die Anpassung von Konfigurationseinstellungen und die Implementierung von Anwendungssicherheit. Diese Funktionen sind oft in der Lage, Berichte und Warnungen bei Abweichungen von den Richtlinien zu erstellen, so dass Unternehmen eine sorgfältige Kontrolle über die Ressourcennutzung und die Konfigurationen behalten können.

Und schließlich sollten Sie bei der Auswahl der Management-Tools Vorsicht walten lassen. Die zu HCI-Systemen gehörenden Tools sind in der Regel proprietär und können nicht ohne weiteres - wenn überhaupt - mit anderen Servern, Speicher- und Netzwerkelementen im gesamten Rechenzentrum zusammenarbeiten. Unternehmen, die breitere Umgebungen überwachen und verwalten müssen, ohne die Silos, die mit mehreren Management-Tools einhergehen, könnten von der Verwendung von Tools von Drittanbietern profitieren, wie zum Beispiel Zenoss, Uila, EG Innovations EG Enterprise und ManageEngine OpManager.

HCI-Anbieter und -Produkte

Der Markt für hyperkonvergente Infrastrukturen bietet eine große Auswahl an Produkten wichtiger Anbieter (Stand Januar 2023), darunter Dell EMC, Nutanix und HPE. Jeder Anbieter unterstützt eine Auswahl an Produkten und Software, um eine Vielzahl von Workload-Ressourcenanforderungen zu erfüllen.

Die VxRail-Familie von Dell EMC bietet fünf verschiedene VxRail-Hardwareplattformen.

  1. E-Serie: ein 1U-Formfaktor-System, das ausgewogene Ressourcen für maschinelles Lernen und allgemeine Nutzung bietet.
  2. P-Serie: ein 2U-Hochleistungsangebot für Datenbanken und andere rechenintensive Workloads.
  3. V-Serie: ein weiteres 2U-System für virtuelle Desktops und grafikintensive Workloads.
  4. 2U S-Serie: fokussiert auf die Speicherkapazität.
  5. 2U G-Serie: soll eine Allzweck-Hardwareplattform für rechenintensive Workloads bieten.

Während Dell EMC einen stark hardwarezentrierten Ansatz für HCI verfolgt, verfolgt Nutanix einen softwarebasierten Ansatz. Das Ziel von Nutanix ist es, eine Softwareschicht bereitzustellen, die die für HCI erforderlichen Merkmale und Funktionen bietet und gleichzeitig einen breiten Mix aus Software und Hardware unterstützt. Nutanix unterstützt beispielsweise mehrere Hypervisoren und kann VMware vSphere, Microsoft Hyper-V oder den Nutanix Acropolis Hypervisor verwenden. Nutanix bietet seine eigenen speziell entwickelten hyperkonvergenten Appliances an, aber auch Appliances von Cisco, HPE, Lenovo, Fujitsu, Inspur, IBM, Intel, Dell EMC und anderen Anbietern können die Nutanix-Software nutzen. Daher wird Nutanix im Allgemeinen als universelle HCI-Plattform angesehen.

HPE bietet die HCI-Plattform SimpliVity an. SimpliVity verspricht ein besseres Gleichgewicht zwischen Hardware und Software, indem es eine Software-HCI-Basis verwendet, die auf HPE DL380 Gen10-Servern als gemeinsame Hardwareplattform läuft. Das Produkt wirbt mit Leistung, Data Protection und hohe Resilienz sowie mit einem hohen Maß an Automatisierung und Analysen, die von HPEs InfoSight Analytics gesteuert werden.

Neben den großen Anbietern gibt es auch zahlreiche kleinere Anbieter, die versuchen, sich einen Anteil am HCI-Markt zu sichern. Zu diesen Anbietern gehören Ctera Networks Edge X Series, die HiveIO Hive Fabric, Pivot3 HCI, Robin Storage von Robin.io, die Scale Computing HC3-Plattform, StorMagic SvSAN und Cloudian HyperStore.

Weitere Anbieter verfolgen aktiv eine Form der disaggregierten HCI - dHCI oder HCI 2.0 - Technologie. Zu diesen Herstellern gehören Datrium, HPE Nimble dHCI und NetApp HCI.

Die HCI-Technologie ist nicht untätig geblieben, da sowohl Anbieter als auch Anwender nach neuen Anwendungsfällen - oft Nischenanwendungen - suchen, die über die traditionellen VDI-, Edge- und Private- oder Hybrid-Cloud-Anwendungsfälle hinausgehen. HCI macht Fortschritte bei der Automatisierung und Analyse von Rechenzentren, wo Softwareschichten problemlos auf eng integrierte Hardware zugreifen können, um die Kapazität zu überwachen, bei Upgrades zu helfen, die Bereitstellung zu verwalten und vor potenziellen Systemproblemen zu warnen.

Auch bei der Hardwareauswahl gibt es weitere Entwicklungsansätze: Einige softwarebasierte HCI-Systeme können eine Vielzahl von Servern und Speichermedien aufnehmen, während hardwarezentrierte Angebote anspruchsvollere Anwendungsfälle unterstützen, zum Beispiel die NVMe-Unterstützung für SAP HANA. Ebenso scheint HCI als Backup- oder DR-Plattform für Unternehmensanwendungen an Bedeutung zu gewinnen - manchmal in Verbindung mit Cloud-Services. Schließlich gewinnt die Rolle von Cloud-Anbietern bei HCI zunehmend an Bedeutung, wobei Angebote wie AWS Outposts sowohl Hardware als auch Software für Unternehmensanwendungen bereitstellen.

Diese Definition wurde zuletzt im Februar 2023 aktualisiert

Erfahren Sie mehr über Converged Infrastructure

ComputerWeekly.de
Close