Gesponserte Inhalte

Gesponserte Inhalte ist eine spezielle Kategorie mit Werbeinhalten, die von IT-Anbietern zur Verfügung gestellt werden. Diese umfasst lehrreiche Inhalte und interaktive Medien, die auf die Themen dieser Seite ausgerichtet sind.

Home > Lagerung

Getrennt denken: Warum jetzt der richtige Zeitpunkt für disaggregiertes Storage ist

Konvergente Infrastrukturen galten vor fünf Jahren als ideale Lösung. Ein Anbieter, ein Stack und ein zentraler Ansprechpartner. Doch mit der Übernahme von VMware durch Broadcom hat sich das Umfeld spürbar verändert. Laut ESG, einem Forschungsunternehmen von Omdia, sind die Kosten für Hypervisoren bei 72 % der US-Unternehmen innerhalb von 18 Monaten gestiegen.

CIOs, die ihre Infrastruktur stark auf VMware ausgerichtet haben, sehen sich nun mit deutlich höheren Verlängerungskosten konfrontiert. Gleichzeitig würde ein Austausch hyperkonvergenter Systeme in vielen Fällen einen kompletten Neuaufbau bedeuten.

Ein disaggregierter Ansatz im Storage-Bereich verändert diese Ausgangslage grundlegend, indem Storage und Compute voneinander getrennt werden. Sind beide Ebenen entkoppelt, lassen sich beispielsweise Hypervisoren austauschen, ohne die zugrunde liegenden Daten anzutasten.

Container brauchen flexible Infrastruktur

Container sind eine Alternative oder Ergänzung zu klassischen virtuellen Maschinen. Laut ESG-Studien reagieren 39 % der US-Unternehmen damit auf steigende VMware-Kosten und treiben die Modernisierung ihrer Anwendungen voran. Gleichzeitig ersetzen Kubernetes-basierte Container-Umgebungen bestehende VM-Strukturen nicht von heute auf morgen. In vielen Unternehmen laufen beide Ansätze über Jahre parallel.

Hinzu kommt, dass Container-Umgebungen deutlich stärkeren Schwankungen in ihren Infrastrukturanforderungen unterliegen, während klassische VMs vergleichsweise stabil und vorhersehbar bleiben. Hyperkonvergente Infrastrukturen haben sich um 2010 bis 2011 etabliert, also bevor Infrastruktur-as-Code-Tools wie Ansible oder Terraform verbreitet waren. Entsprechend sind sie nicht für die heutigen, hochdynamischen, cloud-nativen Workloads ausgelegt.

Der größte Fehler besteht darin, für VMs und Container getrennte Silos aufzubauen. Bestehende HCI-Umgebungen können weiterhin sinnvoll genutzt werden, sofern sie stabil laufen. Neue Projekte erfordern jedoch zunehmend disaggregierte Storage-Lösungen, die sowohl VMs als auch Container auf einer gemeinsamen Plattform unterstützen. Dabei kommt es insbesondere auf folgende Eigenschaften an:

  • Dateisystem-Support: Storage sollte sich ohne architektonische Änderungen von Terabyte- auf Petabyte-Skalierung erweitern lassen. Unternehmen sollten ihre Plattformentscheidungen nicht an Kapazitätsgrenzen ausrichten müssen. Moderne disaggregierte Storage-Lösungen unterstützen Block-, File- und Container-Workloads auf einer einheitlichen Plattform und bieten damit die notwendige Flexibilität.
  • Integration: Disaggregierte Storage-Systeme sollten sich nahtlos in Technologien wie VMware, Kubernetes, Ansible und Terraform integrieren lassen. Dateisysteme, die sich über AWS- und Azure-Infrastrukturen hinweg nutzen lassen, unterstützen Multi-Cloud- und Hybrid-Szenarien und geben Unternehmen zusätzliche Flexibilität.
  • Automatisierung: Tools wie Ansible und Terraform sind heute etabliert und ermöglichen eine programmatische Steuerung von Infrastruktur. Voraussetzung dafür ist, dass auch Storage-Systeme entsprechende Schnittstellen bereitstellen. Viele ältere Storage-Architekturen wurden nicht für moderne Automatisierungs- und IaC-Ansätze entwickelt.
  • Einfache Upgrades: Disaggregiertes Storage erlaubt es, neue Plattformen im laufenden Betrieb zu testen, ohne die gesamte Infrastruktur zu riskieren. Entscheidend sind nicht-disruptive Hardware- und Software-Upgrades, bei denen Compute-Ressourcen ausgetauscht werden können, während die Daten unverändert bestehen bleiben.

Migration gezielt steuern

Unternehmen mit gewachsenen, komplexen Storage-Landschaften können bestehende Systeme nicht einfach vollständig ersetzen. Neue Anforderungen, insbesondere im Container-Umfeld, erfordern Flexibilität, nicht nur wegen der Dynamik der Workloads, sondern auch, weil sich die Anforderungen selbst noch weiterentwickeln. Ein strategischer Ansatz bedeutet daher, Flexibilität und Anpassungsfähigkeit vor neue Implementierungsentscheidungen zu stellen.

Die meisten Unternehmen gehen diesen Wandel schrittweise an und testen neue Plattformen für moderne Anwendungen vorsichtig im laufenden Betrieb. Entsprechend sollten Migrationsstrategien inkrementell angelegt sein, statt auf einen vollständigen Umstieg auf einmal zu setzen. Wichtig sind native Tools, die Migration und Multi-Cloud-Backup unterstützen, ohne Unternehmen auf ein einzelnes Betriebsmodell festzulegen.

Der eigentliche Vorteil liegt darin, das Risiko von Fehlentscheidungen zu reduzieren. Niemand kann heute mit Sicherheit sagen, welche Plattform sich in fünf Jahren durchsetzt. Wer auf Technologien setzt, die sich an den Geschäftszielen orientieren, einfach zu implementieren sind, sich effizient betreiben lassen und gleichzeitig skalierbar bleiben, trifft eine nachhaltige Entscheidung.

Die Zeit überladener Feature-Sets ist vorbei. Mit wachsender Komplexität geht oft ein Verlust an Agilität einher.

Früher galt: „Mit IBM wurde noch niemand entlassen.“ Heute gilt zunehmend: „Niemand wird dafür kritisiert, eine Lösung gewählt zu haben, die Optionen offenhält.“

Shutterstock

ComputerWeekly.de
Close