
pressmaster - stock.adobe.com
Die Storage-Zukunft liegt in disaggregierten Systemen
Die Vorteile von HCI können tiefgreifend sein, aber es gibt auch Nachteile. Disaggregierter Speicher könnte mehr Flexibilität und Effizienz für KI-Workloads in Unternehmen bieten.
Wenn Sie zu den Entscheidern im Bereich der Speicherinfrastruktur gehören, ist eine neue Marketing-Welle auf dem Weg zu Ihnen. Sie nennt sich disaggregiertes Storage und Sie werden in Zukunft mehr darüber hören.
Obwohl es sich dabei nicht um ein völlig neues Konzept handelt, beginnen zahlreiche Anbieter damit, ihre disaggregierten Referenzen zu preisen. Aber nicht alle disaggregierten Angebote sind gleich oder zielen sogar auf dieselben Anwendungsfälle ab. Es lohnt sich also, die verschiedenen Ansätze und die grundlegenden Beweggründe zu verstehen, warum dies jetzt geschieht.
Doch zunächst einmal: Was genau ist disaggregierter Speicher? Wie der Name schon andeutet, handelt es sich im Großen und Ganzen um eine Entkopplung des Datenspeichers von anderen Teilen der Infrastruktur. Diese Trennung findet zwischen der Speicherschicht und der Rechenschicht (Compute) statt.
Warum muss diese Entkopplung erfolgen? An dieser Stelle wird der Treiber für disaggregierte Speicher je nach Anwendungsfall schnell nuancierter.
Wir sehen, dass die Disaggregation in zwei Bereichen eine Rolle spielt:
- Disaggregation von Ressourcen zwischen Host-Computer/Server und Speicher. Dies ist ein modernes Äquivalent zu traditionellen dreistufigen Architekturen, eine potenzielle Alternative zu HCI und eignet sich für die Ausführung einer Reihe von virtualisierten/containerisierten oder sogar Bare-Metal-Geschäftsanwendungen.
- Disaggregation von Rechen- und Plattenspeicherressourcen innerhalb der Speicherarchitektur selbst. Dies ist ein neuerer Ansatz, der für große unstrukturierte Daten-Workloads – und insbesondere für die Verarbeitung von Metadaten – wie HPC und künstliche Intelligenz (KI) optimiert ist.
Disaggregierter Speicher vs. HCI
Disaggregierter Speicher ist eine Alternative zu HCI für eine breite Palette von Standardgeschäftsanwendungen. HCI (hyperkonvergente Infrastruktur) hat sich in den letzten zehn Jahren als eine einfachere Methode zur Bereitstellung und Verwaltung der Infrastruktur für eine Reihe von Kerngeschäftsanwendungen durchgesetzt.
Anstatt getrennte Speicher- und Rechenumgebungen zu verwalten – in der Vergangenheit ein komplexes Unterfangen – haben HCI-Anbieter eine clevere Software entwickelt, mit der VM-Administratoren ihre virtualisierten Anwendungen verwalten können, die auf speziellen Konfigurationen von handelsüblicher Serverhardware laufen, die auch gemeinsam genutzten, hochverfügbaren und leistungsstarken Speicher umfasst.
Die Vorteile dieses Ansatzes im Hinblick auf eine vereinfachte Verwaltung und einen vereinfachten Betrieb können tiefgreifend sein – daher die starke Zunahme der HCI-Einführung in den letzten Jahren. Doch es kann auch Nachteile geben. So ist beispielsweise das Skalierungsmodell von HCI starrer, was zu einer unzureichenden Nutzung der Ressourcen führen kann, wenn beispielsweise die Speicheranforderungen die Rechenanforderungen bei weitem übersteigen.
Obwohl es für diese Skalierungsherausforderung Umgehungsmöglichkeiten gibt, ist der andere wichtige Treiber für die Disaggregation die Veränderung der Virtualisierungslandschaft. Die Übernahme von VMware durch Broadcom hat zu strategischen Verschiebungen in den Branchenallianzen geführt, die eine entscheidende Rolle bei der Einführung von Unternehmenstechnologie spielen.
Dell beispielsweise, das als früherer Eigentümer von VMware maßgeblich an der Einführung von HCI durch gemeinsame Angebote wie Dell EMC VxRail beteiligt war, ist dabei, seinen Schwerpunkt zu ändern.
„Wir sind der Meinung, dass eine disaggregierte Architektur die richtige Antwort auf moderne Workloads ist“, sagt Jeff Clarke, COO von Dell, verbunden mit der klaren Erwartung, dass das HCI-Geschäft des Unternehmens zurückgehen wird.
In der Zwischenzeit ist HPE schon seit einiger Zeit auf dem Weg zum disaggregierten Speicher und positioniert seine Kombination aus getrenntem Speicher und Servern als das Beste aus beiden Welten, das die Skalierbarkeit und Flexibilität von HCI mit einer nahtlosen Verwaltungserfahrung in Verbindung mit HCI bietet, verpackt als Teil der GreenLake Private Cloud-Fähigkeit des Unternehmens.
Während die Anbieter eindeutig davon profitieren werden, mehr Speicher auf Basis ihrer eigenen IP zu verkaufen, wird die Herausforderung darin bestehen, die Kunden davon zu überzeugen, dass disaggregierter Speicher im Vergleich zu HCI erhebliche Vorteile bietet. Viele dieser Kunden werden von traditionellen dreistufigen Architekturen auf HCI umgestiegen sein, so dass der zusätzliche Wert, den ein disaggregierter Ansatz bietet, überzeugend sein muss.
Neben den Skalierungsvorteilen des disaggregierten Modells, bei dem Rechen- und Speicherkapazität unabhängig voneinander hinzugefügt werden können, ist zu erwarten, dass ein großer Schwerpunkt auf der Verbesserung der Verwaltbarkeit der Gesamtumgebung liegt, das heißt auf der Beseitigung der Komplexität, die in der Vergangenheit mit dreistufigen Architekturen verbunden war, der Bereitstellung größerer Flexibilität und Agilität, dem Angebot flexibler Nutzungsmodelle und natürlich der Senkung der Gesamtbetriebskosten. Letztendlich sollten die Kunden von der stärkeren Fokussierung auf Innovation in diesem Bereich profitieren.
Wohin mit HCI?
Eine offensichtliche Frage ist, inwieweit sich diese Verschiebungen auf den HCI-Markt insgesamt auswirken werden. Schließlich wird die Tatsache, dass Dell seine Aufmerksamkeit von HCI abwendet, zwangsläufig einen gewissen Einfluss auf die allgemeine Akzeptanz haben. Ich bin jedoch der festen Überzeugung, dass HCI noch eine solide Zukunft vor sich hat. Zunächst einmal konzentriert sich VMware weiterhin stark auf die Förderung seiner eigenen HCI – vSAN – und andere, insbesondere Nutanix, aber auch eine Gruppe kleinerer Spezialisten wie StorMagic und Verge.io, machen weiterhin gute Fortschritte. Die meisten Anwendungsumgebungen können von einer virtualisierten Infrastruktur profitieren, und die Notwendigkeit eines vereinfachten Managements wird noch zunehmen, da Anwendungen zunehmend die Vorteile von Cloud-nativen Technologien wie Kubernetes nutzen.
Darüber hinaus werden Dell, HPE, Lenovo und andere weiterhin in HCI für Kunden investieren, die diesen Ansatz bevorzugen. In der Tat arbeitet Dell, der immer bestrebt ist, Kunden dort zu treffen, wo sie es bevorzugen, an einer Reihe von Fronten mit Nutanix zusammen, um gemeinsame Angebote zu entwickeln und zu fördern.
KI-Nutzung für disaggregierten Speicher
Es gibt noch einen weiteren Bereich, in dem ein großer Fokus auf disaggregierten Speicher zu erwarten ist: der Markt für groß angelegte, hochleistungsfähiges Storage unstrukturierter Daten. Dieser Bereich steht derzeit stark im Fokus, da Unternehmen – insbesondere diejenigen, die KI in großem Umfang einsetzen wollen – sich mit den damit verbundenen tiefgreifenden Herausforderungen für die Infrastruktur auseinandersetzen.
Die Ausführung von KI-Workloads, wie zum Beispiel das Trainieren großer Sprachmodelle (LLM) und die Inferenz in großem Maßstab, erfordert die Fähigkeit, eine riesige Menge unstrukturierter Daten in nie dagewesener Geschwindigkeit zu verarbeiten. Dies mit herkömmlichen Speicheransätzen zu bewerkstelligen, ist eine Herausforderung: Rechen- und Speicherressourcen innerhalb einer Speicherarchitektur sind in der Regel eng miteinander gekoppelt, was eine Skalierung sowohl unglaublich schwierig als auch unglaublich ineffizient machen kann, wenn die Ressourcenanforderungen unterschiedlich schnell wachsen.
Dies ist in der KI viel wahrscheinlicher, insbesondere bei der Verarbeitung großer Mengen unstrukturierter Daten für multimodale generative KI-Workloads, die Kombinationen aus Text-, Bild- und Videodaten enthalten können. Neben der regulären Speicherverarbeitung zur Datenverwaltung und -sicherung, die jedes Speichersystem benötigt, ist für viele KI-Workloads eine weitere Datenverarbeitung erforderlich, da unstrukturierte Daten in ihrer Rohform unbrauchbar sind. Sie müssen in eine Struktur umgewandelt werden, die die KI-Anwendung verstehen kann. Diese Übersetzung erfolgt mithilfe einer Metadaten-Engine, die unstrukturierten Daten Kontext und Bedeutung in einer Weise hinzufügt, die eine KI-Anwendung nutzen kann. Aufgrund der Schwerkraft der Daten (Data Gravity) argumentieren Befürworter, dass der logischste Ort für die Metadaten-Engine in der Speicherumgebung ist.
Eine KI-orientierte Speicherarchitektur muss daher in der Lage sein, diese Kombination aus Speicheraufgaben, Metadaten und damit verbundenen Aufgaben sowie Backend-Kapazität effektiv zu verwalten. Bei einer KI-Arbeitslast können alle drei Elemente mit sehr unterschiedlichen Raten wachsen. Die Herausforderung besteht darin, all dies kosteneffizient und ohne ein Heer von Speicherexperten zu bewältigen und bereitzustellen. Diese Aspekte bringen auf den Punkt, warum disaggregierter Speicher für die Bereitstellung von KI in großem Maßstab unerlässlich sein wird.
Und das ist noch nicht alles. In dem Maße, in dem KI-Workloads in Großunternehmen Einzug halten, benötigen Organisationen robuste Lösungen, mit denen sie die Kontrolle über ihre Datenmanagement-, Sicherheits-, Governance- und Compliance-Umgebungen behalten.
Das Konzept des disaggregierten Speichers gewinnt in diesem Bereich bereits an Zugkraft, aber dies wird sich in den kommenden Monaten noch deutlich verstärken. Neuere Storage-Anbieter wie Vast Data mit seiner Disaggregated Shared-Everything-Architektur gehörten zu den Pionieren, doch nun gesellen sich auch die größeren etablierten Storage-Anbieter dazu, die alle ein Stück vom KI-Storage-Kuchen abhaben wollen.
So hat NetApp 2025 angekündigt, eine disaggregierte Storage-Variante seiner OnTap-Kernplattform zu entwickeln, mit der das Unternehmen seine KI-Vision umsetzen kann. Diese Fähigkeit soll die vollständige gemeinsame Nutzung des Storage-Backends ermöglichen und die Netzwerk- und Flash-Storage-Geschwindigkeiten maximieren, um erhebliche Leistungsverbesserungen zu erzielen und gleichzeitig Rack-Platz und Strom zu sparen.
Am 11. März 2025 brachte Pure Storage FlashBlade//EXA auf den Markt, eine Variante seiner FlashBlade-Architektur, die eine disaggregierte Architektur nutzt, um Daten und Metadaten unabhängig voneinander zu skalieren und so die Performance von KI- und HPC-Umgebungen erheblich zu steigern. Ähnlich wie bei der NetApp Initiative gibt es auch für FlashBlade//EXA kein konkretes Lieferdatum, es wird jedoch erwartet, dass es im Sommer 2025 verfügbar sein wird. Bis dahin werden wir wahrscheinlich auch mehr Details über die Initiative von Dell in diesem Bereich erfahren, die als Project Lightning bezeichnet wird.
Zusammenfassend lässt sich sagen, dass wir in den kommenden Monaten noch viel über disaggregierten Speicher hören werden. Wenn Sie ein disaggregiertes Speichersystem in Betracht ziehen, ist es wichtig, sich auf die Art der Disaggregation zu konzentrieren, die angeboten wird. Ob für KI-zentrierte Workloads oder traditionellere Geschäftsanwendungen, es gibt möglicherweise eine Variante, die für Ihr Unternehmen geeignet ist.
Wie immer besteht Potenzial für Verwirrung, da die verschiedenen Akteure um ihre Position ringen, und es müssen weiterhin Anstrengungen unternommen werden, um potenzielle Käufer über die relativen Vorzüge ihrer Angebote aufzuklären. Aber in dem Auf und Ab des heutigen Technologie-Ökosystems gibt es kaum Zweifel daran, dass disaggregierter Speicher in den kommenden Monaten einen großen Teil des Rampenlichts einnehmen wird.