trahko - stock.adobe.com

Storage-Infrastruktur der Zukunft: Elastic Data Fabric

Elastische Datenstrukturen helfen, Storage-Funktionen flexibler und effizienter bereitzustellen, unabhängig von der Hardware. Wichtig hierfür sind Software und zentrales Management.

Die meisten von uns führen ein sehr hektisches Leben, und wir nehmen uns kaum die Zeit, Bilanz zu ziehen, darüber nachzudenken, woher wir kommen und wie die Zukunft aussehen könnte. Dies scheint für die IT-Branche mit ihren schnellen Veränderungen mehr als irgendwo sonst zu gelten.

Dennoch möchte ich mir einige Augenblicke Zeit nehmen, um über den Zustand der Branche nachzudenken und eine Prognose für die Zukunft zu wagen.

Der enorme Anstieg von Konsumentendaten in den letzten zehn Jahren wird vom exponentiellen Wachstum der Unternehmensdaten inzwischen in den Schatten gestellt. Daraus ergeben sich beispiellose Chancen und Herausforderungen für Unternehmen und Anbieter von Cloud-Diensten, die einen grundlegend neuen Ansatz für den Aufbau und die Skalierung der Speicherinfrastruktur erfordern.

Vor zwanzig Jahren erkannten Internetvorreiter an der Westküste der USA, dass Enterprise Storage Arrays eine technologische Sackgasse sind. Die Roadmaps der Anbieter sprachen noch von Terabytes, während ihre Anforderungen dank Social Media und nutzergenerierten Inhalten im Petabyte-Bereich lagen. Also hörten sie auf, Speicherhardware zu kaufen und bauten, was sie brauchten von Grund auf selbst – in Software.

Heutzutage stehen IT-Leiter von Unternehmen jeder Branche vor einem ähnlichen Dilemma, der digitalen Transformation sei Dank. Herkömmliche hardwarebasierte Speicher-Arrays sind teuer, schwer zu verwalten und mehrere Größenordnungen zu klein für das kommende Datenzeitalter. Sie müssen sich daher zu etwas Neuem entwickeln: softwaredefinierten, unternehmenseigenen Speicher-Clouds.

Mit anderen Worten, die Zukunft braucht das, was wir eine „elastische Datenstruktur“ nennen oder – auf gut Neudeutsch – „Elastic Data Fabric“. Diese elastische Datenstruktur ist die Weiterentwicklung traditioneller Hardware-Appliances zu elastischen Pools enorm leistungsfähiger, hochzuverlässiger und kostengünstiger Speicher, der nahtlose Datenmobilität zwischen Rechenzentrum und Public Cloud sowie nahezu unbegrenzte Skalierbarkeit bietet.

Das Konzept der elastischen Datenstruktur zeichnet sich durch eine Reihe wichtiger Eigenschaften aus: hohe Leistung zu niedrigen Kosten, ein neues Abrechnungsmodell, Hybrid-Cloud-Fähigkeiten und Datenmobilität mit zentralisierter Überwachung und Steuerung.

Hohe Leistung zu niedrigen Kosten

Die elastische Datenstruktur muss nicht nur leistungsfähig sein. Sie muss auch kostengünstig sein. Sie muss zudem unabhängig von spezifischer Hardware sein, denn Hardwareleistungssteigerungen müssen in der Regel teuer bezahlt werden. Zudem erscheint die schnellste Hardware von heute schon in kurzer Zeit vergleichsweise langsam.

Den Schlüssel zur Leistung der elastische Datenstruktur muss darum die Software formen, Machine Learning (ML), um genau zu sein. Die ML-Algorithmen müssen intelligent genug sein, um das Verhalten spezifischer Workloads zu erlernen und die Leistung entsprechend zu optimieren.

Kommt die richtige Software zum Einsatz, kann das System kostengünstige Nearline-SAS-Laufwerke für kalte Daten nutzen und insgesamt eine höhere Leistung als All-Flash-Arrays bieten. Darüber hinaus kann selbstoptimierende Software dafür sorgen, dass Anwender und Administratoren nie über die Datenverteilung auf verschiedene Speichermedien nachdenken müssen. Sie müssen lediglich softwaredefinierte Service Level festlegen und können loslegen.

Ein neues Abrechnungsmodell

Nicht nur aus technischer Sicht muss sich der Schwerpunkt weg von der Hardware verlagern. Dies gilt auch für das Abrechnungsmodell. Die elastische Datenstruktur bietet Datenspeicherung als Service, der als Betriebskosten abgerechnet wird: Kosten pro Kapazität pro Monat, einschließlich Speicherhardware und -software und mit hundertprozentiger Datenverfügbarkeitsgarantie.

Auch eine garantierte vollständiger Hardwareaktualisierung (nicht nur Controller) auf regelmäßiger Basis sollte Bestandteil einer elastischen Datenstruktur sein. Auf diese Weise müssen sich Unternehmen nicht mehr um das Lebenszyklusmanagement der Hardware kümmern, da sie immer die neueste Hardwaregeneration nutzen. Das wird generell als Vorteil der Public Cloud gesehen, wird mit der elastischen Datenstruktur aber im eigenen Rechenzentrum realisiert.

Am Beginn einer elastischen Datenstruktur steht eine Analyse der Kapazitäts-, Leistungs- und Wachstumsanforderungen eines Unternehmens. Anschließend erhält es eine geeignete Konfiguration, die auch eine Projektion der tatsächlichen aktuellen Workloads der Zukunft berücksichtigt.

Wenn der Kapazitätsbedarf des Unternehmens über die Reserven des Systems hinauswächst, wird zusätzliche Kapazität in Echtzeit aktiviert und, falls erforderlich, werden zusätzliche Racks zur Installation bereitgestellt. Auf diese Weise kann die Infrastruktur des Rechenzentrums mit der Skalierbarkeit der Public Cloud Schritt halten.

Hybrid Cloud der nächsten Generation

Selbst wenn diese Eigenschaften im eigenen Rechenzentrum realisiert werden können, muss die elastische Datenstruktur auch Public-Cloud-Dienste einbeziehen. Der Schlüssel zum Erfolg ist eine nahtlose Integration und Kontrolle der gesamten hybriden Infrastruktur.

Es wird also einen Storage-Dienst geben, der die elastische Datenstruktur eines Unternehmens direkt in die Cloud erweitert. Der Service muss regional übergreifende Replikation und unglaublich schnelle, skalierbare Snapshots ermöglichen, die Test- und Entwicklungsumgebungen schnell und einfach machen.

Dazu muss das Gesamtsystem unabhängig von spezifischen Cloud Service-Anbietern sein und die hoch performante, simultane Nutzung ausgewählter Dienste verschiedener Anbieter wie Google Cloud, AWS und Azure ermöglichen. Dadurch entfällt die Notwendigkeit, die gleichen Daten im Rahmen einer Multi-Cloud-Strategie in mehreren Public Clouds zu speichern.

Datenmobilität

Die elastische Datenstruktur muss außerdem eine unterbrechungsfreie Datenmobilität bieten, welche die Migration von Workloads von einem System auf ein anderes ohne Ausfall der Anwendungen gewährleistet. Hierfür eignet sich am besten ein standardisierter, konsistenter und skriptfähiger Datenmigrationsprozess zwischen zwei beliebigen Systemen.

Ein weiterer Schritt ist die transparente Datenmobilität (TDM). Hierbei handelt es sich um eine Softwarefähigkeit, die eine bedarfsgesteuerte Workload-Mobilität von Rack zu Rack innerhalb einer Verfügbarkeitszone (VZ) ermöglicht, die zentral definiert werden kann, ohne Ausfallzeiten und ohne Beteiligung der Serverebene.

Das bedeutet, dass TDM die Fähigkeiten einer SAN-Virtualisierungs-Appliance als verteilte Peer-to-Peer-Funktion replizieren muss, um so die Kosten, die Komplexität und, nun ja, die architektonische Hässlichkeit von In-Band-Virtualisierungs-Appliances zu eliminieren.

TDM entkoppelt die Datenlebenszyklen von den Aktualisierungszyklen der Speicherhardware und eliminiert so die hohen Betriebskosten von Datenmigrationsdiensten und die erforderlichen Änderungskontrollverfahren, die sonst die Nutzererfahrung beeinträchtigen. TDM sollte über UIs (User Interfaces) und APIs steuerbar sein und gewährleisten, dass während Generationen von Hardware kommen und gehen, die in einer VZ gespeicherten Daten „unsterblich“ sind.

Zentralisiertes Monitoring und Management

Die elastische Datenstruktur wird von einem einzigen, zentralen Dashboard aus gesteuert, um Kapazitäten im gesamten Unternehmen zu überwachen, bereitzustellen und zu verwalten. Diese zentrale Instanz nutzt KI-gestützte Kontroll- und Analysefunktionen, um den Anwendern ein einheitliches Gesamtbild zu präsentieren und alle Aspekte der Storage-Infrastruktur zu überwachen, von einem einzelnen System in einem Rechenzentrum bis hin zu Exabyte an Kapazität, die über die ganze Welt verteilt sind.

Metriken wie Echtzeit-Leistung, Warnmeldungen, Auslastung und Stromverbrauch werden in einem globalen Dashboard mit Drill-Down-Ansichten für Rechenzentrum, System und einzelne Server, Volumes und Dateisysteme angezeigt. KI-gestützte Softwareagenten überwachen die Metriken und nutzen anonymisierte globale Metadaten, um Benutzer auf Anomalien hinzuweisen, die von erhöhten Round-Trip-Latenzen auf einem Datenbankserver über verwaiste Kapazitäten in einem Rechenzentrum bis hin zu Hardwarefehlern auf einem bestimmten System reichen.

Die VZ werden die Verwaltung und Überwachung weiter vereinfachen. Eine VZ ist letztlich nichts anderes als ein elastischer Scale-Out-Cluster von Systemen, der als eine einzige vereinheitlichte Speicher-Cloud verwaltet wird.

Einzelne Racks sind für Endbenutzer unsichtbar, da alle Speicherobjekte, einschließlich Pools, Volumes und Dateisysteme, auf der VZ-Ebene bereitgestellt werden. Verfügbarkeitszonen unterstützen heterogene Systemkonfigurationen, wie zum Beispiel kapazitäts- und leistungsoptimierte Racks, und mehrere Generationen von Hardware können in derselben VZ betrieben werden. Entscheidungen über die Datenplatzierung und Mobilität innerhalb des Clusters können manuell oder durch einen KI-Agenten ausgeführt werden, der die Einhaltung von Service Leveln überwacht und automatisch auf Abweichungen reagiert.

Vorteile der elastischen Datenstruktur

Typische Rechenzentren werden mit geleaster Infrastruktur betrieben, die über Zeiträume von drei, fünf oder sieben Jahren abgeschrieben wird. Ungefähr ein Jahr vor Ablauf des Zeitraums wird neue Infrastruktur angeschafft, um der IT-Abteilung Zeit für die Migration und das Testen des neuen Systems zu geben.

Ältere Systeme werden dann ausgemustert oder auf sekundäre Arbeitslasten verlagert. Die elastische Datenstruktur bietet die finanzielle und betriebliche Unabhängigkeit, um die Daten für immer zu nutzen und sie nach Belieben zu verschieben, während sich die IT-Abteilung auf die Schaffung neuer Einnahmequellen für das Unternehmen konzentrieren kann, anstatt sich über Hardwarelebenszyklen und Datenmigrationen Gedanken machen zu müssen.

Hans Hallitzky, Infinidat

„Nicht nur aus technischer Sicht muss sich der Schwerpunkt weg von der Hardware verlagern. Dies gilt auch für das Abrechnungsmodell.“

Hans Hallitzky, INDINIDAT

Wirtschaftliche Entscheidungen über Abrechnungsmodelle sollten auf der Grundlage solider Prinzipien entsprechender Daten getroffen werden. Datensätze im Petabyte-Bereich erfordern Abrechnungsmodelle, welche die Unabhängigkeit bieten, Workloads ohne Leistungs-, Verfügbarkeits- oder Kosteneinbußen zu kombinieren.

Eine elastische Datenstruktur skaliert, wenn Datensätze wachsen oder temporäre Workloads erstellt werden, schrumpft aber auch, wenn sie im Laufe der Zeit deaktiviert werden, sich verändern oder in Endbenutzersysteme verlagert werden. Darüber hinaus sind Unternehmen mit einer elastischen Datenstruktur in der Lage, all ihre Datensätze als eine einzige lebende Einheit zu überwachen und zu verwalten.

Die elastische Datenstruktur ist die Zukunft der Speicherindustrie. Viele erforderliche Bausteine sind bereits vorhanden. Insbesondere der Bedarf an hoher Leistung und flexiblen Abrechnungsmodellen in der aktuellen Situation zeigt, dass es sich um den richtigen Ansatz zur richtigen Zeit handelt.

Über den Autor:
Hans Hallitzky ist Sales Manager DACH bei INFINIDAT. Hans Hallitzky ist ein ausgewiesener Kenner der IT-Branche in der DACH-Region. Seit Januar 2019 verantwortet er den Vertrieb von Infinidat in Deutschland, Österreich und der Schweiz. Seine Erfahrungen hat Hallitzky unter anderem bei Huawei Technologies gesammelt, wo er für die Entwicklung des Channel Business verantwortlich war. Später baute er eine Business Unit Huawei bei der Bechtle GmbH auf. Darüber hinaus war er für die Blue Consult GmbH als Deputy Head of Sales tätig.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Fortsetzung des Inhalts unten

Erfahren Sie mehr über Software-defined Storage

ComputerWeekly.de

Close