sarayut_sy - stock.adobe.com

Moderne Workloads mit Objektspeicher optimal adressieren

Anwendungen für künstliche Intelligenz oder maschinelles Lernen lassen sich nicht mit traditionellem Speicher bedienen. Hier sind andere Architekturen wie Objektspeicher sinnvoll.

Herkömmliche Speicherlösungen reichen für die heutigen Arbeitslasten im Bereich der künstlichen Intelligenz und des maschinellen Lernens (KI/ML) nicht mehr aus. Da die KI/ML-Technologien immer mehr an Bedeutung gewinnen, ist ein neues Modell erforderlich. 

Das Problem: KI und maschinelles Lernen erfordern riesige Mengen unstrukturierter Daten, darunter Bilder, Videos, Sprache und Text. Um nützliche und umsetzbare Erkenntnisse zu gewinnen, benötigen Anwendungen einen schnelleren Zugriff auf riesige Datenmengen, die überall entstehen: in der Cloud, in zentralen Lokationen, in Außenstellen bis hin zu mobilen Endpunkten. Für diese intensiven Workloads sind lineare Skalierbarkeit, niedrige Latenzzeiten und die Fähigkeit, verschiedene Arten und Größen von Nutzdaten zu unterstützen, erforderlich.

Unternehmen benötigen einen neuen Ansatz für die Datenbereitstellung, der anwendungsorientiert und nicht standort- oder technologieorientiert ist. Mit der weit verbreiteten Einführung von KI/ML und Analysen müssen IT-Führungskräfte in Unternehmen ihre Denkweise über Datenmanagement und -speicherung grundlegend ändern.

Umgang mit gemischten Arbeitslasten

Für KI und maschinelles Lernen benötigen Sie eine Datenspeicherlösung, die verschiedene Arten von Workloads bewältigen kann, darunter sowohl kleine als auch große Dateien. In einigen Fällen haben Sie es vielleicht nur mit ein paar Dutzend Terabyte zu tun. In anderen Fällen sind es viele Petabytes. Nicht alle Lösungen sind für große Dateien geeignet, und nicht alle können mit sehr kleinen Dateien umgehen. Der Schlüssel liegt darin, eine Lösung zu finden, die beides flexibel handhaben kann.

Skalierbarkeit ist entscheidend

Unternehmen, die in Bezug auf Kapazität und Leistung wachsen wollen, werden oft durch herkömmliche Speicherlösungen behindert, die keine lineare Skalierung der Leistung ermöglichen. Algorithmen für KI/ML benötigen riesige Datensätze, damit die zugrunde liegenden Modelle richtig trainiert werden können, um Genauigkeit und Geschwindigkeit zu gewährleisten, was bedeutet, dass diese Fähigkeit entscheidend ist.

KI/ML-Workloads benötigen eine Speicherlösung, die bei wachsenden Datenmengen unendlich skaliert werden kann. Hier kommt der Objektspeicher ins Spiel. Es ist der einzige Speichertyp, der unbegrenzt, nahtlos und elastisch auf Dutzende von Petabytes und mehr innerhalb eines einzigen, globalen Namensraums skaliert werden kann. Im Gegensatz dazu können herkömmliche Datei- und Blockspeicherlösungen nicht über ein paar hundert Terabyte hinaus skaliert werden. Das Besondere an der Objektspeicherung im Vergleich zur herkömmlichen Speicherung ist, dass Objekte in einem völlig flachen Adressraum gespeichert werden, in dem es keine Einschränkungen gibt. Die Benutzer stoßen nicht auf Hierarchie- und Kapazitätsbeschränkungen eines herkömmlichen Dateisystems.

Leistung adressieren

Die Skalierung der Kapazität ist wichtig, aber sie reicht allein nicht aus. Die Skalierung muss auch in Bezug auf die Leistung linear erfolgen. Bei vielen herkömmlichen Speicherlösungen geht die Skalierung der Kapazität auf Kosten der Leistung. Wenn ein Unternehmen also seine Kapazität linear skalieren muss, tendiert die Leistung zu einem Plateau oder zu einem Rückgang.

Im Standardspeichermodell sind die Dateien in einer Hierarchie mit Verzeichnissen und Unterverzeichnissen organisiert (Baumstruktur). Diese Architektur funktioniert bei kleinen Datenmengen recht gut, doch mit zunehmender Kapazität leidet die Leistung ab einer bestimmten Größe aufgrund von Systemengpässen und Beschränkungen durch Dateisuchtabellen.

Die Objektspeicherung hingegen funktioniert ganz anders. Sie bietet einen unbegrenzten flachen Namensraum, so dass durch einfaches Hinzufügen zusätzlicher Knoten eine Skalierung auf Petabytes und mehr erreicht werden kann. Aus diesem Grund können Sie die Leistung genauso skalieren wie die Kapazität.

Eine Speicherlösung für unsere Zeit

Wenn ein Unternehmen künstliche Intelligenz und maschinelles Lernen einführt, benötigt es Speicher, der große Datenmengen verarbeiten kann, um diese Initiativen auszuführen und zu skalieren. Objektspeicher-Software wie von Scality ist speziell für diese Anforderungen konzipiert. Unternehmen können ihre Projekte in kleinem Maßstab auf einem Server beginnen und sowohl Kapazität als auch Leistung bei Bedarf problemlos erweitern. Schneller Objektspeicher bietet auch für die Analyseanwendungen, die diese Initiativen benötigen, die erforderliche Leistung.

Christoph Storzum, Scality

„Unternehmen benötigen einen neuen Ansatz für die Datenbereitstellung, der anwendungsorientiert und nicht standort- oder technologieorientiert ist.“

Christoph Storzum, Scality

Objektspeicher bieten außerdem die erforderliche Flexibilität von Edge-Lokationen bis zu Core-Umgebungen und ermöglichen ein vollständiges Datenlebenszyklusmanagement über mehrere Clouds hinweg. Dieser Ansatz ermöglicht es Anwendungen, problemlos auf Daten vor Ort zuzugreifen – selbst in mehreren Clouds –, so dass die Daten effizient verarbeitet werden können. Schnelle Objektspeicher bieten die Funktionen, die Unternehmen benötigen: niedrige Latenzzeiten, lineare Skalierbarkeit und die Möglichkeit, verschiedene Arten und Größen von Nutzdaten zu unterstützen.

Über den Autor:
Christoph Storzum ist Regional Director DACH bei Scality.

Erfahren Sie mehr über Object Storage

ComputerWeekly.de
Close