Laurent - stock.adobe.com

Storage-Hersteller bieten System für KI und ML

Künstliche Intelligenz und Machine Learning stellen neue Anforderungen an die Speichersysteme. Viele Anbieter reagieren und offerieren entsprechende Produkte.

Dass das Datenwachstum sich unvermindert fortsetzt, ist schon seit Jahren eine immer wieder wiederholte Binsenweisheit. Aktuelle Zahlen bietet beispielsweise eine Studie, welche die IDC zusammen mit Seagate erstellt hat. Danach soll das jährlich neu entstehende Datenvolumen 2025 bereits 175 ZByte betragen. Zwar werden längst nicht alle erzeugten Daten dauerhaft gespeichert. Das trifft laut derselben Studie nur auf einen einstelligen Prozentsatz zu. Doch selbst unter diesen Umständen bedeuten die Daten: Storage wird immer wichtiger. Gleichzeitig ergeben sich daraus, dass die riesigen Datenmengen nur zusammen mit entsprechenden analytischen und Machine-Learning-Algorithmen beziehungsweise mit künstlicher Intelligenz nutzbar werden, auch andere Anforderungen an Storage-Systeme. Welche sind das?

Geänderte Anforderungen an  Storage-Systeme

Erstens müssen die Storage-Kapazitäten mit möglichst geringen Latenzen arbeiten, wenn etwa Echtzeitanalysen erstellt werden sollen. Gut wären dafür parallele Zugriffsmöglichkeiten, hohe Zugriffsbandbreiten und Durchsätze. Am besten bringt man rechnende und speichernde Einheiten so nah wie möglich zusammen oder integriert den Prozessor gleich ins Speichersystem. Zweitens sollte sie mit allen möglichen Datentypen, besonders aber mit unstrukturierten Daten, zurechtkommen, um der IoT-Welt von demnächst optimal zu nutzen. Drittens sollte das Storage schnell und einfach bei laufendem Betrieb skalieren. Schließlich könnten auch optimierte Prozessordesigns das Ihrige zu mehr Storage-Effizienz beitragen.

Doch der Zug fährt auch in die Gegenrichtung: Immer mehr Speicherhersteller nutzen KI-Algorithmen, damit das Storage besser mit den Daten fertig wird. Für beides folgen einige Beispiele.

Kombinationen mit spezialisierten Prozessoren

Eine wichtige Rolle spielen hierbei spezifische Prozessoren, wie sie immer mehr Anbieter derzeit entwickeln. Einige Beispiele sind hier die ARM-Architektur Neoverse oder RISC-V. Letztere Spezifikation ist eher ein grobes Gerüst mit baukastenförmigen Erweiterungsmöglichkeiten denn ein fixes Design.

Führend auf dem Gebiet analytischer Beschleunigungsprozessoren ist derzeit NVIDIA mit seinen Tesla-basierenden GPU-Maschinen. Gleich mehrere der großen Hersteller setzen daher bei ihren KI-optimierten Lösungen auf NVIDIAs DPX-1, die dann mit entsprechendem Storage kombiniert wird. Die DGX-1 bietet an sich bereits 256 GByte GPU-Speicher für jede der acht Tesla-100-GPUs. Weiter hat die Hardware zwei integrierte Xeons mit 20 Rechenkernen. Der Arbeitsspeicher liegt bei 512 GByte DDR-4 RDIMM, dazu kommen vier SSDs mit je 1,92 TByte, konfiguriert in RAID 0.

IBMs softwaredefinierte Spectrum-Serie

Das System steckt zum Beispiel in IBM Spectrum Scale, einer softwarebasierenden Storage-Plattform, die nun für künstliche Intelligenz (KI) und Flash optimiert wurde. Die Lösung unterstützt unterschiedliche Speichermedien von Flash bis Tape und Cloud. Sie lässt sich mit der Metadatenverwaltungssoftware Spectrum Discover kombinieren, um unstrukturierte Daten auf allen Arten von Speichersystemen innerhalb eines Spectrum-Scale-Systems zu analysieren. Spectrum Scale ist auch in die Cloud ausdehnbar. Dank Mechanismen wie richtlinienbasiertes Storage Tiering und intelligente Archivierung verspricht IBM Kostensenkungen von über 90 Prozent.

Netapp kombiniert NVIDIA mit der AFF-Systemen

Auch in NetApp ONTAP AI steckt das Nvidia-System. Hier wird die Engine kombiniert mit NetApp All-Flash-Storage mit Cloud-Integration über die NetApp Data Fabric. Das gesamte System wird von NetApp vorintegriert. Es kann über NetApp ONTAP Flex Group bis zu 20 PByte oder 400 Milliarden Dateien unter einem Namensraum zusammenführen. Die Architektur fasst bis zu fünf NVIDIA.-DGX-1-Einheiten, die redundant über 2*100 GbE an zwei ebenfalls redundante 100-GbE-Switches angebunden sind. Zwischen ihnen befinden sich 2 bis 4 Interswitch-Links. Als Speicher dient die Flash-basierte Netap AFF-Serie. Anwender können mit einer A220 beginnen und dann unterbrechungsfrei skalieren, von der redundante Verbindungspakete von jeweils 4*100 GbE zu den Switches und damit zu den NVIDIA-Recheneinheiten führen. Mit Hilfe von Trident-Technologie lassen sich NVIDIA GPU Cloud Container laut Netapp problemlos auf NetApps Flash Storage verlagern.

Dell EMC poliert die VMax auf

Dell EMC hat 2018 seiner Highend-Architektur VMax eine Aktualisierung verpasst und bringt sie nun als PowerMax auf den Markt. Der Flash-Speicher schafft laut Hersteller dank NVMe-Technik und spezieller Software bis zu 10 Millionen IOPS bei einer Latenz unterhalb 300 Millisekunden. ML und KI werden in Form von Heuristik eingesetzt, sprich: dem algorithmengesteuerten vorausblickenden Folgern. Unter der Bezeichnung App Hinting schätzt das System im Voraus, welche Applikation wohl als nächstes eingesetzt wird und stellt bereits die Daten bereit. Auch den neuen PowerEdge-Servern R840 und R940a wurden KI- und ML-Algorithmen mitgegeben, um sie zu beschleunigen. Es drängt sich auf anzunehmen, dass die Kombination beider neuen Systeme eine schnelle analytische Umgebung ergibt.

Immer mehr Speicherhersteller nutzen KI-Algorithmen, damit das Storage besser mit den Daten fertig wird.

HPE setzt auf Memory-Driven Flash

HPE bringt mit Memory-Driven Flash gleich eine neue Speicherklasse ins Spiel. Sie kombiniert den nichtflüchtigen Hybridspeicher Storage Class Memory, dessen Geschwindigkeit laut HPE nur wenig unterhalb von DRAM liegt mit schnellen NVMe-Controllern. HPE will Memory Driven Flash in die Storage-Systeme der Typen Nimble (ab Juni 2019) und 3Par (seit Dezember 2018) einbauen. Der Hersteller verspricht dadurch eine halbierte Latenz und verdoppelte Verarbeitungsgeschwindigkeit als bei NVMe-Solid-State-Speicher. Nimble und inzwischen darüber hinaus auch 3Par verwenden zudem KI-Algorithmen und Cloud-Analytik, um die Systemleistung zu optimieren und den Support zu automatisieren.

Pure Storages Infrastrukturlösung AIRI

Pure Storage hat mit AIRI ebenfalls eine Infrastrukturlösung für KI- und ML-Aufgaben mit NVIDIA-Recheneinheiten auf den Markt gebracht. Integriert ist hier das StorageFlashBlade von Pure, das hier mit bis zu vier NVIDIA DGX-1 kombiniert wird. Als Vernetzungselement dienen 100-GbE-Switches von Arista. Als anvisierte Leistung gibt Pure vier PetaFlops an. Die Skalierung wird durch das Pure Storage AIRI Scaling Toolkit unterstützt. Recheneinheiten können über GPDU Direct RDMA direkt auf den Speicher zugreifen.

Cohesity Data Platform

Schließlich noch ein Beispiel über einen Newcomer, der eigene Wege geht: Cohesity mit seiner softwaredefinierten Data Platform Pegasus. Sie wird mit x86-Hardware aus dem eigenen Haus oder mit Lösungen von HPE, Cisco oder Dell EMC kombiniert. Dabei enthalten die Knoten Storage im selben Gehäuse. Das Produkt versteht sich als vereinheitlichende Scale-Out-Lösung für Sekundärspeicher, die auf Durchsatz und Multifunktionalität optimiert ist. Das integrierte Metadatenmanagement umfasst auch eine NoSQL-Datenbank und MapReduce. Auf die Plattform können dann unter anderem beliebige AI- und ML-Algorithmen aufgesetzt werden. Cohesity selbst nutzt heute die im Betrieb erzeugten Daten, um den Support für die Systeme zu optimieren. Pegasus, aktuell in Version 6.3 in den Markt eingeführt, wird seit Neuestem um einen App-Marketplace ergänzt, auf dem Cohesity selbst, aber auch Partner und Drittunternehmen, Apps für die Anwender bereitstellen und direkt auf den Cohesity-Systemen als Container installieren können.

Nächste Schritte

Künstliche Intelligenz erzwingt ein Umdenken im Storage-Umfeld

Mit Künstlicher Intelligenz lässt sich die DSGVO im Storage-Umfeld umsetzen

So lassen sich KI-Lösungen im Rechenzentrum integrieren

Erfahren Sie mehr über Storage-Hardware

ComputerWeekly.de
Close