wladimir1804 - stock.adobe.com

Wie NVMe, Optane und GPUs den Storage-Markt vorantreiben

Unternehmen, die hochleistungsfähigen Speicher für KI, Analyse und Virtualisierung benötigen, können Hilfe in neuen Lösungen wie NVMe und Optane sowie Prozessortechnologien finden.

Zu den Technologien, die den größten Einfluss auf Unternehmensspeicher haben und in Zukunft noch wichtiger werden könnten, gehören Hochgeschwindigkeits-NVMe, innovative neue Prozessoren sowie Optane und andere neue Memory-Produkte.

Zu den anspruchsvollen Arbeitslasten, die die Industrie dazu antreiben, schnellere und energieeffizientere Memory- und Speichertechnologien für Unternehmen zu entwickeln, gehören KI, große Datenanalysen, Virtualisierung und High Performance Computing.

Um beispielsweise künstliche Intelligenz zu verwalten, muss die gesamte Rechnerarchitektur überdacht werden. Das gilt sowohl für die Hardware als auch für die Software. Dies lässt sich mit herkömmlichen Speicherlösungen nicht mehr bewerkstelligen.

Das KI-Biest füttern

Zu den Technologien, die beim Füttern des „KI-Biests“ mit Daten eine Rolle spielen, gehören CPUs, GPUs, neue Datenverarbeitungseinheiten (Data Processing Units, DPUs), Field-Programmable Gate Arrays (FPGAs) und Application-Specific Integrated Circuits (ASICs). Latenzverringernde Technologien wie NVMe und NVMe over Fabrics (NVMe-oF) helfen, die Compute-Elemente miteinander zu verbinden.

Um künstliche Intelligenz zu verwalten, muss die gesamte Rechnerarchitektur überdacht werden. Das gilt sowohl für die Hardware als auch für die Software.

Ein Problem liegt darin, dass die CPU Höchstleistungen dabei erbringen muss, Daten zwischen den Verarbeitungskomponenten zu bewegen. Die drängendste Frage hierbei ist, wie sich diese Arbeit an andere Stellen auslagern lässt, entweder an eine andere Stelle im Netzwerk oder in den Storage-Controller selbst.

Prozessorgestütztes Computational kann helfen, die Server-CPU zu entlasten und Aufgaben wie Verschlüsselung, Komprimierung und Datenbanksuche am Edge zu erledigen. Auch DPUs sind nutzbringend, indem sie die Intelligenz auf die Netzwerkkarte verlagern, um einen Teil der Arbeit zu erledigen.

CPU vs. GPU vs. DPU

DPUs sind dafür ausgelegt, die sichere Bewegung von Daten im Rechenzentrum zwischen CPUs und GPUs zu beschleunigen, wobei der Schwerpunkt auf allgemeinen und beschleunigten Berechnungen liegt.

Viele Jahre lang waren CPUs wirklich das einzige programmierbare Element in Computern, und in jüngster Zeit rücken hier GPUs in den Vordergrund. Ursprünglich wurden diese für die Bereitstellung von Echtzeitgrafiken verwendet, aber dank ihrer Parallelverarbeitungsfähigkeiten sind sie ideal für die Beschleunigung von Rechenaufgaben wie künstliche Intelligenz, tiefes Lernen und die Big-Data-Analysen.

Für eine Leistungssteigerung könnte beispielsweise der GPUDirect-Speicher von Nvidia die Host-CPU vollständig umgehen und Daten direkt aus dem Netzwerk in das Memory des Grafikprozessors verschieben, und zwar unter Verwendung der RDMA-Technologie (Remote Direct Memory Access). Nvidia arbeitet mit wichtigen Akteuren und vielen Start-ups zusammen, um GPUDirect, das sich derzeit in der Beta-Phase befindet (Stand November 2020), für die allgemeine Veröffentlichung vorzubereiten.

Anwendungen mit Optane beschleunigen

Eine der Technologien, auf die sich Intel konzentriert, um besonders anspruchsvolle Anwendungen zu beschleunigen, ist das nichtflüchtige 3D XPoint Memory, den Intel gemeinsam mit Micron entwickelt hat, um die Leistungslücke zwischen DRAM und NAND-Flash zu schließen. Intel verwendet den Markennamen Optane für seine 3D-XPoint-basierten Solid-State-Laufwerke (SSDs), die seit 2017 ausgeliefert werden, und für Dual In-Line-Memory Modules (DIMMs), die 2019 auf den Markt kamen.

Abbildung 1: Die Optane-Produkte gehören zu Storage Class Memory und sollen Leistungssteigerungen zu annehmbaren Preisen bieten.
Abbildung 1: Die Optane-Produkte gehören zu Storage Class Memory und sollen Leistungssteigerungen zu annehmbaren Preisen bieten.

Insbesondere Oracle-Datenbanken lassen sich durch den Einsatz von Optane-SSDs optimieren und erzielen noch größere Leistungssteigerungen, wenn Optane-DIMMs eng mit Intels neuesten Xeon-Prozessoren gekoppelt würden. Trotz einer eher schleppenden Einführung wird der Markt im DIMM-Geschäft auf mehr als 10 Milliarden Dollar innerhalb der kommenden Jahre geschätzt.

Vielversprechendste aufkommende Memory-Technologien

Darüber hinaus spielen andere aufkommende, integrierbare Memory-Technologien künftig eine Rolle. Dazu gehören Magnetoresistive Random Access Memory (MRAM), Resistive RAM (ReRAM oder RRAM) und Ferroelectric RAM (FeRAM oder FRAM).

Experten sehen bis 2030 ein Marktpotenzial von 36 Milliarden Dollar bei diesen neuen Memory-Technologien, angeführt von 3D XPoint und MRAM. Das größte Unternehmen, das eigenständige MRAM-Produkte herstellt, Everspin Technologies, gibt an, bislang mehr als 120 Millionen Chips ausgeliefert zu haben.

Durch all diese Innovationen wird ein breites Angebot an Memory-Typen entstehen, das den gesamten Markt verändern wird. Da NOR-Flash und SRAM in punkto Skalierung an ihre Grenzen stoßen, könnte sich hier eine Verschiebung von flüchtigen zu nichtflüchtigen Memory-Architekturen abzeichnen. Das wiederum kann großen Einfluss auf das Gerätedesign haben, sowohl für integrierte als auch große Systeme.

Mit Optane Persistent-Memory-DIMMs lässt sich die Memory-Kapazität weitaus günstiger vergrößern als dies mit DRAM möglich ist, um In-Memory-Datenbanken wie SAP HANA zu beschleunigen und mehr virtuelle Maschinen pro Server in Virtualisierungsumgebungen zu ermöglichen. Ein weiterer entscheidender Vorteil der Verwendung von persistentem Memory gegenüber DRAM ist eine Reduzierung des Stromverbrauchs.

Auf der Softwareseite ist die Entwicklung, von Open-Source Distributed Asynchronous Object Storage (DAOS) bedeutsam. Diese wurde von Intel konzipiert, um mit den Optane PMem-DIMMs zu arbeiten und kleine und falsch ausgerichtete I/Os zu handhaben. DAOS dient als ein Beispiel dafür, wie eine Mischung aus der Verwendung von persistentem Memory zusammen mit Speicher wirklich vorteilhaft für HPC- und KI-Arbeitslasten sein kann.

Viele Analysten erwarten, dass Optane-DIMMs langfristig einen größeren Einfluss haben werden als Optane-SSDs, und die Preise für beide werden sinken, da die Hersteller mehr Chips produzieren. Allerdings könnten sie auch zunächst nur eine Nische bedienen. Storage Class Memory muss sich und sein Potenzial am Markt erst noch langfristig beweisen. Derzeit ist das größte Wachstumspotenzial wohl eher in Bereichen wie Speichersysteme mit NVMe-SSDs und All-Flash-Arrays mit NVMe-oF zu sehen.

Erfahren Sie mehr über Storage Performance

ComputerWeekly.de
Close