jamesteohart - stock.adobe.com

Storage Class Memory: VDI-Implementierungen optimieren

SCM (Storage Class Memory) ist schneller als andere Speichertechnologien. Es eignet sich deshalb, um die Leistung von VDI und Fernzugriffen zu steigern und Latenzzeiten zu senken.

Storage Class Memory (SCM) kann die Leistung diverser Applikationen verbessern. So wie Flash die Leistung von VDI (Virtual Desktop Infrastructure) steigerte, könnte nun möglicherweise auch SCM einen ähnlichen Effekt haben. Das glauben zumindest einige IT-Profis. Die Frage stellt sich besonders, da Unternehmen gerade ihre VDI-Implementierungen ausbauen, um während der Corona-Pandemie mehr Mitarbeiter im Home-Office zu unterstützen.

SCM-Technologie ist noch recht neu. Ihr Potential im Zusammenhang mit VDI wurde bisher noch nicht gründlich diskutiert. Zudem kann VDI unterschiedlich implementiert werden, und es ist noch nicht klar, welche Implementierungsform am besten zu VDI-Workloads passt.

Organisationen verwenden VDI, um die Kosten und die Komplexität beim Management von Enterprise-Desktops zu verringern. Die Technologie birgt einige Herausforderungen, insbesondere im Zusammenhang mit Storage. Denn VDI benötigt Storage, das den hohen Leistungsanforderungen eines virtuellen Desktops entspricht – egal, wie sehr die Workflows oder Nutzungsmuster fluktuieren. Passt das Storage nicht zu den Anforderungen, kann das Leistung und Produktivität negativ beeinflussen und zu einem unbefriedigenden Benutzungserlebnis führen.

Storage-Anforderungen von VDI

Storage-Systeme müssen ausreichende I/O-Leistung und geringe Latenz haben, um sich für VDI-Umgebungen zu eignen. Ein VDI-taugliches Storage-System muss auch mit erheblichen I/O-Spitzen, Backups, Software-Updates, Antiviren-Scans und unvorhersehbaren Workflow-Mustern fertigwerden. Ist das nicht der Fall, scheitert das VDI-Projekt.

Bei der Planung von VDI-Storage müssen die IT-Verantwortlichen viele Faktoren in Betracht ziehen, zum Beispiel die Zahl der Desktops, die Datenmenge, die unterstützten Applikationen und die Art der Endanwender. Wissensarbeiter zum Beispiel erzeugen oft größere IOPS-Lasten als Mitarbeiter als Sachbearbeiter oder Mitarbeiter, die Produktivitätsapplikationen verwenden.

Mitarbeiter, die geschäftskritischen Applikationen nutzen, brauchen extrem geringe Latenzzeiten. Zudem muss das Storage-System unterschiedliche variable Workloads handhaben, während es gleichzeitig bei Bedarf skalierungsfähig sein soll.

Diverse Storage-Technologien können VDI-Workloads unterstützen. Dazu gehören All-Flash-Storage-Arrays (AFA), hyperkonvergente Infrastrukturen (HCIs), Fibre-Channel-SANs und Software-Defined Storage (SDS). Nun gibt es mit SCM eine weitere Option, die verspricht, gleichzeitig die Ein-/Ausgabeleistung (I/O) zu erhöhen und die Latenz zu verringern. Das ist genau, was VDI braucht.

SCM-Devices sind Byte-adressierbar und beinahe so schnell wie schneller dynamischer RAM (DRAM). Anders als DRAM, sind jedoch SCM-Devices nichtflüchtig, sie speichern Daten auch dann, wenn der Strom ausfällt.

Gleichzeitig unterstützt SCM den blockweisen Zugriff wie ein NAND-Laufwerk. Doch SCM ist erheblich schneller und eignet sich deshalb für wesentlich mehr Nutzungsszenarien. Aktuell werden SCM-Technologien vor allem für drei Einsatzszenarien verwendet: als Storage-Cache, als NAND-Ersatz und als Server-Memory.

SCM als Storage-Cache

VDI könnte von SCM als Cache-Schicht in All-Flash-Arrays profitieren und dort teureres RAM ersetzen. SCM ist nahezu genauso schnell wie DRAM, aber kostengünstiger zu implementieren, insbesondere in großen Mengen. So kann die Cache-Schicht mit mehr Daten fertig werden und sie auch dann halten, wenn der Strom ausfällt.

Storage-Caching kann dazu beitragen, die Ein-/Ausgabeleistung zu steigern und die Latenz beim Lesen zu verringern. So passt die Technologie gut zu den Storage-Anforderungen von VDI, wie sie zum Beispiel der morgendliche Boot-Sturm stellt.

Einige exemplarische Storage-Produkte: HPE verwendet Memory-Driven Flash für 3PAR und Nimble Storage. HPE Memory-Driven Flash basiert auf Intel Optane DC SSDs als Cache-Schicht. Die Optane-SSDs bestehen aus 3D-XPoint-Speicherzellen. Diese SCM-Technologie haben Intel und Micron entwickelt. Laut HPE können SCM-basierte Storage-Arrays Daten zehnmal schneller als traditionelle AFA lesen. Sie bieten ultrakurze Latenz bei gemischten Workloads, einschließlich Datenbanken und anderen datenintensiven Applikationen.

HPE behauptet nicht, VDI-Workloads explizit von Memory-Driven Flash-Arrays profitieren, obwohl das Unternehmen seine traditionelle 3PAR- und Nimble Storage für VDI empfiehlt. Bei 3PAR StoreServ beispielsweise steckt DRAM in der Cache-Schicht, die zur Applikationsbeschleunigung auf die vorhandenen Flash-SSDs erweitert werden kann.

Vielleicht könnte Memory-Driven Flash genauso benutzt werden, um die Leistung des virtuellen Desktops zu erhöhen.

Abbildung 1: Storage Class Memory lässt sich für unterschiedliche Anwendungsfälle einsetzen.
Abbildung 1: Storage Class Memory lässt sich für unterschiedliche Anwendungsfälle einsetzen.

Pure Storage verwendet ebenfalls Optane DC in seinem FlashArray//X Systems als einen SCM-basierten Cache. Wie HPE behauptet Pure nichts Konkretes über FlashArray//X Systems und VDI, aber der Anbieter sagt, dass seine Systeme gut zu leseintensiven und latenzsensitiven Applikationen passen, ferner zu Systemen, die DAS (Direct-Attached Storage) verwenden.

All diese Varianten lassen sich auch für VDI nutzen. Obwohl also die Anbieter nicht auf Vorteile von SCM für VDI pochen, legen die Fähigkeiten der Technologie nahe, dass sie eine sinnvolle Basis für Leistungssteigerungen bei VDI-Storage bilden kann.

SCM statt NAND

Eine andere Anwendung ist der Ersatz von NAND-Flash-Drives durch SCM-Laufwerke. Die SCM-Devices könnten jeweils für sich oder gemeinsam mit Flash-SSDs in einer hybriden Konfiguration laufen, ähnlich wie SSDs und Festplatten in hybriden Storage-Produkten kombiniert werden. Obwohl SCM-Drives mehr kosten als NAND-Flash-Drives, schaffen sie mehr IOPS und geringere Lese- und Schreiblatenz. Daher dürfte sich die Investition in SCM in einigen Szenarien durchaus lohnen.

Einer der Vorteile von SCM-Drives ist, dass Daten an Ort und Stelle geschrieben werden. Bei NAND Flash müssen zunächst Daten aus den Zellen gelöscht werden, bevor neue Daten geschrieben werden können. Im Ergebnis können SCM-Drives schneller und mit geringer Latenz beschrieben werden. Gleichzeitig steigt die Lebensdauer.

Obwohl SCM-Laufwerke mehr kosten als NAND, liefern sie höhere IOPS und geringere Lese- und Schreiblatenzen, so dass sich die Investition in einigen Szenarien für SCM lohnt.

Diverse Anbieter haben SCM-SSDs im Programm, darunter Dell EMC, Intel, Kioxia (früher Toshiba Memory) und Micron. Intel ist hier mit seinen Optane DC Drives Vorreiter. Sie unterstützen PCIe und NVMe, es gibt sie in den Formaten U.2, M.2 und Formaten für Zusatzkarten. Verglichen mit Flash-SSDs bieten die Optane DC Drives mehr Leistung und größere Zuverlässigkeit. Die Latenzzeiten liegen meist bei unter 10 Mikrosekunden (µs). Zum Vergleich: NAND hat eine Latenz zwischen 10 und 100 µs. Die SCM-Laufwerke bewahren die geringe Latenz eher, auch wenn die Belastung steigt.

Laut Intel passen die Optane DC Drives auch zu Software-defined Storage (SDS) und Hyper-converged Infrastructures (HCI), zwei RZ-Technologien, die eine wichtige Rolle für VDI-Implementierungen spielen. Intel bestätigt tatsächlich, dass Optane-SSDs eine geeignete Infrastruktur für VMware vSAN, eine SDS-Implementierung für HCI-Umgebungen, seien. In den Anfangszeiten von Hyperkonvergenz-Technologien wurde VDI als eines der wichtigsten Einsatzfelder genannt und bis heute ist VDI der häufigste Grund, HCIs zu implementieren.

Wie beim Storage Cache reicht es bei der Auswahl von SCM als Alternative zu NAND-Flash nicht aus, sich auf Vermutungen hinsichtlich ihrer Leistungsfähigkeit zu verlassen. Allerdings ist die Technologie ausreichend vielversprechend, um sie in Erwägung zu ziehen.

SCM als Server-Memory

Trotz der höheren Leistung, die SCM-SSDs bieten, ist die Kommunikation über den PCIe-Bus noch immer ein Hindernis. Deswegen können einige Workloads davon profitieren, SCM direkt im Server-Memory neben DRAM-Modulen zu implementieren. Denn SCM ist zwar nicht so schnell wie DRAM, kann aber Daten vorhalten, ist Byte-weise adressierbar und kostengünstiger. Durch SCM wird die Skalierung von Server-Memory kostengünstiger.

Der Einsatz von SCM zusammen mit DRAM erweitert den Arbeitsspeicher des Servers, so dass sie besser speicherintensive Applikationen unterstützen. So können mehr Daten im Memory verarbeitet werden. Die Leistung steigt dadurch über das hinaus, was mit über PCI angebundenen SSDs erreichbar ist. So müssen Daten seltener zwischen Memory und dem Storage-Device verschoben werden und es sind weniger Paging- und Swapping-Operationen des Servers erforderlich. Als Resultat sinkt die Latenz und die Ein-/Ausgabeleistung steigt.

Wie bei Optane-SSDs ist Intel bei der Implementierung von SCM als Server-Memory Vorreiter. Der Anbieter hat eine Serie von Optane DC Persistent Memory Modules (PMM) im Programm. Diese Devices passen in Standard-DIMM-Steckplätze und neben konventionelle, zum Beispiel DRAM. Die Optane DC PMMs unterstützen Kapazitäten bis zu 512 GB mit Latenzzeiten im Bereich von 350 Nanosekunden (ns). Zum Vergleich: Die Latenzen bei DRAM betragen zwischen 80 und 100 ns. Die Optane-SSD-Latenz beträgt nur etwa 10 µs.

Intel empfiehlt seine Optane DC PMMs zur Unterstützung von Virtualisierung und VDI zusammen mit anderen Applikationen. Die Module machen es möglich, um Server zu konsolidieren, mehr VMs pro Server zu unterstützen und gleichzeitig VM-Storage zu beschleunigen. Allerdings müssen Anwendungen modifiziert werden, um die Möglichkeit von VMs vollständig zu nutzen.

Abbildung 2: Es gibt verschiedene Gründe für die Implementierung einer VDI-Umgebung.
Abbildung 2: Es gibt verschiedene Gründe für die Implementierung einer VDI-Umgebung.

SCM und die VDI-Workload

SCM könnte sich statt DRAM empfehlen, wenn die Memory-Technologie Applikationen unterstützen soll, die bei Server-Restarts schnell hochfahren müssen. Meistens wird SCM-Speicher als Erweiterung des Server-Memory genutzt, das vorwiegend aus DRAM besteht. Das garantiert Persistenz der Daten, die Anwendungsleistung wird maximiert und gleichzeitig sinken die Kosten. Auch als Storage-Cache und NAND-Ersatz wird man SCM wahrscheinlich in Zukunft häufiger vorfinden.

Noch befindet sich SCM aber in der Startphase. Ganz zu Anfang lag der Fokus meist auf der Anwendung als Storage-Cache oder Flash-Ersatz. Seit Optane DC PMMs auf dem Markt sind, verändert sich das Bild. IT-Teams müssen sich entscheiden, ob es sich lohnt, in SCM zur Unterstützung von VDI zu investieren. Das hängt vor allem davon ab, wie sich die SCM-Industrie entwickelt und ob die Leistung von SCM die Kosten der Technologie rechtfertigt.

Der Einsatz von SCM wird auch von den VDI-Workloads selbst abhängen und davon, ob die COVID-19-Pandemie weiterhin erzwingt, dass viele Mitarbeiter von zu Hause arbeiten.

Fortsetzung des Inhalts unten

Erfahren Sie mehr über Storage Performance

ComputerWeekly.de

Close