ra2 studio - stock.adobe.com

GPU-Virtualisierung mit VMware: darauf sollten Sie achten

Die Virtualisierung von GPUs mit VMware ist ein komplexes Thema. Lizenzoptionen, Anforderungen an Ressourcen und die vorhandene Hardware sollten in die Planung einfließen.

Die Virtualisierung eines Grafikprozessors ist nicht mehr nur auf VDI-Systeme beschränkt; immer mehr Anwendungen verwenden fortschrittliche virtuelle GPUs für Desktop-, Server- und Hochleistungsberechnungen.

Administratoren virtueller Systeme müssen sich im Klaren sein, dass die Virtualisierung eines Grafikprozessors (Graphic Processing Unit, GMU) nicht dasselbe ist wie die Virtualisierung von CPU oder RAM. Entwicklung, Lizenzierung und Bereitstellung sind grundlegend verschieden, insbesondere bei der Virtualisierung von GPUs mit VMWare.

Wenn es um VDI-Systeme (virtuelle Desktopinfrastruktur) geht, sind Admins mit einer lebhaften Debatte um die beste Wahl bei E/A- (Eingang/Ausgang, Input/Output), CPU- und Speicherressourcen konfrontiert. Das ist nur logisch, denn diese sind entscheidend beim Implementieren und für den reibungslosen Betrieb einer VDI. Der Grafikprozessor hingegen wird oft nicht ausreichend berücksichtigt.

Admins sollten beim Einrichten einer virtuellen Desktopinfrastruktur über den Einsatz eines virtuellen GPUs (vGPU) nachdenken. Hauptanbieter für vGPUs sind Nvidia und AMD, wobei Nvidia bereits seit längerem mit der VMware-Produktfamilie kooperiert.

Lizenzierung und Ressourcenbedarf abklären

Trotz der Tatsache, dass es sich bei einer GPU um Hardware handelt, an die in der Regel ein Hypervisor angeschlossen ist, ist jede GPU einzigartig. Admins können Hardwareteile innerhalb des Grafikprozessors austauschen und kombinieren. Beispielsweise können sie verschiedene Grafikkartenmodelle im selben VMware-Cluster benutzen, wodurch Administratoren virtuelle Maschinen (VMs) auf verschiedenen Ebenen von Grafikkarten ausführen können, um Leistung, Kosten und Flexibilität zu optimieren.

Jeder Host in diesem Cluster muss jedoch intern die gleichen Grafikkarten ausführen. Während also die Hosts der Administratoren verschiedene GPU-Modelle haben können, können nicht auf einem Host verschiedene Modelle installiert sein. Dies wäre so ähnlich, wie zwei CPUs auf derselben Serverplattform laufen zu lassen. Das kann nicht funktionieren.

Für Administratoren bedeutet dies, dass sie VMware Distributed Resource Scheduler (DRS) und Hochverfügbarkeitsgruppen gezielt einsetzen müssen, um sicherzustellen, dass ihre Workloads auf denjenigen Hosts laufen, denen sie zugeteilt sind.

Administratoren können Workloads trotzdem von einem Host mit einem bestimmten Grafikprozessormodell auf einen anderen Host mit einem anderen Modell migrieren. Dazu müssen sie den Gast zuerst herunterfahren und sicherstellen, dass ihre Lizenz richtig eingestellt ist. Oder sie verwenden vMotion, um Gäste von bestimmten Hosts auf andere Hosts innerhalb desselben GPU-Modells zu migrieren.

Admins müssen sicherstellen, dass sie über Hosts mit den richtigen Grafikprozessoren verfügen, um Failover zu ermöglichen, oder besser noch, sie wählen Grafikprozessoren aus, die eine größere Bandbreite an Workloads bewältigen, um sie für ein gemeinsames Modell zu standardisieren.

Ein Vorteil beim gemeinsamen Einsatz von VMware und Nvidia ist die Möglichkeit, bis zu vier Grafikprozessoren pro virtuelle Maschine zuzuweisen. Administratoren können auf GPUs der mittleren und oberen Ebene, wie Nvidia Tesla T4 oder Quadro, skalieren, um höherwertige Workloads zu bewältigen, ohne das Budget zu sprengen oder für Mitarbeiter, die geringere Ansprüche haben, zusätzliche Prozessoren anschaffen zu müssen.

Dafür müssen Administratoren die Einstellungen des Hosts ihrer Grafikprozessoren von Shared auf Shared Direct ändern. Sonst können die virtuellen Maschinen nicht hochfahren.

Sobald Admins ihre Grafikprozessoren auf einen bestimmten Satz von Hosts eingerichtet haben, benötigen sie auch eine Lizenz. Dazu gehört eine Softwarelizenz, die dem Treiber den Zugriff auf die Remote-Funktion der Grafikprozessoren ermöglicht. Das bedeutet zwar eine weitere Lizenz, die es zu verwalten gilt, doch die Vorteile für Administratoren sind groß.

Die Funktionen virtueller Grafikprozessoren werden über die Lizenz und nicht durch den Treiber bestimmt. Das bedeutet, dass Admins, um bestimmte Funktionen zu aktivieren oder zu deaktivieren, eine spezielle Lizenz benötigen. Das hat den Vorteil, dass sie Einstellungen nicht laufend manuell dem Bedarf anpassen müssen.

Wenn Administratoren mehrere GPUs verwenden, müssen sie außerdem eine Lizenz wie NVLink von Nvidia haben, um sie zu verbinden. Admins können nicht Komponenten von mehreren GPUs zusammensetzen, um diese dann ihren VMs zuzuweisen. Die zugewiesenen Prozessoren müssen vollständig sein.

Zusätzliche Tipps für die Bereitstellung von vGUPs

vGPUs nutzen die gleiche Technologie wie Hypervisoren und haben daher auch dieselben Vorteile bei der Sicherheit. Auch wenn die Videosicherheit für einige Administratoren vielleicht keine Priorität hat, so sieht die Sache schon ganz anders aus, wenn Grafikprozessoren für Hochleistungsberechnungen, Deep Learning und künstliche Intelligenz (KI) im Einsatz sind.

Nicht zuletzt sollten Admins im Hinterkopf behalten, dass sich die Hardware, auf der sie ihren Grafikprozessor hosten, höchstwahrscheinlich ändern wird. GPUs leisten Schwerstarbeit; sie benötigen daher eine ideale Grundlage für ihre Leistung. Hardwareplattformen, die nicht für Grafikprozessoren optimiert sind, liefern nicht den erforderlichen physischen Platz, die notwendige Kühlung und Leistung, um mehrere Grafikkarten zu unterstützen.

Admins müssen bei der Wahl ihrer Hardwareplattform sowohl auf die Zertifizierung von VMware als auch von Nvidia achten und sicherstellen, dass sie die richtigen Karten für die Anwendungsfälle sowie die Strom- und Kühlungssysteme für ihre Zwecke gewählt haben.

Die Herausforderungen, die mit der Virtualisierung von GPUs einhergehen, sind nicht neu, sie sind Variationen der bekannten Probleme bei der Virtualisierung von Rechenleistung. Kennen Administratoren die zu erwarteten Probleme im Voraus, können sie diese erfolgreich bewältigen.

Erfahren Sie mehr über Data-Center-Infrastruktur

ComputerWeekly.de
Close