DrHitch - Fotolia

Grafikkarten für Server ziehen ins Rechenzentrum

Grafikkarten für Server können sich im Rechenzentrum etablieren. Die GPUs von Nvidia und AMD sind gut geeignet für Künstliche Intelligenz (KI), Maschinenlernen und Big Data.

Die Trendthemen Künstliche Intelligenz (KI), Maschinenlernen und Big Data beeinflussen die Server in Rechenzentren. Traditionelle Mikroprozessoren werden mit den Datenmengen kaum fertig: Die Antwort sind Grafikkarten (GPU).

Grafikkarten gibt es schon seit den 70ern. Sie sollten ursprünglich die Zentralprozessoren von der aufwendigen Verarbeitung von Grafik- und Videodateien entlasten. GPUs sind anders aufgebaut als traditionelle Mikroprozessoren, die den Durchsatz eines einzigen Datenstroms maximieren sowie die Informationen schnell an einen Speicher übertragen sollen.  

GPUs arbeiten dagegen mit parallelen Prozessen und unterstützen mehrere Hochgeschwindigkeitsverbindungen. Sie können große Datenmengen verarbeiten und sind deswegen zum Umgang mit Grafik gut geeignet.

GPU in Rechenzentren

Im Rechenzentrum werden GPUs schon lange verwendet, aber das Einsatzspektrum wird stetig größer. Nvidia setzt auf die GPU, um sich vom Wettbewerb zu unterscheiden und ist eindeutiger Marktführer vor AMD, das sich auf Grafikkarten für Notebooks spezialisiert.

GPUs sind im Segment High Performance Computing (HPC) gesetzt. Seit kurzem bieten die Hersteller aber auch Karten an, die explizit für Unternehmensserver ausgelegt sind. Im Gegensatz zu den bekannten Grafikkarten für Spiele haben sie keine grafischen Schnittstellen. Dafür nutzen sie Speicher mit hoher Bandbreite und werden entweder als Module zur Integration in speziell ausgelegte Server oder als Peripheral Component Interconnect Express (PCIe) Karten angeboten.

Die Serverhersteller nutzen die GPUs, um die traditionellen Mikroprozessoren zu entlasten, die von datenintensiven Arbeiten befreit werden. Künstliche Intelligenz (KI), Maschinenlernen und Big Data haben hohe Anforderungen an Prozessorgeschwindigkeit und arbeiten mit massiven Datenmengen und unterschiedlichen Datentypen. Dafür ist das Design der GPU gut geeignet.

Die Anbieter von Künstlicher Intelligenz (KI) und Maschinenlernen nutzen die GPUs, um die riesigen Datenmengen zu verarbeiten, die für das Training neuronaler Netzwerke nötig sind. Die Entwickler können ihre Software auf normalen PCs mit Grafikkarten entwickeln, bevor sie sie auf die Server-GPUs portieren, berichtet Alan Priestley, Analyst bei Gartner.

GPUs im Kommen

Die Verwendung von GPUs im Rechenzentrum wird wahrscheinlich zunehmen. Sie sind gut geeignet für missionskritische Workloads. Der Vorteil für IT-Abteilungen liegt darin, dass sie leicht zu beschaffen sind und Standard Libraries nutzen, die leicht in bestehende Anwendungen integriert werden können, so Priestley.

Entsprechende Angebote gibt es bereits. Laut Gartner kosten die für Server optimierten GPUs zwischen 1.000 und 5.000 Dollar.

Dell unterstützt die FirePro GPUs von AMD sowie Karten von Nvidia, die für virtuelle Desktops ausgelegt sind mit bis zu 1.792 GPU-Kernen.

Die Hewlett Packard Enterprise (HPE) ProLiant Systeme funktionieren mit Nvidia Tesla, Nvidia GRID und Nvidia Quadro GPUs. Das HPE Insight Cluster Management Utility installiert und provisioniert die Treiber der Karten und überwacht die Temperaturen sowie andere Faktoren.

Um sich auf die Arbeit mit GPUs einzustellen, müssen sich Administratoren mit dem Management der Grafikkarten auseinandersetzen. Es ist schwer, Leute zu finden, die sich damit auskennen. Nvidia bietet einige Trainingsmaterialien, aber sonst gibt es wenig Ausbildungsangebote.    

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

AWS Elastic GPU: Mehr Flexibilität in DaaS-Bereitstellungen

Die Evolution der GPU-Virtualisierung hin zur Mainstream-Plattform

DaaS, Hybrid-VDI und GPU-Virtualisierung: Die wichtigsten VDI-Trends 2017

Erfahren Sie mehr über Serverhardware

ComputerWeekly.de
Close