spainter_vfx - stock.adobe.com

Was macht eine Data Processing Unit (DPU)?

Alles, was Sie rund um Data Processing Units (DPU) wissen sollten. Entscheiden Sie mit diesem Know-how, ob Ihr Rechenzentrum eines Tages eine solche DPU verwenden sollte.

Eine Data Processing Unit (DPU) ist ein Hardwarebeschleuniger, der speziell für die Datenverarbeitung und das datenzentrierte Rechnen ausgelegt ist. Sie unterscheidet sich von anderen Hardwarebeschleunigern wie der CPU und der GPU durch einen höheren Grad an Parallelität und eine MIMD-Architektur (Multiple Instruction Multiple Data).

Viele Unternehmen nutzen DPUs für Supercomputing-Aufgaben wie KI und Big Data. Um zu entscheiden, ob Ihr Unternehmen eine DPU in seinem Rechenzentrum benötigt, sollten Sie die Anwendungsfälle und Nachteile kennen.

Was macht eine DPU?

Eine DPU entlastet die CPU von Netzwerk- und Kommunikationsaufgaben, sodass sie stattdessen anwendungsunterstützende Aufgaben übernehmen kann. Sie konzentriert sich auf datenzentrierte Arbeitslasten wie Datentransfer, Datenreduzierung, Datensicherheit und Analysen. Der Chip verfügt über ein spezielles Design, das Prozessorkerne mit Hardware-Beschleunigerblöcken kombiniert.

Dieses Design macht die DPU zu einem vielseitigeren, universell einsetzbaren Chip als die GPU. Die DPU verfügt über ein eigenes dediziertes Betriebssystem, was bedeutet, dass Sie seine Ressourcen mit denen Ihres primären Betriebssystems kombinieren können, und sie ist in der Lage, Funktionen wie Verschlüsselung, Erasure Coding sowie Komprimierung oder Dekomprimierung durchführen.

Cloud- und Hyperscale-Anbieter waren die ersten, die diese Technologie einsetzten. Anbieter wie VMware haben jedoch damit begonnen, Unterstützung für DPUs in ihre Angebote aufzunehmen, was sie für andere Unternehmen attraktiver macht.

Storage-Unterstützung mit einer DPU

Aufgrund ihrer Vielseitigkeit als Verarbeitungseinheit können Sie DPUs zur Storage-Unterstützung in Ihrem Rechenzentrum einsetzen. So lässt sich beispielsweise der Zugriff auf NVMe-Storage-Geräte beschleunigen, indem diese an den PCIe-Bus der DPU angeschlossen werden.

Die DPU ermöglicht Ihnen auch einen besseren Zugriff auf Remote Storage, das auf NVMe-oF basiert. Die DPU stellt diese Remote-Storage-Geräte dem System als Standard-NVMe-Geräte zur Verfügung. Dies optimiert die Konnektivität mit dem Remote-Storage, da Sie keine speziellen Treiber mehr benötigen, um sich mit diesen entfernten Speichergeräten zu verbinden.

DPUs und datenzentrische Architektur

Die DPU ist nur ein Teil einer datenzentrierten Architektur. Dieses Paradigma erfordert, dass Sie die Infrastruktur um die Datenanforderungen herum aufbauen, anstatt die Daten zu zwingen, sich der Infrastruktur anzupassen. Die Daten stehen bei der Anwendungsentwicklung, bei Geschäftsentscheidungen und bei der Bereitstellung der Infrastruktur im Vordergrund. Ein datenzentriertes Unternehmen betrachtet Daten als sein zentrales Gut, beseitigt Silos und verhindert die Ausbreitung von Daten durch die Implementierung einer einzigen Datenstrategie für mehrere Anwendungen.

Datenzentrierte Hardware – wie die DPU – vereinfacht die Bewegung und Bereitstellung von Daten. Sie sollte eine hohe Verfügbarkeit und Zuverlässigkeit bieten und es dem gesamten Unternehmen ermöglichen, auf diese gemeinsamen Daten in Echtzeit zuzugreifen. Ihre Leistung, Kapazität, Skalierbarkeit und Sicherheit sollte sich ändern, um neue Arbeitsanforderungen zu erfüllen und sich an neue Technologien anzupassen.

Im Rahmen einer datenzentrierten Architektur adressiert die DPU die Ineffizienz von Serverknoten bei datenzentrierten Berechnungen sowie die langsame oder ineffiziente Übertragung oder gemeinsame Nutzung von Daten zwischen Serverknoten.

Die wachsende Popularität der DPU

Im Jahr 2020 veröffentlichte das Startup-Unternehmen Fungible die erste Version der DPU. Es entwickelte zwei separate Versionen der Verarbeitungseinheit: eine für die Speicherung und eine für die Vernetzung. Beide Versionen der Fungible-DPU enthielten Speicher und On-Chip-Verarbeitung für Aufgaben wie Storage, Sicherheit, Networking und Virtualisierung. Fungible hat sie so konzipiert, dass sie die Vorteile einer hyperkonvergenten Infrastruktur bieten, jedoch mit einer größeren gemeinsamen Nutzung von Speicher- und Netzwerkressourcen.

Seit der Veröffentlichung der DPU von Fungible haben Anbieter wie Nvidia und Intel ihre eigenen Versionen dieser Technologie herausgebracht. Im Juni 2021 veröffentlichte Intel seinen Infrastructure Processing Unit Chip, der die gleiche Aufgabe wie eine DPU erfüllt. Nach Intel stellte auch Nvidia im Juli 2021 seine eigene DPU vor. Diese Verarbeitungseinheiten, sowie die von weiteren Wettbewerbern wie Marvell und AWS, entlasten den Host-Prozessor von Aufgaben, um Datenverarbeitungsprozesse zu beschleunigen und zu rationalisieren. Nvidia geht davon aus, dass Telekommunikationsunternehmen und Cloud-Anbieter seine Technologie zuerst übernehmen werden, aber der Boom der DPU-Angebote der großen Anbieter bedeutet, dass man sie bald auch in anderen Rechenzentren sehen könnte.

Erfahren Sie mehr über Netzwerkhardware

ComputerWeekly.de
Close