Getty Images/iStockphoto

HPC beschleunigt Simulationen und Analysen in KMUs

Aufgrund wachsender Datensätze erwägen auch kleinere und mittelgroße Firmen den Einsatz von High Performance Computing, um zum Beispiel die Produktentwicklung zu beschleunigen.

Noch vor wenigen Jahren war High-Performance Computing (HPC) eine Domäne von Forschungseinrichtungen und Großunternehmen. Inzwischen aber nutzen auch mehr und mehr KMUs leistungsstarke Rechner-Cluster, um komplexe Problemstellungen zu lösen. Möglich machen das die zunehmende Verfügbarkeit digitaler Daten und validierte Systemdesigns für konkrete Anwendungsfälle.

Digitale Daten sind in der Produktentwicklung ein Segen. Sie erleichtern nicht nur die Konstruktion komplexer Bauteile und Produkte, sondern ganz besonders auch deren Tests. Unabhängig davon, ob es um die Aerodynamik von Karosserieteilen eines Autos oder die mechanische Belastbarkeit von Sportartikeln geht: Statt aufwändig Prototypen zu bauen und diese umfangreichen Prüfungen zu unterziehen, können Unternehmen das Verhalten der Teile und Produkte unter verschiedenen Bedingungen leicht mit digitalen Modellen am Rechner simulieren. Einzelne Parameter lassen sich dort schnell anpassen, um Produktdesigns immer weiter zu verbessern und Schritt für Schritt das gewünschte Ergebnis zu erreichen. 

Dank der Simulationen sparen die Unternehmen erheblich Zeit und Geld, sodass sie ihre Innovationszyklen verkürzen und neue Produkte zügig zur Marktreife bringen können. Allerdings werden die Simulationsmodelle immer vielschichtiger und größer, weil sie mehr und mehr Parameter berücksichtigen müssen und selbst kleine Unternehmen inzwischen über die notwendigen digitalen Daten verfügen. Dafür reicht dann die Rechenkraft eines normalen Systems mit einem Prozessor oft nicht mehr aus – die Simulationen würden je nach Komplexität mehrere Tage oder sogar Wochen dauern. Da Unternehmen selten so lange warten wollen oder können, bleibt nur die Aufteilung der Berechnungen auf einzelne Aufgaben, die mehrere Recheneinheiten parallel abarbeiten können.

Damit stoßen viele KMUs in einen Bereich vor, der lange Zeit vor allem Forschungseinrichtungen und großen Unternehmen vorbehalten war: das High-Performance Computing (HPC). Dieses zeichnet sich durch die parallele Datenverarbeitung auf Systemen mit mehreren leistungsstarken Mehrkern-Prozessoren beziehungsweise in Clustern mit mehreren solcher Systeme aus. Typische Einsatzfelder sind neben der Produktentwicklung beispielsweise wissenschaftliche Simulationen in der Klimaforschung, Risikoanalysen im Finanzbranche, die Lokalisierung von Rohstoffvorkommen oder die Auswertung großer Datenbestände mit Hilfe von KI.

Abbildung 1:	Aerodynamik- oder Crash-Tests lassen sich mit digitalen Modellen schneller und kostengünstiger als mit physischen Modellen durchführen. Allerdings erfordern die Simulationen oft spezielle Hardware mit viel Compute-Power (Quelle: Dell Technologies)
Abbildung 1: Aerodynamik- oder Crash-Tests lassen sich mit digitalen Modellen schneller und kostengünstiger als mit physischen Modellen durchführen. Allerdings erfordern die Simulationen oft spezielle Hardware mit viel Compute-Power (Quelle: Dell Technologies)

Der Anwendungsfall bestimmt die Hardware

Je nach Anwendungsfall müssen die HPC-Systeme ganz unterschiedliche Fähigkeiten mitbringen. Während es bei vielen klassischen HPC-Workloads auf schiere Rechenkraft und damit leistungsstarke CPUs ankommt, erfordert das Training von KI-Modellen eine stärkere Parallelisierung und dementsprechend den Einsatz von GPUs. Mit ihren tausenden recht einfachen Kernen sind die Grafikprozessoren ideal geeignet, um sehr viele gleichartige Berechnungen schnell und stromsparend durchzuführen. Das ist ideal, um etwa hochauflösende Aufnahmen aus der medizinischen Diagnostik pixelweise auf krankheitsbedingte Veränderungen hin zu untersuchen oder Anomalien in umfangreichen Sensordatenaufzuspüren, die auf eine baldige Fehlfunktion einer Maschine hindeuten. 

Davon abgesehen unterscheiden sich die verschiedenen CPU- und GPU-Modelle auch hinsichtlich ihrer Leistungsfähigkeit und ihrer Funktionen, was ihre Eignung für einzelne Anwendungsfälle bestimmt. Häufig werden zudem beide Prozessortypen in einem System benötigt, beispielsweise wenn KI-Algorithmen Muster in einer Simulation erkennen und Vorhersagen treffen sollen, um die Simulation abzukürzen. 

Darüber hinaus gibt es abhängig vom Anwendungsfall auch Unterschiede in der Middleware, die sich um die effiziente Verteilung der Rechenaufgaben und das Ressourcenmanagement kümmert. Zudem sind klassische HPC-Knoten meist über eine spezielle HPC-Fabric wie Infiniband vernetzt und greifen auf hochperformante Speichersysteme zu, die viele parallele Lese- und Schreibzugriffe ermöglichen, während für KI manchmal schon Ethernet und ein schneller NAS-Storage genügen.

Validierte System-Designs erleichtern den HPC-Einstieg

Letztlich basieren HPC-Infrastrukturen zwar auf Standardkomponenten, sind aber nie Standardlösungen, sondern müssen ganz speziell auf den jeweiligen Anwendungsfall zugeschnitten werden, um die Hardware optimal zu nutzen und die Berechnungen effizient zu erledigen. Vor allem für kleine und mittelständische Unternehmen kann die Auswahl der richtigen Technologien und Komponenten herausfordernd sein. Hierbei unterstützen Lösungsanbieter wie Dell Technologies sie mit validierten Systemdesigns.

Abbildung 2:	HPC-Workloads stellen recht unterschiedliche Anforderungen an die eingesetzten Systeme, weshalb validierte Designs helfen, optimale Konfigurationen auszuwählen (Quelle: Dell Technologies)
Abbildung 2: HPC-Workloads stellen recht unterschiedliche Anforderungen an die eingesetzten Systeme, weshalb validierte Designs helfen, optimale Konfigurationen auszuwählen (Quelle: Dell Technologies)

In den validierten Systemen steckt perfekt aufeinander abgestimmte Hardware und Software, die praxisnahen Tests unterzogen wurden, um konkrete Empfehlungen für einzelne Branchen und Anwendungsfälle geben zu können. Dadurch erhalten Unternehmen kosteneffiziente Lösungen und bereits bei der Planung ihrer HPC-Infrastruktur verbindliche Performance-Zusagen, damit es nach der Installation und Einrichtung der Systeme keine unliebsamen Überraschungen gibt. 

Fisnik Kraja, Dell Technologies

„ HPC-Infrastrukturen basieren zwar auf Standardkomponenten, sind aber nie Standardlösungen, sondern müssen ganz speziell auf den jeweiligen Anwendungsfall zugeschnitten werden, um die Hardware optimal zu nutzen und die Berechnungen effizient zu erledigen.“

Fisnik Kraja, Dell Technologies

Die validierten Systeme reduzieren den Einführungsaufwand deutlich, sodass Unternehmen sich auf ihre Anwendungen konzentrieren und schnell mit Simulationen und KI-Analysen starten können. Das erlaubt ihnen, mit kleinen Installationen in die HPC-Welt einzusteigen und bei Bedarf unkompliziert zu skalieren, um ihre Anwendungsfälle zu erweitern oder neue Anwendungsfälle zu erschließen. Für die komfortable Verwaltung der Systeme und Cluster sowie die einfache Bereitstellung von Ressourcen liefern die Lösungsanbieter flexible Software-Pakete mit.

Der HPC-Markt wächst kontinuierlich

Wie sehr neue Anwendungsfälle und das Interesse von KMUs den HPC-Markt antreiben, zeigt sich unter anderem auch daran, dass sein Volumen in den vergangenen Jahren trotz Pandemie, stockender Lieferketten und anderer wirtschaftlicher Herausforderungen stetig gewachsen ist – 2021 um 9 Prozent auf 34,8 Milliarden Dollar. Den Löwenanteil machen dabei weiterhin HPC-Server On-Premises aus, von denen nicht mal mehr die Hälfte in klassischen Supercomputern zum Einsatz kommt. Mittlerweile sind sie meist Teil von kleineren HPC-Installationen in Unternehmensbereichen, Abteilungen und Arbeitsgruppen.

Über den Autor: Fisnik Kraja ist HPC & AI Expert und Benchmarking Project Lead bei Dell Technologies in Deutschland.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Data-Center-Betrieb

ComputerWeekly.de
Close