sabida - stock.adobe.com
HPE erweitert KI-Infrastruktur von Enterprise bis Exascale
HPE erweitert auf sein KI-Portfolio um Private Cloud AI mit 128 GPUs, neue Cray-Supercomputer mit Vera CPUs und Quantum-X800 sowie den europäischen HammerHAI-KI-Supercomputer.
HPE kündigt auf der NVIDIA GTC 2026 Erweiterungen seines Portfolios für KI-Infrastrukturen an. Die neuen Systeme reichen von Enterprise-Servern mit RTX-PRO-GPUs über AI-Factory-Plattformen bis zu einem europäischen KI-Supercomputer.
Die Systeme kombinieren NVIDIAs Blackwell- und Rubin-Architekturen mit HPE-Technologien wie Direct Liquid Cooling sowie Quantum-X800-InfiniBand-Netzwerken. Ziel ist es, KI-Infrastrukturen von Unternehmensumgebungen bis zu großskaligen HPC-Installationen auszubauen. Wir geben einen kurzen Überblick über die wichtigsten neuen Angebote.
Enterprise-AI: Private Cloud AI und ProLiant
HPE erweitert seine Plattform HPE Private Cloud AI, eine gemeinsam mit Nvidia entwickelte KI-Infrastruktur für Unternehmensumgebungen. Neue Network-Expansion-Racks ermöglichen eine Skalierung auf bis zu 128 GPUs für anspruchsvolle Inferenz-Workloads.
Für Umgebungen mit hohen Sicherheitsanforderungen stehen Air-Gapped-Konfigurationen zur Verfügung. Zudem unterstützt die Plattform Fortanix Confidential AI auf Basis von Nvidia Blackwell Confidential-Computing-GPUs. Sicherheitsfunktionen werden durch eine Integration von CrowdStrike ergänzt, die Bedrohungserkennung für KI-Infrastrukturen und KI-Agenten bereitstellt.
Die Infrastruktur basiert unter anderem auf HPE ProLiant DL380a Gen12 Servern, die Nvidia RTX PRO 6000 Server Edition GPUs unterstützen. Für Edge-Deployments sind auch RTX PRO 4500 Blackwell GPUs vorgesehen, etwa für Small Language Models (SLM), Vektordatenbanken , NVIDIA CUDA Bibliotheken oder Datenanalyse.
Softwareseitig unterstützt die Plattform unter anderem:
- Nvidia Nemotron Foundation Models
- den AI-Q Blueprint für die Entwicklung eigener KI-Agenten
- Nvidia Omniverse für Digital-Twin-Anwendungen
Darüber hinaus stellt HPE vorkonfigurierte Referenzarchitekturen für KI-Anwendungen bereit, etwa für Edge-KI, Videoanalyse oder biomedizinische Forschung. Verwaltung und Automatisierung erfolgen über HPE Compute Ops Management.
Large-Scale-AI: Cray-Supercomputer und AI-Factories
Neben Enterprise-Systemen erweitert HPE auch seine Infrastruktur für groß skalierbare KI-Workloads und Supercomputing.
Neu ist die Integration von Nvidia Vera CPU Compute Blades in die Plattform HPE Cray Supercomputing GX5000. Die GX240-Compute-Blades unterstützen bis zu 16 Nvidia Vera CPUs pro Blade. Ein Rack kann bis zu 40 Blades aufnehmen, was insgesamt 640 CPUs und bis zu 56.320 ARM-Kerne ergibt.
Für die Vernetzung großer Systeme unterstützt die Plattform Nvidia Quantum-X800 InfiniBand. Die Switches bieten 144 Ports mit jeweils 800 Gbit/s Bandbreite sowie Funktionen zur Energieoptimierung.
Im Bereich der sogenannten AI Factories stellt HPE außerdem neue Systeme auf Basis der Nvidia Vera-Rubin-Architektur vor.
Das System Nvidia Vera Rubin NVL72 by HPE kombiniert:
- 36 Nvidia Vera CPUs
- 72 Nvidia Rubin GPUs
- NVLink-Interconnects
- ConnectX-9 SuperNICs
- BlueField-4-DPUs
Die Plattform richtet sich an Cloud Service Provider und große Rechenzentren, die Modelle mit mehr als einer Billion Parametern trainieren.
Ergänzend führt HPE mit dem Compute XD700 einen GPU-Server auf Basis von Nvidia HGX Rubin NVL8 ein. Ein Rack kann bis zu 128 Rubin GPUs aufnehmen und damit eine höhere GPU-Dichte pro Rack erreichen.
Softwareseitig unterstützen die Systeme Multi-Tenant-Umgebungen über Nvidia Multi-Instance GPU (MIG) sowie GPU-Passthrough-Funktionen. Die Virtualisierung erfolgt über SUSE Rancher Prime und SUSE-Virtualisierungsplattformen. Außerdem unterstützen die Systeme die Software-Suite Nvidia Mission Control, einschließlich Run:AI und Nvidia Dynamo.
HammerHAI: KI-Supercomputer für Europa
Parallel dazu entsteht in Deutschland ein neuer KI-Supercomputer im Rahmen der europäischen HPC-Initiative.
Die EuroHPC Joint Undertaking hat HPE mit dem Bau des Systems HammerHAI am Höchstleistungsrechenzentrum Stuttgart (HLRS) beauftragt. Das System ist Teil der europäischen Initiative zum Aufbau sogenannter AI Factories.
Die Architektur basiert auf einer flüssigkeitsgekühlten Nvidia GB200 NVL4-Plattform, die Grace-CPUs mit Blackwell-GPUs kombiniert. Die Systeme sind über Nvidia Quantum-X800 InfiniBand miteinander vernetzt.
Die KI-Inferenzleistung soll mehr als 15 Exaflops erreichen.
Als Speicherplattform kommt VAST Data DASE zum Einsatz, die eine einheitliche Datenplattform für KI- und HPC-Workloads bereitstellt. Zusätzlich enthält das System eine Partition mit KI-Inferenzbeschleunigern des niederländischen Unternehmens Axelera AI.
Für Orchestrierung und Governance nutzt das System HPE Morpheus Enterprise als zentrale KI-Managementplattform. Ein Cloud-nativer Software-Stack soll es ermöglichen, KI-Workloads aus lokalen Umgebungen oder aus Public Clouds zu migrieren.
Der Supercomputer soll vor allem Anwendungen in Bereichen wie Ingenieurwesen, Fertigung, Automobilindustrie und Mobilität unterstützen.
Das Projekt hat ein Gesamtbudget von rund 55 Millionen Euro.
Die Finanzierung erfolgt jeweils zur Hälfte durch:
- das EU-Programm Digital Europe über die EuroHPC-Initiative
- das Bundesministerium für Forschung, Technologie und Raumfahrt sowie das Land Baden-Württemberg
Die Lieferung des Systems ist für das zweite Quartal 2026 geplant, die Inbetriebnahme in der zweiten Hälfte des Jahres 2026.
Der Zugang zu den Rechenressourcen soll Wissenschaftseinrichtungen, Industrieunternehmen, Start-ups und KMUs offenstehen.
KI bleibt weiter hart im Fokus und treibt den Markt
Der Markt für KI-Infrastruktur wird derzeit von wenigen Herstellern und in verschiedenen Bereichen (GPUs, Server, Cloud-KI, HPC-KI) dominiert. Dazu gehören unter anderem Nvidia, Dell HPE, Lenovo, Supermicro Fujitsu und die drei großen Hyperscaler. Dabei positioniert sich HPE vor allem in drei Segmenten: Enterprise-KI-Stacks, GPU-Server und KI-Cluster sowie Supercomputing und AI Factories, was durch die heute veröffentlichten Neuerungen verdeutlicht wird.
Allerdings ist HPE nicht der einzige Hersteller, der mit Nvidia eine Partnerschaft hat. Seit dem der KI-Hype im vollen Gange ist, sind zahlreiche Storage-Anbieter auf den Nividia-Zug aufgesprungen, so zum Beispiel Dell, Netapp, Everpure, DDN, VAST Data, Hammerspace oder IBM. Und ja, alle Anbieter wollen durch diese Kooperationen leistungsfähigere und flexible KI-Lösungen an den Markt und Nutzer bringen.
Für den interessierten Käufer heißt das aber, dass sich der KI-Dschungel verdichtet, denn die Abgrenzungsmerkmale der einzelnen Hersteller sind nicht immer deutlich zu erkennen. Zudem muss beim Marketing-Sprech gefiltert werden. Wie auch in anderen Bereichen und Märkten gewinnt nicht nur der, der seine Lösung zuerst funktionstüchtig auf dem Markt hat, sondern wer die KI-Lingo am besten verkaufen kann
Die wichtigsten Fakten der HPE-Neuerungen im Überblick
Private Cloud AI
- Skalierung auf bis zu 128 GPUs
- Air-gapped Deployments
- RTX PRO 6000 und RTX PRO 4500 GPUs
- Unterstützung für Nemotron-Modelle, AI-Agent-Blueprints und Omniverse
Cray GX5000
- bis zu 640 Vera CPUs pro Rack
- 56.320 ARM-Kerne
- Quantum-X800 InfiniBand mit 144 × 800 Gbit/s
Vera Rubin NVL72
- 72 Rubin GPUs
- NVLink-Interconnect
- ausgelegt für KI-Modelle mit mehr als 1 Billion Parametern
Compute XD700
- bis zu 128 Rubin GPUs pro Rack
- hohe GPU-Dichte für Training und Inferenz
HammerHAI
- Nvidia GB200 NVL4-Architektur
- mehr als 15 Exaflops KI-Inferenzleistung
- Speicherplattform von VAST Data
- zusätzliche Inferenzbeschleuniger von Axelera AI