sabida - stock.adobe.com
So reagieren Storage-Anbieter auf steigende KI-Anforderungen
KI-Workloads beginnen, das Produktangebot der Speicheranbieter zu beeinflussen. Hier sind einige der verfügbaren Beispiele für Speicheranbieter, die ihre Strategien angepasst haben.
KI‑Workloads – insbesondere Trainings‑ und Inferenz‑Szenarien, aber zunehmend auch generative KI und LLM‑Anwendungen – stellen an die Unternehmensinfrastruktur ganz neue Anforderungen. Speicheranbieter reagieren darauf, indem sie ihre Plattformen gezielt für KI‑Workloads optimieren: mit höheren Durchsätzen, besserer GPU‑Anbindung, KI‑zentrierten Datenmanagement‑Tools und zunehmend Hybrid‑ oder Cloud‑Integrationen.
Für IT‑Verantwortliche bedeutet das mehr als nur schnelleren Speicher: Es geht darum, KI‑Szenarien datenschutzkonform, skalierbar und bezahlbar zu betreiben – sei es On‑Premises, in hybriden Cloud‑Umgebungen oder in Sovereign‑Cloud‑Architekturen. Bereits in einem früheren Artikel zu Storage‑Anforderungen für KI‑Workloads im Überblick werden die spezifischen Anforderungen an Storage für KI‑Umgebungen beschrieben: hoher Durchsatz, niedrige Latenzen, effiziente Parallel‑Dateisysteme und flexible Skalierung.
Beispiele für Angebote klassischer Speicherhersteller
Vor allem Hersteller klassischer Speicherlösungen wie NAS- oder SAN-Systeme mussten sich neu erfinden. Nach dem Cloud-Hype gilt es für sie nun den Bedarf nach KI-optimierten Angeboten zu stillen. Nachfolgend zeigen sich einige der wichtigsten Speicheranbieter, die sich in diesem Bereich positionieren und ihr Produktportfolio erweitert haben.
Dell
Die PowerScale-All-Flash-Speichersysteme von Dell bieten einheitlichen Datei- und Objektspeicher, der parallelen Zugriff über mehrere Protokolle unterstützt, mit nahtloser Integration in die AI Data Factory und die KI-Stacks von Dell. PowerScale ist Teil der Dell AI Data Platform und wurde in enger Zusammenarbeit mit Nvidia entwickelt, um GPU-fähigen Speicher bereitzustellen.
Die ObjectScale-All-Flash-Speichersysteme von Dell unterstützen die Erfassung großer Datenmengen und das Training von KI-Modellen. Die Plattform basiert auf einer Exascale-Architektur, die schnellen Objektspeicher und umfassende APIs für moderne KI-Workloads bietet.
HPE
Der Alletra Storage MP X10000 von HPE ist eine Objektspeicherplattform, die Speicher der Enterprise-Klasse für datenintensive Workloads wie KI bereitstellt. Die Plattform basiert auf einer softwaredefinierten, disaggregierten Architektur, die von Terabyte bis Exabyte skalierbar ist. Sie nutzt All-Flash-Speicher, um sowohl Leistung als auch Kapazität bereitzustellen, wodurch generative KI und große Sprachmodelle (LLMs) unterstützt werden können. Die Plattform wurde für die Integration in sowohl lokale als auch Cloud-native Umgebungen entwickelt und kann über die HPE GreenLake-Cloud verwaltet werden.
NetApp
Der AIPod von NetApp ist ein konvergierter Infrastruktur-Stack, der Lenovo-Server, Nvidia DGX BasePOD und NetApp ONTAP All-Flash-Speicher zu einem konsolidierten System kombiniert. AIPod bietet eine einheitliche hybride Datenarchitektur, die große und vielfältige Datensätze in Cloud- und lokalen Umgebungen verarbeiten kann. Er unterstützt Datei-, Block- und Objektprotokolle und lässt sich in MLOps-Plattformen und interne Prozesse integrieren.
AIPod wird durch den Nvidia AI Enterprise-Software-Stack, NetApp BlueXP, NetApp AI Control Plane und das NetApp DataOps Toolkit für eine umfassende MLOps-Integration unterstützt.
Everpure
Everpure (ehemals Pure Storage) hat das Referenzdesign der Nvidia AI Data Platform in seine FlashBlade-Plattform integriert. FlashBlade nutzt Nvidias beschleunigte Rechenleistung, Netzwerkfunktionen und die AI Enterprise-Software, wodurch die für KI-Schlussfolgerungen erforderlichen Geschwindigkeiten erreicht werden können.
Everpure hat außerdem sein FlashBlade//EXA-System auf den Markt gebracht, das die gesamte KI-Pipeline versorgen kann. Das System bietet leistungsstarken Objektspeicher, der von Petabyte bis Exabyte skaliert und einen Durchsatz von bis zu mehr als 10 TB/s liefert.
Spezialisierte und Cloud‑orientierte KI‑Speicherlösungen
Neben den klassischen Speicherherstellern rücken zunehmend auch Spezialanbieter und Cloud‑Plattformen in den Fokus, wenn es um KI‑Workloads geht. Diese Anbieter spielen für Unternehmen, die zwischen On‑Premises‑HPC‑Infrastruktur, HPC‑Cloud und öffentlichen Clouds agieren, eine wichtige Rolle. Im Folgenden sind einige Beispiele aufgeführt.
Amazon (AWS)
Amazon Web Services positioniert sich vor allem über seinen S3‑basierten Speicher, der mittlerweile explizit für KI‑Workloads erweitert wurde – etwa mit S3 Vectors, das Vektordaten direkt im Objektspeicher verwaltet und KI‑Anwendungen wie Embeddings, RAG‑Szenarien oder semantische Suche nativ unterstützt. Für deutsche Unternehmen ist besonders interessant, dass S3‑Vektorspeicher nicht nur in AWS‑Regionen, sondern auch in hybriden Umgebungen sinnvoll genutzt werden kann, sofern die Datenhoheit und DSGVO‑Aspekte klar geregelt sind.
WEKA (früher WekaIO)
WEKA versteht sich als KI‑speichernative Plattform und setzt auf das Augmented‑Memory‑Grid‑Konzept, das GPU‑HBM‑Speicher mit leistungsstarken Flash‑Storage‑Pfaden verbindet. Dadurch können große Inferenz‑, LLM‑ und Agenten‑Workloads deutlich größere Kontexte und kürzere Antwortzeiten nutzen, ohne die GPU‑Infrastruktur zu überlasten. WEKA richtet sich damit vor allem an Unternehmen mit hochskalierenden KI‑ und HPC‑Cluster‑Umgebungen – ein Segment, in dem sich auch deutsche Rechenzentren und Forschungseinrichtungen zunehmend einordnen.
DDN (DataDirect Networks)
DDN ist ein klarer Spezialist für HPC‑ und KI‑Speicher, mit Produkten wie A3I, EXAScaler und Infinia, die auf extrem hohe I/O‑Leistung, niedrige Latenzen und vertikale Skalierung für KI‑Workloads ausgelegt sind. In Deutschland sind diese Lösungen vor allem in großen KI‑Lab‑Umgebungen, Forschungszentren und Enterprise‑HPC‑Sites verbreitet. Für Unternehmen mit eigenen GPU‑Cluster‑Deployment bietet DDN eine interessante Alternative zu klassischen Enterprise‑Speicherplattformen, wenn primär Performance und Skalierung im Vordergrund stehen.
Weitere Anbieter
Dies sind keineswegs die einzigen speicherbezogenen Produkte, die entwickelt wurden, um den Herausforderungen der heutigen KI-Workloads gerecht zu werden. Viele dieser Anbieter offerieren auch andere Produkte für den KI-Bereich, und weitere Firmen haben eigene Produkte eingeführt, darunter:
- Atlas
- Kioxia
- Micron
- Microsoft
- Nutanix
- Samsung
- Scality
- Seagate
- Silicon Motion
- Supermicro
- VAST
- Vultr
- Wasabi
KI-Speicher ist eine dynamische und wachsende Branche, die sich ständig weiterentwickelt, da immer mehr Unternehmen KI in ihren eigenen Rechenzentren oder in der Cloud einsetzen. Organisationen, die KI-Anwendungen nutzen, müssen sicherstellen, dass ihre Tools und ihre Infrastruktur den Anforderungen von KI und anderen latenzempfindlichen Anwendungen gerecht werden, und sollten dabei die Speicheranbieter im Auge behalten, die genau dafür geeignete Tools anbieten.
Dieser Artikel ist im Original in englischer Sprache auf Search Storage erschienen.