HAJERA - stock.adobe.com
Trends 2026: Storage-Initiative soll KI-Bedürfnisse stillen
Künstliche Intelligenz stellt höhere Anforderungen an Storage-Lösungen als bisher. Gefordert sind höhere Kapazitäten, vor allem aber schnellere Verbindungen zu den Datenspeichern.
Die Storage-Branche ist sich einig: Soll sich die Speicherumgebung nicht zum hinderlichen Engpass für die erfolgreiche KI-Entwicklung werden, muss etwas geschehen. Denn die schieren Datenmassen sind erdrückend. Laut Statista steigt 2026 die weltweite Datenmenge auf 230 auf 240 Zettabyte (ausgehend von einem jährlichen Wachstum von 25 Prozent), und aus Sicht der KI-Spezialisten soll natürlich möglichst viel davon durch die Nutzung für KI-Analysen wirtschaftlichen Nutzen generieren.
Die Versuche, heutige Storage-Infrastrukturen besser KI-tauglich zu machen, werden zweifellos die Storage-Welt im Jahr 2026 maßgeblich mitprägen. Etwa, so die Sicht von Infinidat, durch KI-Overlays, die dazu dienen, die unter anderem die vorhandene IT-Infrastruktur dafür nutzen, die Investitionen in Speicherinfrastrukturen zu maximieren.
Ein weiterer wichtiger Trend in Bezug auf die Storage-Landschaft ist der Drang nach mehr Sicherheit. Dazu gehören mehr Ausfallsicherheit vor Ort und in der Cloud sowie Schnellerkennungsmechanismen, die verhindern, dass gespeicherte Primärdaten oder Backups durch Malware verseucht oder verschlüsselt werden. Auch unkomplizierte, häufige Snapshot-Mechanismen werden noch häufiger verwendet werden, um die wertvollen Daten zu schützen. Backups sollen möglichst sofort verfügbar sein.
Budgets werden weiter durch hohe KI-Kosten belastet
KI kostet Geld, insbesondere die teuren GPUs. Dieses Geld fehlt an anderer Stelle. Deshalb bleibt der Kostendruck auf die Storage-Landschaft hoch, gleichzeitig auch der Druck, weitere Kapazitäten zu installieren, zum Beispiel am Edge. Denn oft ist eine Analyse zumindest eines Teils der Daten ortsnah erforderlich, schon deshalb, um Transportkosten in die zentrale Cloud zu sparen.
Aber auch, weil nicht alle Daten dorthin müssen. Viele Edge-Daten können schon nach relativ kurzer Zeit wieder gelöscht und/oder in verdichteter Form in die Cloud transportiert werden. Entsprechender Edge-Speicher muss in der Regel robust und sicher sein. Dafür braucht er in der Regel keine riesigen Kapazitäten.
Das drängendste Problem scheint aber zu sein, dass die Verbindungen zwischen Storage und GPUs oder anderen KI-Prozessoren zu langsam sind. Der Datenzugriff braucht zu viel Zeit. Das hat die Branche erkannt.
Storage.ai soll den Datentransport beschleunigen
Die SNIA (Storage Industry Networking Association) hat deshalb im Herbst 2025 eine neue Initiative gegründet: Storage.ai. Das Projekt will offene Standards für effiziente Datenservices rund um KI entwickeln.
Dabei geht es beispielsweise um ineffiziente Datenpipelines. Denn viele Roundtrips zwischen Daten und Storage verschleudern Leistung und Energie. Weil es zu lange dauert, die nötigen Daten herbeizuschaffen, laufen insbesondere die teuren GPUs leer. Das treibt die Kosten sinnlos in die Höhe.
Angepeilt sind herstellerneutrale und interoperable Lösungen. Wichtige Themen sind das Tiering von Arbeitsspeicher, die Datenverlagerung, die Speichereffizienz und die systemweite Latenz. Sie soll durch die Nutzung der vorhandenen Beschleunigungsmechanismen in GPUs und anderen KI-Komponenten sinken. Das würde insgesamt zu schnelleren Ergebnissen und weniger teuren Infrastrukturen führen.
Vor allem geht es um neue, offene Schnittstellen
Es gibt verschiedene Teilprojekte, zu denen unter anderem die folgenden gehören:
- In Arbeit ist eine schnelle Schnittstelle für den beschleunigten Datentransport. SDXI (Smart Data Acceleration Interface) soll den direkten Speicherzugriff von CPUs, DPUs und GPUs, Kopien zwischen Arbeitsspeichern und Datentransformationen beschleunigen.
- Eine API für Computational Storage wird gemeinsam mit einer entsprechenden Architektur entwickelt. Damit sollen SSDs und andere Storage-Systeme Berechnungen wie Filterung, Interferenz oder Konversionen direkt durchführen können. Außerdem arbeitet man bei Computational Storage und GPU-angepassten Storage-Pipelines an Mechanismen für die flexible Datenplatzierung, um den Streaming-Durchsatz zu erhöhen.
- Ein NVM-Programmiermodell entsteht, das eine einheitlicher Softwareschnittstelle für den Zugriff auf NVMe, SCM und RDMA-Speicherschichten bereitstellt. Weiter wird eine Redfish- (softwaregesteuertes Datacenter-Management) und Swordfish- (softwaregesteuertes Security-Management) kompatible Managementlösung für hybride und disaggregierte Infrastruktur gebaut. Eine weitere Arbeitsgruppe beschäftigt schließlich sich mit Standard-Schnittstellen für Objekt-Storage in RDMA- und Hyperscaler-Umgebungen.
Zukunftspläne: Standardisierte Direktzugriffsmechanismen für GPUs
Außerdem gibt es schon Zukunftspläne: Es sollen Mechanismen für File- und Objekttransport über RDMA und Ultra Ethernet entstehen. Mit ihnen könnten auch traditionelle Anwendungen von S3-ähnlichen Qualitäten profitieren.
GPUs sollen direkte Zugriffsmöglichkeiten auf Arbeitsspeicher und RDMA- respektive NVMe-Storage bekommen. Und GPUs sollen über einen vom Beschleuniger initiierten I/O-Mechanismus (AiSIO, Accelerator-initiated Storage I/O) komplett selbstgesteuert auf Daten zugreifen beziehungsweise sie ausgeben, etwa beim Laden oder beim Schreiben von Prüfpunkten.
Wann das alles realisiert wird, ist noch unklar. Ist dies aber der Fall, dürfte sich das Risiko, dass Speicherinfrastrukturen weiterhin KI-Umgebungen verlangsamen, erheblich verringern. Im April 2026 trifft sich die Initiative zu einem Kongress in den USA, dort werden vielleicht schon erste Arbeitsergebnisse präsentiert.