https://www.computerweekly.com/de/feature/Trends-2026-Storage-Initiative-soll-KI-Beduerfnisse-stillen
Die Storage-Branche ist sich einig: Soll sich die Speicherumgebung nicht zum hinderlichen Engpass für die erfolgreiche KI-Entwicklung werden, muss etwas geschehen. Denn die schieren Datenmassen sind erdrückend. Laut Statista steigt 2026 die weltweite Datenmenge auf 230 auf 240 Zettabyte (ausgehend von einem jährlichen Wachstum von 25 Prozent), und aus Sicht der KI-Spezialisten soll natürlich möglichst viel davon durch die Nutzung für KI-Analysen wirtschaftlichen Nutzen generieren.
Die Versuche, heutige Storage-Infrastrukturen besser KI-tauglich zu machen, werden zweifellos die Storage-Welt im Jahr 2026 maßgeblich mitprägen. Etwa, so die Sicht von Infinidat, durch KI-Overlays, die dazu dienen, die unter anderem die vorhandene IT-Infrastruktur dafür nutzen, die Investitionen in Speicherinfrastrukturen zu maximieren.
Ein weiterer wichtiger Trend in Bezug auf die Storage-Landschaft ist der Drang nach mehr Sicherheit. Dazu gehören mehr Ausfallsicherheit vor Ort und in der Cloud sowie Schnellerkennungsmechanismen, die verhindern, dass gespeicherte Primärdaten oder Backups durch Malware verseucht oder verschlüsselt werden. Auch unkomplizierte, häufige Snapshot-Mechanismen werden noch häufiger verwendet werden, um die wertvollen Daten zu schützen. Backups sollen möglichst sofort verfügbar sein.
KI kostet Geld, insbesondere die teuren GPUs. Dieses Geld fehlt an anderer Stelle. Deshalb bleibt der Kostendruck auf die Storage-Landschaft hoch, gleichzeitig auch der Druck, weitere Kapazitäten zu installieren, zum Beispiel am Edge. Denn oft ist eine Analyse zumindest eines Teils der Daten ortsnah erforderlich, schon deshalb, um Transportkosten in die zentrale Cloud zu sparen.
Aber auch, weil nicht alle Daten dorthin müssen. Viele Edge-Daten können schon nach relativ kurzer Zeit wieder gelöscht und/oder in verdichteter Form in die Cloud transportiert werden. Entsprechender Edge-Speicher muss in der Regel robust und sicher sein. Dafür braucht er in der Regel keine riesigen Kapazitäten.
Das drängendste Problem scheint aber zu sein, dass die Verbindungen zwischen Storage und GPUs oder anderen KI-Prozessoren zu langsam sind. Der Datenzugriff braucht zu viel Zeit. Das hat die Branche erkannt.
Die SNIA (Storage Industry Networking Association) hat deshalb im Herbst 2025 eine neue Initiative gegründet: Storage.ai. Das Projekt will offene Standards für effiziente Datenservices rund um KI entwickeln.
Dabei geht es beispielsweise um ineffiziente Datenpipelines. Denn viele Roundtrips zwischen Daten und Storage verschleudern Leistung und Energie. Weil es zu lange dauert, die nötigen Daten herbeizuschaffen, laufen insbesondere die teuren GPUs leer. Das treibt die Kosten sinnlos in die Höhe.
Angepeilt sind herstellerneutrale und interoperable Lösungen. Wichtige Themen sind das Tiering von Arbeitsspeicher, die Datenverlagerung, die Speichereffizienz und die systemweite Latenz. Sie soll durch die Nutzung der vorhandenen Beschleunigungsmechanismen in GPUs und anderen KI-Komponenten sinken. Das würde insgesamt zu schnelleren Ergebnissen und weniger teuren Infrastrukturen führen.
Es gibt verschiedene Teilprojekte, zu denen unter anderem die folgenden gehören:
Außerdem gibt es schon Zukunftspläne: Es sollen Mechanismen für File- und Objekttransport über RDMA und Ultra Ethernet entstehen. Mit ihnen könnten auch traditionelle Anwendungen von S3-ähnlichen Qualitäten profitieren.
GPUs sollen direkte Zugriffsmöglichkeiten auf Arbeitsspeicher und RDMA- respektive NVMe-Storage bekommen. Und GPUs sollen über einen vom Beschleuniger initiierten I/O-Mechanismus (AiSIO, Accelerator-initiated Storage I/O) komplett selbstgesteuert auf Daten zugreifen beziehungsweise sie ausgeben, etwa beim Laden oder beim Schreiben von Prüfpunkten.
Wann das alles realisiert wird, ist noch unklar. Ist dies aber der Fall, dürfte sich das Risiko, dass Speicherinfrastrukturen weiterhin KI-Umgebungen verlangsamen, erheblich verringern. Im April 2026 trifft sich die Initiative zu einem Kongress in den USA, dort werden vielleicht schon erste Arbeitsergebnisse präsentiert.
05 Febr. 2026