Deemerwha studio - stock.adobe.c

Pure Storage erweitert Produktportfolio rund um die Data Cloud

Pure Storage stellt Erweiterungen für seine Data Cloud vor. Im Fokus sind vereinfachte Migrationen, KI-Optimierungen und integrierte Cyberresilienz für einheitliches Datenmanagement.

Pure Storage stellt neue Funktionen rund um die Enterprise Data Cloud (EDC) vor. Die Plattform soll nicht nur als Speicherarchitektur, sondern als einheitliche Datenmanagementschicht dienen, die KI-Workloads unterstützt, Migrationen vereinfacht und Cyberresilienz integriert.

Architekturprinzip: Daten als gemeinsame Ebene

Die Data Cloud basiert auf drei Säulen: der Control Plane, der Unified Data Plane und der Cyberresilienz mit SLAs. Kernidee der Enterprise Data Cloud ist eine virtuelle Datenebene, die Block-, File- und Object-Daten unabhängig von Speicherort und Workload konsistent bereitstellt. Anstelle einer Trennung zwischen On-Premises-Speichern und Public-Cloud-Services arbeitet EDC als einheitliches Betriebsmodell.

Technisch bedeutet das:

  • Zentrale Steuerung aller Daten über Richtlinien und Automatisierung.
  • Integration klassischer und moderner Workloads – von monolithischen Enterprise-Anwendungen bis zu containerisierten Microservices.
  • Cyber-Resilienz auf Speicherebene als Teil der Architektur, nicht als nachträgliches Add-on.

Migration: Vorlagen und Automatisierung

Pure Storage bietet innerhalb seiner Data Cloud eine Vereinfachung von Migrationen. Dazu stehen dem Anwender vordefinierte Migrations-Templates (Vorlagen) zur Verfügung, die als Blaupausen für häufige Szenarien dienen.

Beispiele hierfür sind:

  • VMware zu Azure: Mit Pure Storage Cloud Azure Native können Workloads ohne Refactoring verschoben werden. Templates automatisieren den Ablauf, sodass Netzwerk-, Speicher- und Rechenressourcen vorkonfiguriert bereitgestellt werden.
  • Containerisierte Workloads: Über Portworx-Integrationen lassen sich Kubernetes-Anwendungen samt persistentem Storage verschieben oder klonen.
  • KubeVirt-VMs: Durch die Einbindung in Pure Fusion stehen auch Migrationen und Scale-out-Szenarien für virtuelle Maschinen in Kubernetes-Umgebungen zur Verfügung. Anwender sollen so die Option haben von VMware zu wechseln.

Diese Vorlagen sollen den operativen Aufwand erheblich reduzieren, indem sie Best Practices in standardisierte Workflows übersetzen.

Cloud-Integration: Azure Native Service

Mit Pure Storage Cloud Azure Native verfolgt der Anbieter die Strategie, Cloud-Speicher nicht als isolierte Erweiterung, sondern als gleichwertige Komponente der Enterprise Data Cloud zu etablieren.

  • Der Dienst ist vollständig im Azure-Portal verfügbar.
  • Speicher wird als Enterprise-Service bereitgestellt, mit Skalierbarkeit und Ausfallsicherheit auf Pure-Niveau.
  • Rechen- und Speicherressourcen sind entkoppelt (disaggregiert), sodass die Skalierung unabhängig voneinander erfolgen kann.

Damit adressiert Pure Storage eine Hürde vieler Unternehmen: die Verlagerung speicherintensiver VMware-Workloads in Public-Cloud-Umgebungen ohne aufwändige Anpassungen.

Automatisierung: Steuerungsebene als Kontrollzentrum

Ein weiteres wesentliches Element der EDC ist die Automatisierung von Daten- und Speicherprozessen über die Control Plane. Dazu gehören unter anderem

1. Portworx in Pure Fusion (H1 FY27): Vereinheitlicht die Verwaltung von Container- und VM-Workloads. Durch Policies können Admins Speicherpools, Performance-Garantien und Verfügbarkeitsstufen definieren, die automatisiert umgesetzt werden.

2. Pure1 AI Copilot:

  • Unterstützt nicht nur klassische Arrays, sondern auch Portworx-Cluster.
  • Über natürliche Sprache lassen sich Anfragen an die Infrastruktur stellen, zum Beispiel: „zeige langsame Pods“ oder „skaliere Storage für Cluster X“.
  • Mit der MCP-Integration (Q4 FY26) können interne Systeme wie Monitoring-Tools oder externe Analyseplattformen angebunden werden. Dadurch entsteht eine kontextbezogene Intelligenzschicht, die Log-Daten und Performancewerte kombiniert und Handlungsempfehlungen vorschlägt.

Optimierung für KI-Workloads

Da KI-Workloads hohe Anforderungen an Speicher- und Rechenressourcen stellen, legt Pure Storage den Fokus auf Effizienz und Performance und präsentiert weitere technische Optimierungen, unter anderem:

  • Key Value Accelerator + NVIDIA Dynamo (Q4 FY26): Beschleunigt Inferenz durch Caching auf Key-Value-Basis. Dies senkt Latenzzeiten in Multi-GPU-Umgebungen und verringert die GPU-Auslastung.
  • Purity Deep Reduce (H1 FY27): Neue Datenreduktions-Engine mit Ähnlichkeitsanalyse. Dadurch werden höhere Reduktionsraten erzielt, ohne Performance-Einbußen bei Trainings- oder Analysepipelines.

Zu den weiteren Optimierungen gehören auch Erweiterungen im Hardwareportfolio

FlashArray-Portfolio: Neben den neuen Modellen FlashArray//X R5 und FlashArray//C R5 wird mit FlashArray//XL 190 R5 (Q4 FY26) ein Highend-System eingeführt, das für latenzkritische KI-Anwendungen konzipiert ist.

FlashArray //XL 190 R5

Das FlashArray XL 190 stellt eine Weiterentwicklung in der Hochleistungs-Speicherproduktreihe von Pure Storage dar. Es bietet eine höhere Kapazität – etwa 25 Prozent – als frühere XL-Modelle (die bereits eine effektive Kapazität von bis zu 7,4 PB im XL170 R5 boten). Darüber hinaus verbesserte der Hersteller die Leistung im Vergleich zu Vorgängermodellen und konzipierte das Modell speziell für hochleistungsfähige Datenbank-Workloads entwickelt. So bietet es laut Herstellerangaben bis zu 200 GB/s and Datendurchsatz. Abgesehen von den Neuerungen enthält das FlashArray //190 die bereits bewährten Zuverlässigkeitsmerkmale der FlashArray-Plattform für Unternehmen, darunter:

  • SafeMod-Snapshots zum Schutz vor Ransomware
  • ActiveCluster für Wiederherstellung ohne RPO/RTO
  • ActiveDR für kontinuierliche Datenreplikation
  • Beschreibbare Klone

Das XL190 baut auf der bestehenden XL-Architektur auf, die Folgendes umfasst:

  • Unterstützung für NVMe und NVMe-oF (Fibre Channel, RoCE, TCP)
  • Unterstützung der Protokolle SMB und NFS
  • Einheitliche Block-, Datei- und Objektspeicherfunktionen

FlashArray ST-Erweiterung

Die FlashArray ST-Reihe, die vor allem für schnelle Datenverarbeitungsumgebungen wie In-Memory-Datenbanken entwickelt wurde, erhielt ebenso ein technisches Update. Dazu gehören unter anderem:

  • Neue Controller-Technologie für verbesserte Funktionen
  • Erweiterte Kapazitätsoptionen bis zu 400 TB (deutliche Steigerung gegenüber der bisherigen begrenzten Kapazität)
  • Verbesserte Leistungskennzahlen (bis zu 18 Millionen IOPS)

Das spezielle Design des Modells hat seinen Fokus auf extrem hoher Leistung und extrem niedriger Latenz. Um optimale Leistung zu gewährleisten, verzichtete der Hersteller hier bewusst auf die Integration von Datenreduktionsfunktionen und synchrone Replikation.

Diese Auslassungen sind strategische Designentscheidungen, um potenzielle Leistungsüberlastungen für bestimmte Anwendungsfälle mit hoher Nachfrage zu vermeiden, bei denen die reine Geschwindigkeit im Vordergrund steht.

FlashArray C- und X-Serie R5-Update

Die Aktualisierung der R5-Plattform umfasst das gesamte FlashArray-Portfolio (XL-, X- und C-Serie). Dabei wurden folgende Neuerungen an den Systemen vorgenommen:

  • CPUs der neuesten Generation für verbesserte Rechenleistung
  • Höhere Packungsdichte in allen Systemen
  • Verteilte NVRAM-Technologie, die jetzt in der X- und C-Serie implementiert ist (bisher exklusiv in der XL-Serie)
  • Erhöhte Modulkapaizität von 20 auf 28 Module im gleichen 3U-Gehäuse
  • Mehr Speicherkapazität bei gleichbleibender physischer Grundfläche
  • Leistungsverbesserungen durch aktualisierte CPU-Plattformen

Diese Neuerungen sollen nicht nur Kosteneffizienz (geringere Hardware- und Energiekosten) ermöglichen, sondern auch einen Beitrag zu Nachhaltigkeitszielen leisten.

Technische Architektur-Highlights

Die FlashArray-Plattform nutzt weiterhin die DirectFlash Module (DFM)-Technologie von Pure Storage, die folgendes bietet:

  • direkte Verbindung von Raw-Flash über NVMe mit dem Speicherarray
  • eine global verteilte Flash-Übersetzungsschicht anstelle einzelner SSD-Controller
  • Beseitigung von Leistungsengpässe, die bei herkömmlichen SSD-basierten All-Flash-Architekturen auftreten

Die XL-Serie verfügt insbesondere über diese Merkmale:

  • 5U-Gehäusedesign (größer als die 3U-Serien X und C)
  • Unterstützung für bis zu 40 DirectFlash-Module im Hauptgehäuse
  • Erweiterbarkeit mit bis zu zwei DirectFlash Shelf-Erweiterungsregalen
  • Doppelt so viele Host-I/O-Ports im Vergleich zu FlashArray//X (bis zu 36 Ports pro Controller)
  • Mehrere 100-GbE-RDMA-Konnektivitätsoptionen
  • Unterstützung für einheitlichen Block-, Datei- und Objektspeicher

Diese Updates sollen das kontinuierliche Bestreben von Pure Storage verdeutlichen, hochleistungsfähige, skalierbare Speicherlösungen für Unternehmens-Workloads wie Datenbanken, Virtualisierung und KI-Anwendungen bereitzustellen.

Cyberresilienz: Erkennung, Prävention und Recovery

Neben Cloud und KI legt Pure Storage großen Wert auf die Sicherheitsebene der Enterprise Data Cloud. Hierbei wird die Speicherplattform aktiv in die Bedrohungserkennung und -abwehr eingebunden.

Erkennung und Prävention

CrowdStrike-Integration (Q3 FY26): Einbindung von Speicherereignissen in Falcon Next-Gen SIEM für Echtzeit-Analysen und automatisierte Abwehrmaßnahmen.

Superna Data Security Essentials (bereits verfügbar): Echtzeit-Überwachung von Datei- und Benutzeraktivitäten mit automatischer Reaktion auf Angriffe (z. B. Exfiltration, Ransomware).

Recovery und Business Continuity

Cyber Resilience as a Service mit Veeam (Q4 FY26) soll Recovery as Service mit Automatisierung, SLAs und Cloud-ähnlichem Nutzungsmodell bereitstellen. Darüber hinaus ist geplant, mit Pure Protect Recovery Zones (Q1 FY27) isolierte Wiederherstellungsumgebungen (IREs) offerieren, die Tests und Recovery-Prozesse von der Produktionsumgebung trennen. Somit wird eine weitere Sicherheitszone eingeführt, bevor Datenwiederherstellungen in der produktiven Umgebung ausgerollt werden. Das verhindert zusätzlich, dass kompromittierte Daten in die neue Umgebung gelangen.

Diese Resilienzmechanismen sind: Wiederherstellungsmethoden passen sich dynamisch an Szenarien wie Ransomware-Angriffe, Insider-Bedrohungen oder menschliche Fehler an.

Fazit

Die Weiterentwicklung der Enterprise Data Cloud zeigt, dass Pure Storage sich von einem klassischen Storage-Anbieter hin zu einem Anbieter einer vollwertigen Datenplattform bewegt. Die Kombination aus verschiedenen Komponenten macht die EDC zu einem strategischen Baustein für Unternehmen, die Daten als Kernressource für Analytik, Automatisierung und KI verstehen.

Diese Komponenten sind:

  • Migrationserleichterungen durch Templates und Cloud-native Integration,
  • Automatisierung durch Portworx und AI Copilot,
  • Optimierung für KI-Workloads sowie
  • integrierter Cyberresilienz

Mit seiner Data-Cloud-Lösung positioniert sich Pure Storage in einem derzeit stark umkämpfen und auch noch in der Entwicklung befindlichen Marktsegment. Hier konkurrieren unter anderem Nutanix Data Platform, HPE GreenLake, IBM Cloud Private oder Dell Private Cloud.

Erfahren Sie mehr über Backup-Lösungen und Tools