sommersby - stock.adobe.com

Cloud Storage: Experten blicken fünf Jahre in die Zukunft

Branchenexperten bewerten die wichtigsten Cloud-Storage-Entwicklungen der letzten fünf Jahre und erklären, wohin sich die Technologie in den nächsten fünf Jahren entwickeln wird.

Vor fünf Jahren war das Kernthema bei Cloud Storage ein ganz anderes als heute. In einem SearchStorage-Leitfaden aus dem Jahr 2014 mit dem Titel The case for cloud storage beschäftigten sich drei der vier darin veröffentlichten Beiträge mit Backup oder Cold Storage. Die beiden Hauptthemen, die der Leitfaden behandelte, waren die Kosten und ein sehr wichtiges Anliegen der Benutzer: Sicherheit.

Heute nutzen die meisten Unternehmen die Cloud weit über die Funktion als Speicherplatz hinaus. Viele Anwender verlagern eine ganze Reihe von Anwendungen in die Cloud.

Erstaunlich: Auch geschäftskritische Anwendungen landen in der Cloud. Laut einer aktuellen Umfrage der Taneja Group gaben mehr als die Hälfte der Befragten an, dass sie innerhalb der nächsten zwei bis drei Jahre mindestens 40 Prozent ihrer Arbeitslast als Cloud-basierte SaaS-Anwendungen (Software-as-a-Service) betreiben werden.

Natürlich stehen bei der Diskussion über die Zukunft von Cloud Storage immer noch die Kosten im Vordergrund – doch es geht eher um das Verschieben von aktiven Daten als um das bloße Speichern. Sicherheit scheint zudem heutzutage ein nicht mehr so großes Thema.

Das Gespräch rund um Cloud Storage konzentriert sich heute auf Multi-Cloud, hybride Cloud, das Aufkommen von Block Storage in der Cloud und sogar die Zurückführung von Cloud Workloads in lokale Standorte. Um ein Gefühl dafür zu bekommen, wo es langgeht, haben wir sechs Cloud-Storage-Experten nach ihrer Sichtweise auf die wesentlichen Entwicklungen der letzten fünf Jahre gefragt und wo sie die Zukunft von Cloud Storage sehen.

Was waren die wichtigsten Entwicklungen im Bereich Cloud Storage in den letzten fünf Jahren?

Jeff Byrne und Jeff Kato, Senior-Analysten der Taneja Group: Die größte Entwicklung der letzten fünf Jahre ist, dass Cloud Storage für eine Reihe von Anwendungsfällen wie Global Content Distribution, Backup, DR (Disaster Recovery) und Datenanalyse zum Mainstream geworden ist. Während Unternehmen 2014 mit der Einführung von Cloud Storage für Backup und DR von unkritischen Anwendungen begonnen hatten, sehen sie fünf Jahre später, dass Unternehmen routinemäßig Cloud Storage für Backup und DR-Support von produktiven Geschäftsanwendungen einsetzen.

Den Untersuchungen der Taneja-Gruppe zufolge verlangsamten oder verhinderten die Bedenken in Bezug auf Sicherheit, Datenschutz und die Bedrohung durch die Sperrung von Anbietern im Jahr 2014 ernsthafte Public- oder hybride Cloud-Storage-Implementierungen. Heute sind diese Bedenken kaum noch ein Hindernis.

Die Cloud-Speicherangebote sind gereift, Die Unternehmen haben Erfahrung und Vertrauen in die Bereitstellung von Sekundär- und Primärspeichern in der Cloud gewonnen.

Im Jahr 2014 waren noch lokale Rechenzentren die Architektur der Wahl. Die Cloud wurde in erster Linie für Entwicklung und Test oder sogar als experimentelle Plattform betrachtet. Heute setzt die Mehrheit der Unternehmen, mit denen wir sprechen, eine hybride Cloud-Mentalität in ihre IT-Architekturpläne auf, die regelt, wie sie Cloud Storage wahrnehmen und planen.

Wenn Unternehmensanwendungen in die Cloud wechseln, neigt die Cloud-Speicherung dazu, zu folgen, obwohl die meisten Unternehmen offen sind, wo ihre Anwendungen und Daten langfristig eingesetzt werden. Eine hybride Cloud-Architektur trägt dazu bei, diese Denkweise in die Realität umzusetzen, da Unternehmen von flexiblen Workload-Implementierungen profitieren, einschließlich der Möglichkeit, Workloads im Laufe der Zeit zwischen lokalen Rechenzentren und der Public Cloud zu verschieben.

Deepak Mohan, Analyst bei IDC: Native File Storage Services, die entweder selbst entwickelt oder durch Partnerschaften und Akquisitionen bereitgestellt werden, sind in den letzten fünf Jahren zu einem Teil aller wichtigen Public Cloud Storage-Portfolios geworden. Darüber hinaus wurden mehrere neue Stufen von kostengünstigeren Cool- und Cold-Tier-Speicheroptionen eingeführt, die den Sekundärspeicher auf Public Cloud Storage für Unternehmen immer attraktiver machen. Go-to-Market-Katalysatoren dafür sind Partnerschaften mit großen Backup-Software- und Serviceanbietern.

In den letzten fünf Jahren gab es auch eine Reihe wichtiger Partnerschaften zwischen traditionellen Marktführern für Enterprise Storage und Public Cloud-Anbietern, die eine hybride Umgebung innerhalb der bereits in Unternehmen bekannten Tools und Prozesse ermöglichen.

George Crump, Gründer und Präsident, Storage Switzerland: Der ständig sinkende Preis für Cloud Storage durch die Einführung von Archivierungsebenen von Amazon Glacier, Microsoft Blob und Googles kommendem Angebot ist eine wichtige Entwicklung. Diese Preise machen Cloud Storage zu einer potenziellen Alternative zu Band.

Die Verbesserung der Leistung der Produktionslager ist eine weitere wichtige Entwicklung in den letzten fünf Jahren. Cloud-Anbieter können leistungsstarke Speicheroptionen schneller bereitstellen als herkömmliche Rechenzentren. Ihr bedarfsgerechtes Geschäftsmodell ist auch ideal für Rechenzentren, die die Auswirkungen dieser Lösungen testen möchten.

Consultant Alastair Cooke: Die weite Verbreitung von [Amazon] S3 als de-facto-Standardlösung zum Zugriff auf Cloud-Speicher durch die Anwendungen ist die bedeutendste Entwicklung. Insbesondere die Verfügbarkeit von S3-kompatiblen Speichersystemen für den Einsatz vor Ort oder bei anderen Cloud-Anbietern ermöglicht dem Kunden die Wahl. Ob maßgeschneiderte Anwendungen mit Objektspeicherung oder gebündelter Backup-Software: die Verfügbarkeit eines allgegenwärtigen Standards für kostengünstigen, skalierbaren Speicher ermöglicht mehr Anwendungsfälle als AWS S3 ... allein jemals darstellen könnte.

Mike Matchett, Principal Consultant, Small World Big Data: Ich würde für die sich entwickelnde Verwendung von generischem Cloud Object Storage votieren, um nun den zugrunde liegenden „Chunk“-Speicher für globale verteilte Dateisysteme, aktive Archivdienste und „Cloud-konvergente“ Datenschutz-Ebenen mit lokaler Speicherung zu betreiben. Wir verfügen sowohl über eine hoch performante Objektspeicherung als auch über eine hochskalierbare Objektspeicherung.

Auch die Idee, dass alle Arten von Daten über umfangreiche Metadaten verfügen können, macht sich in den Köpfen der Anwender breit. Das ermöglicht es, Richtlinien, intelligente Automatisierung und selbstoptimierende Lösungen zu realisieren. Als unvermeidliche zweite Wahl könnte ich mir die Integration und das Angebot von Hochleistungsspeicheroptionen – zum Beispiel NVMe – in Cloud-Infrastrukturen vorstellen.

Welche Faktoren beeinflussen hinsichtlich der Zukunft von Cloud Storage welche Daten in der Cloud und welche On-Premises gespeichert werden?

Cooke: Data Governance war ein wichtiger Faktor bei der Entscheidung, welche Daten in der Cloud gespeichert werden können. Die Regulierungsbehörden holen den Stand der Public Cloud ein und beseitigen nichttechnische Hindernisse für die Einführung der Public Cloud, wodurch mehr Daten in die Public Cloud übertragen werden können. Gleichzeitig gewinnen Unternehmen ein besseres Verständnis für die Grenzen und Kosten von Public Cloud Storage.

Im Laufe der Zeit wird die Nutzung von Public Cloud Storage stärker von den Datenanforderungen bestimmt. Daten, die einen allgegenwärtigen Zugriff erfordern, landen in der Public Cloud. Langlebige Daten aus Backups und Archiven landen ebenfalls in der Public Cloud. Wir werden auch mehr Kunden sehen, die ihre massiven Datensätze zurückholen, da sie erkennen, dass es möglich ist, einen kostengünstigeren massiven Datenspeicher aufzubauen, wie es Dropbox getan hat, obwohl dies nur für wirklich massive Datensätze der Fall sein wird.

Marc Staimer, Gründer, Dragon Slayer Consulting: Da immer mehr geschäftskritische Anwendungen in die Cloud wechseln, ist ein leistungsfähigerer Speicher erforderlich. Ich erwarte, dass in der Cloud mehr skalierbarer Block- und Dateispeicher genutzt werden und die Kosten für diesen Speicher schnell sinken werden. Die Daten werden mit den Anwendungen ko-lokalisiert, die diese Daten benötigen. Wenn die Anwendung also vor Ort bleibt, erwarte ich, dass die aktiven Daten bei der Anwendung bleiben.

Andere Gründe, warum die Daten vor Ort bleiben, sind die Datenhoheit, die Datenschutzbestimmungen, die Latenzprobleme zwischen der Anwendung und den Daten und Vorschriften im Allgemeinen.

Matchett: Innerhalb von fünf Jahren werden die meisten Speicherplatzentscheidungen automatisch getroffen und ausgeführt, wenn nicht durch Richtlinien, dann durch aktive Optimierung und Lernen von Algorithmen. Man wird nicht mehr so oft bewusst Bedenken darüber haben, wo Daten letztendlich gespeichert werden. Man wird sich mehr darauf konzentrieren, Daten bereitzustellen und den Zugang zum richtigen Zeitpunkt und an dem richtigen Ort sicherzustellen – mit dem Ziel, wettbewerbsfähig zu sein.

Der Datenschutz wird immer ein großes Anliegen sein, aber er wird zunehmend in selbstoptimierende hybride Storage-Cloud-Implementierungen integriert. Wir sehen dies bereits im zunehmenden Trend, Primär- und Sekundärspeicher zu konvergieren, automatisch in Cloud-Speicherschichten zu unterteilen und einen kontinuierlichen Datenschutz über mehrere Clouds hinweg zu implementieren.

Crump: Die Art der in der Cloud gespeicherten Daten hängt vom Unternehmen ab. Es wird keine branchenspezifische Entscheidung sein, sondern vielmehr die „Persönlichkeit“ des jeweiligen Unternehmens. Die Mathematik funktioniert immer noch nicht für die langfristige Speicherung vieler Daten in der Cloud. Auch die Ausgangsgebühren und API-Anrufgebühren sind nach wie vor ein Thema.

Byrne und Kato: Unternehmen betrachten die Cloud zunehmend als strategische Infrastrukturplattform, daher erhöhen sie auch ihren Cloud-Speicherfokus, ihre Anwendungsfälle und ihr Budget. Sekundäre und tertiäre Anwendungsfälle wie Datenarchivierung, Backup und DR stehen nach wie vor im Mittelpunkt. Die Unternehmen können der Wirtschaftlichkeit und dem Komfort der Archivierung und des Schutzes ihrer Daten in der Cloud nicht widerstehen.

Der Dev/Test-Speicher wird weiter wachsen, da immer mehr Unternehmen neue Apps in der Cloud entwickeln wollen. Storage zur Unterstützung der Datenanalyse gewinnt ebenfalls an Bedeutung, da Unternehmen In-Cloud-KI, maschinelles Lernen und andere Ansätze nutzen, um ihre Analysetätigkeiten voranzutreiben.

Welche Herausforderungen sehen Sie in der Zukunft von Cloud Storage, insbesondere in den nächsten fünf Jahren?

Crump: Ich hasse es, wie eine kaputte Schallplatte zu klingen, aber all die Transaktionsgebühren, wie zum Beispiel Auslagerungsgebühren [Anm. d. Red.: also die Preise für die Rückübertragung aus einer Cloud auf eine Infrastruktur im eigenen Hause oder bei einem anderen Anbieter], sind ein Problem. Das größte Problem ist für viele Unternehmen, ihre monatliche Rechnung vom Anbieter zu verstehen.

Eine weitere Herausforderung besteht darin, den Cloud-Speicherverbrauch genau zu messen und sicherzustellen, dass Sie Ihren Kapazitätsbedarf so schnell wie möglich reduzieren. Die Cloud verspricht ein einfaches Scale-Up- und Scale-Down-Modell, aber nur wenige Unternehmen können ihre Auslastung reduzieren.

Unternehmen haben es schwer, ihre Speicher-Ressourcen zu optimieren und die damit verbundenen Kosten zu managen, wenn sie Speicherplatz in den Räumlichkeiten und in einer oder mehreren Public Clouds bereitstellen.

Cooke: Eine große Herausforderung bleibt der Wechsel von einer Capex-basierten lokalen Speicherbereitstellung zu einer Opex-basierten Public Cloud. Budgetzyklen sind in der Regel noch immer an das Haushaltsjahr eines Unternehmens gebunden und erwarten einen festen Preis für die Infrastruktur.

Die Nutzung von Public Cloud-Ressourcen führt häufig zu einer variablen Rechnung und bei der Speicherung oft zu einer mit der Zeit steigenden Rechnung. Es gibt immer noch Unternehmen, die Public Cloud Storage nicht einsetzen können, weil sie an einen festen jährlichen Budgetzyklus gebunden sind und das Risiko einer variablen monatlichen Rechnung nicht akzeptieren können.

Byrne und Kato: Wir gehen davon aus, dass Unternehmen die Cross-Cloud-Datenbewegung und -Migration zumindest kurzfristig als schwierig empfinden werden. Kompatibilitätsprobleme und hohe Auslagerungskosten hindern Kunden daran, wirklich nahtlose, Pan-Cloud-basierte Storage-Implementierungen zu erreichen.

Unternehmen haben es schwer, ihre Speicherressourcen zu optimieren und die damit verbundenen Kosten zu managen, wenn sie Speicherplatz in den Räumlichkeiten und in einer oder mehreren Public Clouds bereitstellen. Diese Herausforderung wird nur noch größer werden, wenn sich die Branche weiter in Richtung Hybrid- und Multi-Cloud bewegt.

Firmen werden zunehmend Bedarfe für eine dynamische, richtlinienbasierte Datenverlagerung erfahren. Nur so können die lokale Speicherung und die Einhaltung gesetzlicher Vorschriften die erforderliche Leistung erreichen. Diese Bedarfe werden heute bei weitem nicht befriedigt. Kunden stehen immer öfter vor der Herausforderung, ihre Primär- und Sekundärspeicher über Clouds hinweg bereitzustellen und auszuführen, die über kein einheitliches Set an Daten- und Metadatendiensten verfügen.

Nächste Schritte

Die Vorteile hybriden Cloud Storage kennen und nutzen

So lassen sich Public und Private Cloud Storage verbinden

Warum sich Cloud Storage für Firmen lohnt

Erfahren Sie mehr über Cloud Storage

ComputerWeekly.de
Close