So können KMUs ihren Speicher in der Public Cloud aufbauen

Der Technologiebedarf kleiner und mittlerer Unternehmen ist weniger anspruchsvoll als bei großen Unternehmen, aber enorm wichtig. Eine Schlüsselkomponente ist die Speicherumgebung.

Sprach man in der Vergangenheit von Speicherumgebungen für KMU (kleine und mittlere Unternehmen) waren typischerweise verkleinerte Versionen der Enterprise-Storage-Lösungen gemeint. Heute leben wir in einer Zeit, in der Cloud Storage eine zunehmend rentable Option ist. Dies ist besonders relevant für KMU, die nicht über die Ressourcen einer IT-Abteilung größerer Unternehmen verfügen.

Welche Möglichkeiten gibt es also, wie KMU auf Cloud Storage umsteigen können? Die Nutzung der Cloud führt zu Budgets für die Betriebskosten und kann die Investitionskosten für den Kauf und die Wartung von Speicherhardware erheblich senken. Wo können diese Vorteile am besten eingesetzt werden?

Public Cloud funktioniert gut mit sekundären Daten, wie Backups. Auch die Speicherung von Dateien für Home-Verzeichnisse und gemeinsame Daten kann ein guter Anwendungsfall für Cloud Storage sein, obwohl Sicherheitsfragen einige Überlegungen und Planungen erfordern.

Herkömmliche Kernanwendungen (wie Datenbanken, ERP) sind wahrscheinlich am schwierigsten in Cloud-Speicher zu integrieren. Eine hyperkonvergente Infrastruktur am Standort des Unternehmen könnte sehr gut passen, weil dann der Bedarf an SAN-Speicher und den damit verbundenen Fähigkeiten wegfällt, aber für KMU, die ihre Speicherinfrastruktur modernisieren wollen, gibt es zahlreiche Möglichkeiten, von Cloud-Speicherangeboten zu profitieren und diese mit den IT-Systemen vor Ort zu kombinieren. In diesem Artikel werden wir einen Blick auf einige Lösungsansätze werfen.

Primärspeicher und Sekundärspeicher: Strukturiert und unstrukturiert

Im typischen Fall gliedert sich der Speicherbedarf in zwei Hauptbereiche. Der Primärspeicher definiert die Anforderungen an die Produktions-Workloads. Das sind die Lösungen und Daten, ohne die das Unternehmen nicht arbeiten kann. Sekundärspeicher bezeichnet alles, was keine Produktionsdaten sind, also kann es alles sein, was derzeit nicht verwendet wird. Die nächste wesentliche Unterscheidung besteht in strukturierten und unstrukturierten Daten.

Strukturierte Daten sind Daten, die in einem Datenmodell gespeichert sind, wie beispielsweise Datenbanken, die ERP, Transaktionsverarbeitung oder Websites steuern. Transaktionale Systeme werden typischerweise auf blockorientierten Speicherlösungen wie SANs eingesetzt, da die Lösungen latenzsensitiv sind, also auf Verzögerungen im Datenzugriff empfindlich reagieren.

Unstrukturierte Daten sind alles, was nicht in ein datenbankgestütztes Modell fällt, so dass sie fast alles sein können, von Office-Dokumenten über Bilder bis hin zu Streaming-Videos, obwohl diese Daten oft Metadaten-Header enthalten, die abgefragt werden können und somit effektiv halbstrukturierte Daten darstellen. Unstrukturierte Daten, ob primär oder sekundär, werden oft in NAS mit Dateizugriff oder über einen Objektspeicher aufbewahrt. So werden wir bei den KMU Anforderungen an Block-, Datei- und Objektprotokolle sehen. Kein Wunder, dass sich die Anbieter von Public Clouds darauf eingestellt haben, jedes Protokoll in ihren Speicherportfolios anzubieten.

Blockspeicher und Cloud

In der Public Cloud ist der Blockspeicher in der Regel nur über lokale virtuelle Recheninstanzen zugänglich. Dafür gibt es zwei wesentliche Gründe. Erstens benötigen virtuelle Instanzen Blockspeicher für Boot- und lokale Datenlaufwerke. Diese werden in der Regel in virtuellen Umgebungen innerhalb des Hypervisors, der die virtuellen Instanzen ausführt, implementiert. Das zweite Problem ist die Leistung. Blockbasierte Speicher und Anwendungen sind latenzempfindlich, insbesondere für die Reaktionszeit einzelner Ein-/Ausgaben.

In der Zwischenzeit kann der lokale Shared Storage – wie beispielsweise in einem SAN – Reaktionszeiten von weniger als 10 Millisekunden bei Hybrid-Arrays bieten, während diese bei All-Flash-Systemen typisch sind. Wenn also ein kleineres Unternehmen sowohl Blockspeicher als auch die Public Cloud nutzen möchte, wie ist dies dann zu bewerkstelligen? Eine Lösung ist die Verwendung eines Storage-Gateways. Dies sind Hardware- und Software-Appliances, die im lokalen Rechenzentrum vorhanden sind und Blockspeicher lokal über Protokolle wie iSCSI darstellen.

Daten werden regelmäßig in der Public Cloud archiviert, um eine Form der Data Protection zu bieten oder die Möglichkeit, die Kapazität vor Ort in der Cloud zu erhöhen oder zu skalieren. Es gibt Lösungen von Microsoft (StorSimple) und Amazon (Storage Gateway). Eine weitere Alternative ist es, Anwendungen in die Public Cloud zu verschieben und dort blockbasierten Cloud-Speicher zu nutzen. Dies muss wahrscheinlich Teil einer umfassenderen Strategie zur Nutzung der Public Cloud im Allgemeinen sein.

Unstrukturierte Daten

Für die Verwaltung unstrukturierter Daten gibt es zwei Möglichkeiten. Der erste ist die Verwendung von dateibasiertem Speicher in der Public Cloud und der zweite ist die Verwendung von Objektspeichern. In beiden Fällen funktionieren die beteiligten Protokolle (NFS/SMB für Dateien, HTTP für Objekte) über ein Wide-Area Network (WAN), obwohl die Dateileistung latenzempfindlich sein kann.

Die Dateiablage bietet ähnliche Funktionen wie NAS-Geräte vor Ort. Die Verwendung einer Cloud-basierten Lösung beseitigt alle Probleme des Infrastrukturmanagements, die bei der Bereitstellung von Hardware im Rechenzentrum auftreten können. Neue Dateisysteme können dynamisch erstellt und skaliert werden, vorbehaltlich der Grenzen des Angebots des Cloud-Anbieters.

Die Reife Cloud-basierter Datei-Services hat in den letzten zwölf Monaten zugenommen, da Anbieter wie NetApp ausgereifte Storage-Angebote (wie zum Beispiel die ONTAP-Umgebung) als native Cloud-Services anbieten. Eine Cloud-basierte Dateiablage kann sowohl Kosten sparen als auch Vorteile im Betriebskonzept bieten.

Plattformen wie Nasuni Primary bieten einen globalen Dateizugriff, ganz gleich, wo sich der Kunde befindet. Dies erleichtert die Implementierung von Disaster-Recovery-Konzepten, ohne dass eine teure Array-basierte Replikation oder Backups erforderlich sind.

Der globale Zugriff reduziert auch die Duplizierung von Daten, wenn Daten aus Performance- oder betrieblichen Gründen an mehrere Standorte kopiert werden. Mit Single-Instanced-Daten besteht zudem ein viel geringeres Risiko, versehentlich veraltete Inhalte zu verwenden.

Dateispeichersicherheit und Data Protection

Der Einsatz von einer Cloud-basierten Dateiablage bringt auch neue Herausforderungen mit sich. Die Offensichtlichste ist die Sicherheit.

Die verschlüsselte Übertragung von Daten über das öffentliche Netz ist eine typische, aber bei weitem nicht ideale Lösung. KMUs werden sich wahrscheinlich lokale VPNs (Virtual Private Networks) zum Cloud-Anbieter wünschen, aber das verursacht einige Kosten und steigert die Komplexität.

Die Daten sollten auch im Ruhezustand in der Public Cloud mit vom Kunden generierten Schlüsseln verschlüsselt werden, um zusätzlich Sicherheit zu gewährleisten. Vor-Ort-Dateiservices benötigen weiterhin die gleiche operative Verwaltungsebene wie Vor-Ort-Systeme. Sicherheit ist also ein Thema, das die Verschlüsselung während der Übertragung und während der Speicherung umfasst.

Ein weiterer Schwerpunkt liegt auf der Verwaltung von Anmeldeinformationen, und einige Anbieter bieten die Integration mit Active Directory und LDAP an. Denken Sie schlussendlich daran, dass Daten in der Public Cloud standardmäßig nicht gesichert werden. Anbieter von Public-Cloud-Diensten verpflichten sich zu Service Level Agreements für die Betriebszeit, aber jede Sicherung wird nur dann durchgeführt, wenn der Dienst wieder online ist.

Die Verwendung einer Cloud-basierten Lösung beseitigt alle Probleme des Infrastruktur-Managements, die bei der Bereitstellung von Hardware im Rechenzentrum auftreten können.

Der Cloud-Anbieter stellt versehentlich oder böswillig gelöschte Daten nicht wieder her, daher sollten Sie sich auch mit Cloud-to-Cloud-Backups befassen.

Objektspeicherung

Als unstrukturiertes Speicherprotokoll bietet die Objektspeicherung eine hervorragende Möglichkeit, große Datenmengen zu einem kostengünstigen Preis zu speichern.

Objekte sind einfach Dateien, die von wenigen Kilobyte bis hin zu Multi-Gigabyte groß sein können und normalerweise in großen logischen Containern wie Buckets (in AWS) gespeichert werden.

Die Objektspeicherung verwendet HTTP als zugrunde liegendes Protokoll, wobei die Anforderungen über REST-APIs ausgegeben werden. Infolgedessen ist jede Objektspeicheranforderung praktisch ein unabhängiges Ereignis, so dass Funktionen wie Dateisperren nicht angeboten werden.

Die Objektspeicherung eignet sich gut für den Streaming-Zugriff oder die groß angelegte Verarbeitung einer großen Anzahl von Dateien (zum Beispiel Analytik).

KMUs könnten Objektablagen für Inhalte verwenden, die sich nur selten ändern (Dokumentenablagen, Bibliotheken für Video- und Audiomedienschulungen) oder bei denen das gesamte Objekt bei jeder Aktualisierung oder Änderung ersetzt wird.

Kosteneffizienz

Cloud-Service-Provider bieten Funktionen zur Optimierung der Platzierung von Daten auf der Grundlage vordefinierter Richtlinien. Der Kunde kann beispielsweise einen Prozess einrichten, um weniger häufig abgerufene Inhalte auf AWS Glacier als Cold Storage zu verlagern.

Die Kosteneinsparungen können erheblich sein, obwohl es Einschränkungen beim Zugriff auf so genannte kalte Daten gibt. Backups und Archive eignen sich hervorragend für die Platzierung in Objektspeichern mit richtlinienbasiertem Tiering.

Ein Wort der Warnung, wenn man sich die Objektspeicher ansieht. Das Datenvolumen kann aus zwei Hauptgründen deutlich zunehmen:

  1. Wenn frühere Versionen von Dateien aufbewahrt werden müssen, wird jedes Objekt zum vollen Preis berechnet (obwohl sie nach den Richtlinien für kostengünstigere Speicherung gestaffelt werden können).
  2. Cloud-Anbieter geben keinen der Vorteile interner Speicherfunktionen wie Datendeduplizierung. Im schlimmsten Fall würden zwei Versionen einer 10-GB-Datei, die sich nur um ein einzelnes Byte unterscheiden, eine 20-GB-Ladevorgang verursachen

Data Protection

Ein großer Nutzen von Public Cloud Storage ist die Data Protection. Objektspeicher, wie bereits besprochen, bieten kostengünstige Langzeitspeicher mit praktisch unbegrenzter Kapazität. Das kann gut als Zielort für ein Backup funktionieren. Objektprotokolle eignen sich auch gut für das Streaming von Backup-Daten.

Mit Daten an einem zentralen Standort kann die Wiederherstellung von mehreren Standorten aus erfolgen, wobei Cloud-Anbieter die Möglichkeit bieten, Daten zwischen ihren Rechenzentren und geografischen Standorten zu replizieren. Die Verwendung von Objektspeichern für Backups wird jedoch nicht in der Lage sein, die Vorteile der nativen Datendeduplizierung auszuspielen. Dies muss von der Backup-Software übernommen werden, da sonst die Kosten für die Erstellung vieler ähnlicher Backups sehr hoch werden könnten.

Marktplatz

Schlussendlich sollten wir nicht vergessen, dass viele Anbieter von Cloud-basiertem Speicherplatz mehrere Versionen ihrer Hard- und Softwarelösungen anbieten. Anstatt auf neue Hardware zu aktualisieren, entsteht daraus die Möglichkeit, auf ein Cloud-Betriebsmodell umzusteigen und den Hardware-Footprint vor Ort zu reduzieren.

Nächste Schritte

Disaster-Recovery-Strategie: Pivate und Public Cloud sinnvoll nutzen

Verschiedene Data-Protection-Methoden im Überblick

Multi Cloud: Auf diese 5 Dinge müssen Sie beim Disaster Recovery grundsätzlich achten

Erfahren Sie mehr über Cloud Storage

ComputerWeekly.de
Close