bluebay2014 - stock.adobe.com

Daten in der Cloud: Die Datengravitation überwinden

Der erste Schritt in die Cloud ist leicht. Doch je mehr Daten sich in einer Infrastruktur befinden, desto schwerer ist die Migration in eine andere Umgebung.

Cloud First lautet das Motto der meisten Applikationsentwickler in Deutschland. Untersuchungen von Veritas zufolge nutzen bereits drei Viertel (75 Prozent) der Unternehmen hierzulande die Dienste eines Providers, 67 Prozent haben zwei und 42 Prozent sogar drei Cloud-Dienstleister unter Vertrag. Der Vorteil: Sollen neue Anwendungen oder Dienste ausgerollt werden, können Softwareentwickler neue Cloud-Ressourcen schnell hinzubuchen.

Das gibt ihnen einerseits große Freiheit, andererseits bringen solche Prozesse eine gewisse Schwere mit sich: Denn je länger die Anwendungen oder Services laufen, desto mehr Daten existieren, die in der jeweiligen Cloud-Umgebung gespeichert sind. In Multi-Cloud-Umgebungen entstehen voneinander isolierte Datenquellen. Nutzen Unternehmen dagegen mehrere Dienstmodule von einem Anbieter, hosten sie dort auch mehr Daten. So geraten sie in Abhängigkeit von eben diesem Provider.

Die Folge ist der Effekt der Datengravitation. Das bedeutet, dass die eigenen Terra- oder Petabytes an Daten eine Schwerkraft erzeugen, die ein Unternehmen nur mit größerem Kraftaufwand überwinden kann. Das Bild ganzer Lastwagen voll mit Speichern, mit denen Cloud-Provider inzwischen Daten neugewonnener Kunden bei den Rechenzentren der Konkurrenten abholen, ist mittlerweile bekannt. Weil eine Übertragung per WAN-Leitung Jahre dauern würde, ist der physische Datentransfer bislang die einzige Möglichkeit.

Komplexität der IT-Infrastruktur

Eine weitere Folge der neugewonnenen Freiheit: Bestimmte Abteilungen buchen unautorisiert Dienste hinzu. So landen Firmendaten auf externen Ressourcen, ungeprüft und ohne, dass wichtige Vorgaben für Compliance und Sicherheit der Daten durchgesetzt werden. Diese Dokumente geraten aus dem Sichtfeld der IT-Verantwortlichen – ein großes Risiko in Zeiten der EU-DSGVO. Je komplexer die Anwendungsstrukturen und je mehr unterschiedliche Ressourcentypen und Cloud-Arten gekoppelt werden, desto schneller geht der Überblick verloren, wie die einzelnen Elemente interagieren und auf welche Daten und Dienste sie zugreifen.

Die Provider ihrerseits liefern eigene Management- und Performance Tools mit, die oft an den Grenzen ihrer Cloud halt machen. Ein Gesamtblick auf die Multi-Cloud fehlt, wodurch die Komplexität und die Unvorhersehbarkeit der Umgebung wachsen.

Datengravitation überwinden

Es fällt Unternehmen schwerer, Applikationen zu migrieren und zu modernisieren, wenn Daten auf viele Orte verteilt sind. Dennoch müssen sie sich den wichtigen Fragen der Sicherheit, Compliance und des Datenmanagements stellen. Dafür haben sich mehrere Best Practices auf dem Markt etabliert.

Im ersten und wichtigsten Schritt gilt es, den Überblick zurückzugewinnen, auf welchen Ressourcen sich geschäftskritische Informationen und Anwendungen befinden. Das umfasst lokale Ressourcen genauso wie Private und Public Clouds. Als Nächstes sollte der Grad der Datengravitation ermittelt werden. Von wie vielen Daten ist die Rede? An welche Dienste sind sie gebunden? Wie haben sie sich in den vergangenen Monaten und Jahren entwickelt?

Anhand dieser Basiswerte lässt sich gut nachvollziehen, in welchen Bereichen die Gravitation der Daten bereits besonders stark ist. Diese Bereiche werden bei jeder Migration Probleme bereiten. Es kann sogar Datenquellen im Unternehmen geben, die sich aus technischer Sicht überhaupt nicht mehr migrieren lassen, weil deren Architektur es nicht zulässt. Dabei sollte man die Abhängigkeiten der Datenquellen und Applikationen untereinander auf jeden Fall berücksichtigen.

Wer seine Datenquellen und deren Gewicht kennt, kann im dritten Schritt prüfen, ob sich der Datenberg abtragen lässt. Dazu müssen die Daten auf ihren Inhalt hin untersucht und je nach Geschäftswert klassifiziert werden. Anhand dieser Metadaten werden die Informationen konsistent gruppiert und mögliche Effekte der Datengravitation lassen sich im Idealfall besser eindämmen. Und sei es, indem als unwichtig deklarierte Daten risikofrei gelöscht werden, bevor man sie migriert. Das senkt die Kosten für unnötigen Speicherplatz und verkürzt die Dauer der Migration.

Mathias Wenig, Veritas Technologies

„Um in der modernen Welt der Multi-Cloud seine Freiheit zu behalten, ist es wichtig, die Gravitationseffekte der Daten soweit es geht einzudämmen.“

Mathias Wenig, Veritas Technologies

Damit ein Datenmanagement diese einheitliche Kategorisierung schaffen kann, muss es auf die zahlreichen Datenquellen und unterschiedliche Applikations- und Storage-Systeme zugreifen können – heute sind das schnell mehr als 500 Datenquellen und über 150 Speicherziele, dazu zählen Angebote von mehr als 60 Cloud-Anbietern. Die IT-Verantwortlichen sollte daher darauf achten, dass ihre Datenmanagement-Tools alle diese Systeme unterstützen.

Unabhängige Kategorien

Der stärkste Ansatz, um den Wert der Daten einheitlich zu ermitteln, ist die automatische Klassifizierung der Daten. Moderne Varianten dieser Technik nutzen mehrere Hundert klare technische Indikatoren, die eindeutige inhaltliche Merkmale in den Daten erkennen und sie entsprechend und vor allem fehlerfrei automatisch mit sogenannten Tags kategorisieren. Die Technik greift auf Algorithmen aus den Bereichen Machine Learning und Artificial Intelligence zu, um möglichst genaue Resultate zu liefern. Dank der Automatismen lassen sich zum Beispiel auch personenbezogene Daten als solche erkennen – eine essenzielle Voraussetzung, um diese in der Cloud zu finden und entsprechend besser schützen zu können.

Um in der modernen Welt der Multi-Cloud seine Freiheit zu behalten, ist es also wichtig, die Gravitationseffekte der Daten soweit es geht einzudämmen. Ein modernes Datenmanagement, das alle Datenquellen lokal und in der Cloud abdeckt, wird immens wichtig, um diese Freiheit zu verteidigen. Denn es liefert wichtiges Wissen zu den Daten, ihrem Wert und ihren Abhängigkeiten. Damit ist es die Grundlage für kluge, auf Fakten basierende Entscheidungen, wie die Daten und Applikationen sicher und effektiv zu migrieren sind.

Über den Autor:
Mathias Wenig ist Senior Technical Sales und Digital Transformation Specialist DACH bei Veritas Technologies. Zusammen mit seinem Team aus technischen Sales Engineers in Deutschland, Österreich und der Schweiz hilft er Kunden jeder Größe dabei, ihre Cloud-Strategie weiterzuentwickeln, ihre Rechenzentren zu modernisieren, ihr Geschäft durch kluges Datenmanagement schneller zu digitalisieren und mehr Nutzen aus ihren Daten zu generieren.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder und entsprechen nicht unbedingt denen von ComputerWeekly.de.

Nächste Schritte

SaaS-Daten mit Cloud-to-Cloud-Backup schützen.

Verschlüsselung und Zugriffskontrolle: Cloud-Daten schützen.

Wie löscht Google eigentlich Daten in der Cloud?

Erfahren Sie mehr über Big Data

ComputerWeekly.de
Close