Mongta Studio - stock.adobe.com

Warum Backups allein heute nicht mehr ausreichen

Eine Backup-Strategie kombiniert mit Continuous Data Protection bietet mehr Sicherheit, eine schnellere Wiederherstellung und weniger Datenverlust. Firmen sollten hier umdenken.

Für jede Organisation ist es nach einem Cyberangriff wichtig, dass der IT-Betrieb so schnell wie möglich wieder aufgenommen werden kann. Um widerstandsfähiger zu werden, müssen Unternehmen über gängige Backup-Regeln hinausblicken und sich gleichzeitig auf die Geschwindigkeit der Wiederherstellung ihrer kritischsten Anwendungen konzentrieren. Die Kombination klassischer periodischer Backup-Methoden mit kontinuierlicher Datensicherung mittels CDP (Continuous Data Protection) bietet IT-Abteilungen mehr Sicherheit und eine wesentlich schnellere Wiederherstellung bei Ausfällen ihrer IT-Infrastruktur, wie etwa bei einem Ransomware-Angriff.

Um sich gegen Datenverlust jeder Art abzusichern, nutzen Unternehmen seit jeher Backups für ihre Daten. Über die Jahrzehnte hat sich die heute weithin genutzte 3-2-1-1-Backup-Regel etabliert: Es gibt 3 Kopien der Daten auf zwei verschiedenen Medientypen, davon eine Kopie Offsite und eine Kopie Offline. Mit dieser Strategie zur Datensicherung sind Unternehmen bisher relativ gut und sicher gefahren. Doch das scheinbar Bewährte ist in Zeiten dynamischer Angriffsvektoren und immer gewiefteren Angriffen, wie etwa Ransomware, nicht mehr ausreichend. Dies erfordert, dass konventionelle und bisher ausreichende Verfahren angepasst werden müssen.

Wiederherstellung von kritischen Anwendungen kann Tage bis Wochen dauern

Idealerweise sind die Abwehrmaßnahmen eines Unternehmens so gut, dass es erst gar nicht Opfer einer erfolgreichen Ransomware-Attacke wird. Die tägliche Berichterstattung über erfolgreiche Angriffe zeigt jedoch, dass es keine hundertprozentige Prävention gibt. Somit sollten Unternehmen auf die zweitbeste Abwehr setzen: Im Falle eines erfolgreichen Angriffs sollten die Systeme sehr schnell wieder nutzbar sein. In der Realität ist eine schnelle Wiederherstellung für die meisten Unternehmen jedoch alles andere als einfach, da viele Unternehmen oft auch für ihre kritischen Anwendungen auf veraltete Backup-Technologien setzen. Während dies bei sehr kleinen Umgebungen vielleicht gerade noch „gut genug“ ist, kann die Wiederaufnahme des Betriebs bei größeren Umgebungen jedoch schnell Tage oder Wochen beanspruchen, was einen gigantischen finanziellen Schaden verursachen kann.

Die Wiederherstellung eines Servers ist nicht das gleiche wie die Wiederherstellung einer komplexen Anwendung mit verschiedenen Servern

Das grundlegende Problem bei der Wiederherstellung liegt im Unterschied zwischen Anwendungen und Servern. Legacy-Backup-Tools schützen nur einzelne Server. Eventuell lassen sich zwar Servergruppen bilden, dennoch wird innerhalb des Backup-Jobs jeder Server einzeln zu einem anderen Zeitpunkt geschützt. Damit ist das Problem bei der Wiederherstellung schon zum Zeitpunkt des Backups vordefiniert: Wenn der Backup-Administrator mit dem Restore der Server fertig ist, geht die eigentliche Arbeit erst richtig los. Denn jetzt muss man aus der Ansammlung einzelner VMs wieder eine funktionierende Anwendung schaffen. Dazu sind je nach Anwendung unterschiedliche Verfahren notwendig, die meist nur sehr wenige Personen im Unternehmen durchführen können beziehungsweise dürfen. Der Prozess, eine komplette Anwendung wiederherzustellen umfasst die Zeitspanne RTO + WRT (Recovery Time Objective + Work Recovery Time).

Dieser komplette Prozess kann je nach Größe und Komplexität der wiederherzustellenden Anwendungen einige Stunden in Anspruch nehmen. Und genau hier liegt das Problem, wenn durch einen Ransomware-Angriff sämtliche Applikationen eines Unternehmens lahmgelegt werden. Die Anzahl der Mitarbeiter, die imstande sind, Daten wiederherzustellen und Anwendungen neu zu starten, ist sehr gering. Man kann sich leicht ausrechnen, wie lange es dauern würde, 200 kritische Anwendungen wiederherzustellen, wenn die mittlere Wiederherstellungszeit pro Anwendung sechs Stunden beträgt und zwei Teams mit den nötigen Kenntnissen und Berechtigungen zur Verfügung stehen und 18 Stunden am Tag arbeiten: exakt 33 Tage. Genau dieser Problematik sind sich erschreckend wenige Unternehmen bewusst. Sie lernen die Eigendynamik eines solchen Systems erst im Ernstfall kennen – leider meist erst dann, wenn es bereits zu spät ist.

Hohe Datenverluste und Administrationsaufwände sowie eine eingeschränkte Skalierbarkeit stellen weitere Probleme dar

Vom magnetischen Tape-Storage der 1950er bis zum modernen Cloud-Backup haben sich die Ansätze des traditionellen Backups in den letzten Jahrzehnten überraschenderweise fast nicht verändert: Daten werden in festgelegten Intervallen auf einen zweiten Datenträger oder Datenstandort kopiert. Diese periodische Natur traditioneller Backups ist auch ihre Achillesverse: Wird ein Backup beispielsweise nur einmal am Tag, also alle 24 Stunden gezogen, so kann dies bei einem Ausfall durch Ransomware oder Umweltkatastrophen, schlimmstenfalls zu Datenverlust von ebenso 24 Stunden führen. Periodische Backups kosten darüber hinaus viel Zeit und bedeuten in der Regel starke Performance-Einbußen für das System. Sie sind von Natur aus wenig granular und deshalb sehr schnell veraltet. Auch die Verwaltung der Backups ist oft eine komplexe und ressourcenintensive Aufgabe, bei der dedizierte Systeme und Hilfslösungen wie Backup-Proxys oder Media Agents zum Einsatz kommen. Doch wie schafft man es, das grundlegende Problem des traditionellen Backup-Ansatzes zu eliminieren und kürzere Wiederherstellungszeiten zu erreichen?

Kürzere Wiederherstellungszeiten werden durch neue Technologie-Ansätze ermöglicht

Für einen unterbrechungsfreien Applikations-Betrieb mit sehr kurzen Wiederherstellungszeiten benötigen digital führende Unternehmen anstatt des periodischen Ansatzes eine kontinuierliche Datensicherung, die in Echtzeit arbeitet. Diese Technologie wird als Continuous Data Protection (CDP) bezeichnet. CDP repliziert nahezu synchron und speichert jede Änderung und Aktualisierung in Echtzeit. Dadurch lassen sich Datenverluste von Tagen und Stunden auf wenige Sekunden reduzieren. Nur so ist der Datenbestand nach der Sicherung auch in Echtzeit verfügbar. CDP erfasst und verfolgt Datenänderungen automatisiert. Jede Version, der vom Benutzer erstellten Daten, wird lokal oder in einem Ziel-Repository gespeichert. Mit wenig bis gar keinem Produktions-Overhead werden inkrementelle Schreibvorgänge kontinuierlich repliziert und in einer Journal-Datei abgelegt. Die Verfolgung jeder Änderung beziehungsweise jedes Blocks ermöglicht die Wiederherstellung von Daten zu jedem beliebigen Zeitpunkt mit einer enormen Granularität. Dabei spielt es keine Rolle, ob es sich um ein komplettes Rechenzentrum oder eine einzelne Datei handelt. Denn die Daten werden nicht in Intervallen von Tagen, Wochen oder Monaten gespeichert, sondern in Sekunden. CDP ermöglicht es, den Betrieb sehr schnell bis auf Sekunden vor dem Auftreten einer Störung zurückzuspielen. Dabei kann man von einer einzelnen Datei oder VM bis hin zu einem kompletten Rechenzentrum alle Anwendungen schnell und einfach mit ein paar Klicks wiederherstellen.

Wiederaufnahme des Betriebs im großen Maßstab innerhalb von Minuten dank Applikations-Gruppen

So wichtig CDP für einen geringstmöglichen Datenverlust ist, reicht es alleine leider nicht aus um den Betrieb von komplexen, verteilten Applikationen schnell wieder aufzunehmen.

Vielmehr werden hierfür Virtual Protection Groups (VPGs) benötigt, welche es ermöglichen verschiedene Komponenten einer Applikation (zum Beispiel Datenbank sowie Applikations- und Webserver) als eine einzige, absturzsichere Einheit zu gruppieren. Anders als in dem zuvor beschriebenen Backup-Ansatz, bei dem jede Komponente einen anderen Zeitstempel hat und so die Wiederherstellung um ein Vielfaches länger dauert, haben innerhalb einer VPG alle gruppierten VMs die gleichen konsistenten Zeitstempel. Mithilfe von Orchestrierung und Automatisierung lässt sich so mit wenigen Klicks ein Failover eines gesamten Standorts mit tausenden von Applikationen durchführen - ohne eine längere Unterbrechung des IT-Betriebs und der dadurch befähigten Wertschöpfung.

Fazit

CDP-basierte Disaster-Recovery-Lösungen mit Applikations-Fokus bieten eine viel schnellere Verfügbarkeit von kritischen IT-Services bei gleichzeitig weniger Datenverlust und ergänzen Backup-Lösungen wo diese alleine nicht ausreichen.

Die steigende Gefahr von Cyberattacken fordert Unternehmen heraus die Widerstandsfähigkeit ihrer IT massiv zu erhöhen. Während viele Backup-Produkte bei eher unkritischen Applikationen einen durchaus zufriedenstellenden Schutz bieten, scheitern sie bei Tier-1-Applikationen leider an den folgenden Basisanforderungen:

  1. Mit den periodischen Backups sind Datenverluste von mehreren Stunden bis Tagen im Rahmen der Backup-Intervalle vorprogrammiert.
  2. Aufgrund einer Siloperspektive auf die einzelne VM, anstatt einem konsistenten Schutz der gesamten Applikation und all ihrer Komponenten, kann die Wiederherstellung von kritischen Anwendungen oftmals Tage oder Wochen andauern.

Für kritische IT-Services, bei denen Datenverlust und Downtime einen großen Schaden anrichten, ist somit eine Erweiterung um einen Ansatz mit Continuous Data Protection und Applikations-Gruppen unausweichlich.

Über den Autor: Johannes Streibich leitet den Vertrieb bei der HPE Tochter Zerto in Zentral-, Ost- und Südeuropa und ist ein Experte in den Bereichen Cyber-Resilienz, ITSCM und Cloud Mobility. Der studierte Wirtschaftswissenschaftler begann seine IT-Laufbahn 2014 bei der SAP in München und hielt seitdem diverse Positionen bei auf diesen Schwerpunkten spezialisierten Firmen inne.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Storage Management

ComputerWeekly.de
Close