kwarkot - stock.adobe.com

Sichere Backup-Strategien für Hyper-V- und VMware-Umgebungen

Beim Backup virtueller Maschinen sollten Admins über den Tellerrand gucken: Um Hyper-V/VMware-Umgebungen lückenlos abzusichern, empfiehlt sich eine umfassende Sicherungsstrategie.

Als Bordlösung von Windows 10 und 11 ist der Einsatz von Microsofts Hyper-V nah am De-facto-Standard – zusammen mit der Virtualisierungsplattform VMware. Beide Technologien haben inzwischen einen hohen Reifegrad erreicht. Beim Backup virtueller Maschinen sollten Admins jedoch die Extrameile gehen: Um Hyper-V/VMware-Umgebungen lückenlos abzusichern, empfiehlt sich eine umfassende Sicherungsstrategie.

Die Vorteile einer Hyper-V/VMware-Virtualisierung gehören inzwischen zum Basiswissen jedes Informatikstudenten: die Portabilität von VM-Anwendungen zwischen physischen Servern, das zentrale und bequeme Management von Anwendungen, die Gestaltung bedarfsgerechter virtueller Umgebungen, Einsparpotenziale und eine Erweiterung der Speicherkapazitäten sowie die schnelle und unkomplizierte Integration mit anderen Services.

Wir blicken auf effiziente, zugleich aber auch heterogene Infrastrukturen, die nicht vor Verschleiß, Fehlfunktionen, Anwendungsfehlern oder Cyberattacken gefeit sind. Eine solide Backup-Lösung für Hyper-V- und VMware-Systeme muss deshalb drei Kriterien erfüllen: 24/7-Datenschutz, hohe Performance – und natürlich Kosteneffizienz.

Richtiges Timing schützt Geschäftsprozesse

Sollte es zu einem Zwischenfall kommen, bei dem die Sicherheit von Daten auf dem Spiel steht, können Unternehmen keine langen Ausfallzeiten (downtime) in Kauf nehmen. Jede Minute, in der das operative Geschäft zum Stillstand kommt, kostet Geld. Und dennoch muss zu jedem Zeitpunkt gewährleistet sein, dass bei Attacken, technischen Problemen oder unbeabsichtigten Datenlöschungen die Datenverluste so gering wie möglich gehalten werden – oder idealerweise gar nicht erst entstehen.

Eine effektive Strategie zur Datensicherung muss beide Faktoren berücksichtigen: Business Continuity und maximalen Datenschutz. Der richtige Zeitpunkt und optimal angepasste Speicherintervalle sind deshalb grundlegend für Backup-Prozesse, die im Ernstfall zuverlässig greifen müssen. Darüber hinaus sollte jedes Unternehmen ein realistisches Bild davon haben, welche Backup-Strategie den Anforderungen ihrer produktiven Datenlandschaft und ihren Geschäftsprozessen entspricht.

So hängt beispielsweise die Frequenz der Backups davon ab, wie viele Daten überhaupt generiert werden, wie oft sie sich verändern und wie kritisch Daten für das Tagesgeschäft sind. Aus dieser Betrachtung lässt sich auch ableiten, welche Datenverluste ein Unternehmen zur Not in Kauf nehmen kann. Kann keinerlei Datenverlust toleriert werden, so ist dies hochgradig kritisch und erfordert engmaschige und damit natürlich auch aufwändigere Backup-Szenarien.

Backup-Rotation: Von Großvätern und Söhnen

Das Ziel eines jeden Backups liegt darin, Daten aus jedem beliebigen Zeitpunkt in der Vergangenheit wieder herstellen zu können. Doch selbst mit speicherfreundlichen Techniken wie fortlaufend inkrementellen Backups, synthetischen Backups oder Datenkomprimierung ist der physische Speicherplatz irgendwann voll. Unbegrenzter Speicherplatz ist in erste Linie eine Kostenfrage, die sich nur wenige Unternehmen leisten können. Deshalb braucht es alternative Methoden für die Backup-Speicherung.

Wir empfehlen die Definition von klaren Speicherregelungen in Form einer Backup Retention Policy in Verbindung mit einem durchdachten Rotationskonzept für die Backups.

Ein bewährtes Backup Retention Scheme ist das so genannte Grandfather-Father-Son (GFS)-System. Im Rahmen von GFS wird festgelegt, wie viele Backups pro Tag, Woche, Monat und Jahr behalten und in welchem Turnus diese Backups rotiert werden. Das G (= Grandfather) steht bei dieser Methode für ein komplettes Backup, das einmal pro Monat durchgeführt wird. F (= Father) ist ebenfalls ein vollumfängliches Backup, allerdings im Wochentakt. S (= Son) hingegen ist ein inkrementelles Backup, das jeden Tag realisiert wird.

Nach diesem Prinzip werden alte Son-Backups wöchentlich, alte Father-Backups monatlich und alte Grandfather-Backups nach einem Jahr recycelt. Auf diese Weise können neuere Wiederherstellungspunkte alte ersetzen. Das Ergebnis ist eine deutliche Reduzierung des Speicherbedarfs, während zugleich engmaschige Backups gefahren werden können. Unternehmen sollten allerdings auch Backups für spezifische Point-in-Time-Wiederherstellungen im Hinterkopf behalten. Ansonsten entstehen dennoch ungewollte Speicherlücken.

Drei-zwei-eins – und safe

Wodurch auch immer sie entstehen, Ausfallzeiten sind eine kostspielige Angelegenheit für Unternehmen. Das Schlagwort Business Continuity ist deshalb auch eine Frage kluger Backup-Strategien: Mit Ansätzen wie der 3-2-1-Regel können Unternehmen einiges zum Erhalt reibungsloser Geschäftsprozesse beitragen.

Besonders in komplexen und heterogenen Virtualisierungsumgebungen sollten deshalb mindestens drei Kopien des kompletten Datenbestandes vorliegen. Zwei davon sollten auf unterschiedlichen Speichermedien, aber auf der gleichen physischen Infrastruktur wie die produktiven Daten liegen. Hier bieten sich zum Beispiel eine lokale Festplatte und ein Network Attached Storage (NAS)-Gerät an. Auf diese Weise arbeiten Sie redundant und haben im Falle eines produktiven Systemausfalls sofort eine Backup-Kopie an der Hand.

Sollten beiden Speicherlösungen, die sie auf ihrer lokalen (Onsite) Hardware betreiben, ausfallen, kommt Variante Drei zum Einsatz: Halten Sie immer einen kompletten Satz ihrer Daten Offsite vor, um im Extremfall auf diesen zurückgreifen zu können. Sie können Ihr Backup der dritten Rückfallebene auf einem Remote-Server, einem Cloud-Service, einem Bandlaufwerk, einer externen Festplatte oder Disketten speichern. Je größer die Anzahl der Kopien ist, auf die Sie zurückgreifen können, umso kleiner wird das Risiko irreversibler Datenverluste.

Test-Boot überprüft Wiederherstellbarkeit

Dass virtuelle Hyper-V oder VMware-Maschinen durch ein Backup gesichert sind, heißt noch nicht, dass Daten dadurch auch zuverlässig sicher sind. Letztlich ist der Backup-Prozess zwar unverzichtbar, aber eben nur ein Schritt auf dem Weg zu sicheren Daten. Schließlich liegt das oberste Ziel einer klugen Backup-Strategie darin, stets genau dann eine Wiederherstellung durchführen zu können, wenn es notwendig ist. Dabei sollte nicht nur das Vorhandensein, sondern auch die Qualität der Backup-Prozesse auf der Agenda stehen.

Denn auch Backups können fehlschlagen oder beschädigt werden – und nichts ist frustrierender, als wenn nach einem sicherheitskritischen Zwischenfall zwar Backups vorliegen, diese aber nicht integriert werden können. Deshalb ist es von grundlegender Bedeutung, die Wiederherstellbarkeit von Backups regelmäßig zu überprüfen.

Eine gute Option, diesen Schritt durchzuführen, sind Backup-Lösungen, die mit Funktionen zur Verifizierung von Hyper-V- und VMware-Backups ausgestattet sind. Eine derartige Anwendung kann die virtuelle Maschine über das Backup booten und die Verfügbarkeit der Hypervisor-Tools testen. Sobald der Backup-Job vollständig ausgeführt ist, bestätigt die Lösung, dass das Gast-OS sauber läuft – womit der Beweis für die Wiederherstellbarkeit des Backups gegeben ist.

Eine andere Möglichkeit besteht darin, die virtuelle Maschine probeweise wiederherzustellen und einen Screenshot vom Betriebssystem der getesteten VM zu machen. Unternehmen sollten eine der beiden Methoden als doppelten Boden in Ihre Backup-Routinen integrieren.

Über alle Anwendung hinweg konsistent

Ein essenzielles Merkmal für hochwertige Backup ist die Anwendungssensitivität – wobei es der englische Ausdruck App-Awareness noch genauer trifft. Dabei wird sichergestellt, dass alle eingebundenen Applikationen über sämtliche Transaktionen hinweg konsistent erfasst werden. Ein Beispiel zur Veranschaulichung: Eine Datenbank kann im Laufe eines Tages mehreren Updates unterliegen. Es ist allerdings möglich, dass das Backup nur in einem bestimmten Zeitfenster erfolgt und damit nicht alle Updates erfasst werden.

In diesem Szenario liegt ein klares Risiko für Datenverluste vor. Anwendungssensitive Backups nutzen Microsofts Volume Shadow Copy Service (VSS) für eine korrekte Interaktion mit Datenbanken. VSS macht punktuelle Snapshots vom gesamten Datenvolumen und unterstützt damit lückenlose Backups. Die App-Awareness von Backups ist grundlegend für zuverlässige und hochwertige Recovery-Prozesse.

Die richtige Wahl treffen

Unternehmen, die in ihren Hyper-V/VMware-Umgebungen eine maximale Backup-Qualität und damit höchste Datensicherheit sicherstellen wollen, sind gut beraten, wenn sie externe Lösungen einbeziehen. Diese sollten in der Lage sein, inkrementelle Backups zu erstellen, die zugleich den Anforderungen der Application Awareness gerecht werden.

Sergei Serdyuk, NAKIVO

„Klar ist: Unternehmen profitieren immer von einer sorgfältig ausgearbeiteten Strategie, die ihren individuellen Backup- und Recovery-Bedürfnissen entspricht.“

Sergei Serdyuk, Nakivo

Um multiple Speicherziele zu bedienen, sollte die Lösung zudem über eine unlimitierte Anzahl an Repositories verfügen. Eine leistungsstarke Backup-Software versetzt Sie zudem in die Lage, die meisten Hyper-V- und VMware-Workflows Policy-basiert zu automatisieren.

Gleiches gilt für die direkte, automatisch erfolgende Verifizierung von Backups nach jedem Speichervorgang – egal ob On- oder Off-Premises. Ein weiteres Auswahlkriterium für eine Backup-Lösung ist die Option, LAN-freien Datentransfer über Hot Add Direct or Direct SAN Access zu betreiben. Denn so können Unternehmen die Backup-Geschwindigkeit erhöhen und die Netzwerklast reduzieren.

Ein zusätzliches Feature zur Drosselung der Bandbreite schafft gerade für Backups während der laufenden Geschäftszeiten gute Voraussetzungen, dass Firmennetzwerke nicht überlastet werden. Ein weiteres Qualitätskriterium für eine durchdachte Backup-Anwendung ist ihre Zugriffskontrolle. Diese sollte unbedingt Role-based Access Control (RBAC) unterstützen.

Klar ist: Unternehmen profitieren immer von einer sorgfältig ausgearbeiteten Strategie, die ihren individuellen Backup- und Recovery-Bedürfnissen entspricht. Diese mag anfänglich etwas personelle und finanzielle Ressourcen in Anspruch nehmen – sie zahlt sich aber spätestens beim ersten Zwischenfall, bei dem Ihre Daten in Gefahr geraten, wieder aus. Eine Backup-Lösung wie Nakivo sie anbietet, die als „One-Product“ die tägliche Administration vereinfacht und dabei für eine maximale Zuverlässigkeit im täglichen IT-Betrieb sorgt, kann dennoch mit niedrigen Gesamtbetriebskosten punkten.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Backup-Lösungen und Tools

ComputerWeekly.de
Close