Miha Creative - stock.adobe.com

Backup-Strategie überdenken KI-Risiken und neue Geschäftsabläufe

Warum die ehemals strenge Regel ‚Backup- und Produktionsdaten niemals auf derselben Hardware mischen‘ überholt ist und wie eine zeitgemäße Datensicherungsstrategie aussehen sollte.

Am 31. März stand der World Backup Day im Kalender – ein Datum, das traditionell als sanfter Anstoß für IT-Verantwortliche dient, ihre Datensicherungsstrategien zu überprüfen. Doch mittlerweile verschieben sich die Herausforderungen weiterhin grundlegend. Inzwischen sind Backups ein wesentlicher Bestandteil der Abwehr gegen KI-basierte Angriffe, da sie Ausfallzeiten reduzieren, Datenverluste verhindern und eine zuverlässige Wiederherstellung ermöglichen.

Die Cyberbedrohungslandschaft ist in das Zeitalter vollautomatischer, KI-generierter Ransomware eingetreten, die Systeme rund um die Uhr mit beispielloser Geschwindigkeit und in beispiellosem Ausmaß scannt. Laut dem „2026 Global Threat Report“ von Crowdstrike stieg die Zahl der Angriffe durch KI-gestützte Angreifer im Jahr 2025 im Vergleich zum Vorjahr um 89 Prozent, wobei die durchschnittliche Breakout-Zeit – also die Zeit, die ein Angreifer benötigt, um vom ersten Einstiegspunkt tiefer in das System vorzudringen – auf nur noch 29 Minuten sank. Dies entspricht einer Geschwindigkeitssteigerung von 65 Prozent gegenüber 2024.

Dieses Vibe-Hacking – der Einsatz großer Sprachmodelle (LLM) zur Automatisierung und Skalierung von Eindringversuchen – hat eine krasse digitale Kluft geschaffen. Auf der einen Seite stehen Organisationen, deren Systeme mit KI-gestützten Bedrohungen Schritt gehalten haben. Auf der anderen Seite stehen diejenigen, die Backups immer noch als eine Art Altlasten-Versicherung betrachten, anstatt sie als strategisches Unterscheidungsmerkmal zu nutzen. Für den Fall, dass KI-gesteuerte Angriffe Daten verschlüsseln oder manipulieren, ist eine moderne, robuste Backup-Strategie für die schnelle Wiederherstellung von Daten und Systemen unerlässlich geworden. Regelmäßige, aktuelle Snapshots verkürzen die für die Wiederherstellung benötigte Zeit und minimieren so Betriebsunterbrechungen.

Eine Regel, die auf den Einschränkungen der alten Infrastruktur beruhte

Vor dem Hintergrund KI-basierter Bedrohungen müssen Unternehmen ihre Backup-Strategie überdenken. Produktions-Workloads wurden bisher auf leistungsstarkem Primärspeicher betrieben. Backups hingegen wurden an einem anderen Ort gespeichert – oft auf separater Hardware, in separaten Netzwerken, manchmal sogar in separaten Gebäuden. Die Logik dahinter war klar: Isolation verringert Risiken. Wenn ein System ausfällt, bleibt das andere intakt. Diese Regel entstand aus sehr realen Einschränkungen der alten Infrastruktur.

Die traditionelle Trennung von Produktions- und Backup-Daten löste vier konkrete Probleme:

  1. Ein katastrophaler Ausfall eines Produktionssystems könnte alles beschädigen oder zerstören, was damit verbunden ist. Eine separate Backup-Infrastruktur reduzierte das Ausmaß der Auswirkungen.
  2. Backup-Workloads waren störend – lange, sequenzielle Schreibvorgänge, die in direkter Konkurrenz zu latenzempfindlichen Produktions-I/Os standen. Die Trennung schützte die Anwendungsleistung.
  3. Physisch getrennte Systeme – insbesondere Bandspeicher oder Offline-Festplatten – konnten von Angreifern, die Produktionsumgebungen kompromittierten, nicht verschlüsselt oder gelöscht werden.
  4. Unterschiedliche Systeme und Medientypen verringerten das Risiko, dass ein einziger Ausfall alle Kopien der Daten vernichten würde. Die oft zitierte 3-2-1-Regel sieht vor, drei Kopien der Daten aufzubewahren: das Original und zwei Backups, gespeichert auf zwei verschiedenen Medientypen, wobei sich eine Kopie außerhalb des Standorts befindet.

All dies ergab in einer Welt aus Festplatten, anfälligen Controllern und begrenzter Transparenz vollkommen Sinn. Der moderne Ersatz für den traditionellen Ansatz ist keine leichtfertige Konsolidierung, sondern eine bewusste Tiering-Strategie.

Die Realität im Jahr 2026 sieht anders aus

Jahrzehntelang hielten sich Infrastrukturteams an eine strenge Regel: Backup- und Produktionsdaten dürfen niemals auf derselben Hardware gemischt werden. In der Vergangenheit war dies sowohl aus Gründen der physischen Sicherheit als auch der Leistung notwendig, da Backup-Prozesse häufig die Ressourcen beanspruchten, die für den Live-Betrieb von Hochleistungsanwendungen benötigt wurden. Im Jahr 2026 hat der enorme Durchsatz von Hochleistungs-Flash-Speichern diese frühere Leistungsbegründung hinfällig gemacht.

Die Umgebungen, die die frühere Regel notwendig machten, existieren nicht mehr. Wenn Unternehmen daran festhalten, ohne die zugrunde liegenden Annahmen zu überdenken, kann dies heute das Risiko erhöhen, anstatt es zu verringern. Die Frage ist nicht, ob Isolation noch wichtig ist, sondern welche Art von Isolation moderne Unternehmen heute tatsächlich schützt. Für das moderne globale Unternehmen muss sich die Diskussion von einfachem Datenschutz hin zu echter mehrschichtiger Cyberresilienz entwickeln. Diese integriert traditionelle Prävention mit blitzschneller Wiederherstellung und stellt sicher, dass sich das Unternehmen im Falle eines erfolgreichen Angriffs innerhalb von Minuten oder Stunden erholt, nicht erst nach Tagen oder Wochen. In einer Zeit, in der KI-Agenten Kundeninteraktionen in Echtzeit steuern, sind Ausfallzeiten nicht mehr nur eine Unannehmlichkeit, sondern eine Krise auf Vorstandsebene und eine Bedrohung für das Überleben der Marke.

Die Wiederherstellungsziele haben sich von Tagen auf Minuten verschoben. Da herkömmliche Backups auf Speicherkapazität – und nicht auf Geschwindigkeit – ausgelegt sind, können sie die Anforderungen moderner Unternehmen an eine Wiederherstellungszeit (RTO) von nahezu Null nicht erfüllen. Hier kommen Snapshots ins Spiel. Snapshots sind keine Backups, aber Backups allein gewährleisten keinen ausreichenden Schutz – und einige Speicheranbieter haben sie auch nie als solche positioniert. Stattdessen dienen unveränderliche Snapshots als erste Wiederherstellungsebene, optimiert für Geschwindigkeit und Präzision, während integrierte Backup-Plattformen und plattformunabhängige Ebenen unabhängige Wiederherstellungspfade, Governance und langfristige Aufbewahrung bieten.

Darüber hinaus ist physische Trennung nicht mehr gleichbedeutend mit Sicherheit. Ein Air-Gapped-System, das online, über das Netzwerk erreichbar und von Administratoren verwaltet wird, ist nicht sinnvoll isoliert – unabhängig vom Anbieter. Was heute zählt, sind Unlöschbarkeit, die Durchsetzung von Aufbewahrungsfristen und der Schutz von Anmeldedaten, nicht nur die physische Entfernung. Ein weiterer Punkt ist, dass Leistungsisolierung ein architektonisches Problem ist. Moderne Scale-out- und Flash-native Architekturen sind darauf ausgelegt, gemischte Workloads zu bewältigen. Die Vorstellung, dass Backup-Traffic zwangsläufig die Produktions-I/O beeinträchtigen muss, spiegelt die Grenzen von Altsystemen wider – nicht die moderner Systeme. Es ist auch wichtig zu beachten, dass die Mean Time to Clean Recovery, also die Wiederherstellungszeit von sauberen Daten zu einer primären Risikokennzahl geworden ist. Bei Ransomware und Betriebsausfällen entscheidet oft der Unterschied zwischen Minuten und Stunden bei der Wiederherstellungszeit darüber, ob ein Vorfall überlebbar oder katastrophal ist.

Echte Ausfallsicherheit erfordert SIRE

Technisch gesehen können Unternehmen Backup- und Produktionsdaten jedoch auf derselben Plattform betreiben. In einer Welt, in der die Wiederherstellungsgeschwindigkeit zur wichtigsten Risikokennzahl geworden ist, haben sich die traditionellen Regeln der IT-Architektur zwangsläufig zu einer Vorgabe für logische Trennung weiterentwickelt. Anstatt zu fragen: „Befinden sich Produktion und Backup auf demselben System?“, lautet die bessere Frage: „Ist die Backup-Umgebung physisch isoliert und gegen Systemausfälle schreibgeschützt?“

Markus Grau, Everpure

„ Die Wiederherstellungsziele haben sich von Tagen auf Minuten verschoben. Da herkömmliche Backups auf Speicherkapazität und nicht auf Geschwindigkeit ausgelegt sind, können sie die Anforderungen moderner Unternehmen an eine Wiederherstellungszeit (RTO) von nahezu Null nicht erfüllen.“

Markus Grau, Everpure

Echte Ausfallsicherheit nach einem Angriff erfordert eine Secure Isolated Recovery Environment (SIRE), damit Daten im Falle eines Cybervorfalls oder einer anderen Katastrophe nicht infiziert oder gelöscht werden können. SIRE ist eine sichere, isolierte Umgebung, die darauf ausgelegt ist, Systeme oder Geräte wiederherzustellen, ohne dass potenziell kompromittierte Teile des Systems darauf zugreifen können. Das bedeutet, über eine Umgebung zu verfügen, die logisch vom Rest der Infrastruktur getrennt ist, um forensische Untersuchungen, Bereinigungen und die schnelle Wiederherstellung der geschäftskritischsten Dienste zu ermöglichen.

Die meisten SIREs basieren auf drei Kernkomponenten: Air-Gapped-Datentresore, unveränderlicher Speicher und Wiederherstellungsfunktionen. Im besten Fall gewährleistet eine gut konzipierte SIRE, dass Unternehmen kritische Abläufe schnell, sauber und zuverlässig wiederherstellen können. Die Trennung vom Hauptsystem erfolgt über eine separate, hochgesicherte Umgebung, die vom Produktionsbetrieb isoliert ist.

Backup: Eine ganzjährige Verpflichtung

Auch wenn viele Unternehmen den 31. März als Anlass nehmen, sich mit ihren Datensicherungssystemen zu befassen, müssen sie über diesen Tag hinausdenken, um sicherzustellen, dass sie dieses wichtige Thema das ganze Jahr über kontinuierlich im Blick behalten.

SLAs (Service Level Agreements) für die Wiederherstellung nach Ransomware-Angriffen sind zum neuen Goldstandard geworden. In vielen regulierten Branchen weltweit ist die Fähigkeit, kritische Dienste innerhalb weniger Stunden wiederherzustellen, nicht mehr nur ein Ziel – sie ist eine Grundvoraussetzung. Dieser Wandel wird durch eine weltweite Welle von Resilienzvorgaben wie DORA und NIS2 in der EU beschleunigt. Die Regulierungsbehörden fragen nicht mehr nur, wie Unternehmen einen Angriff verhindern können, sondern wie schnell sie in der Lage sind, sich wiederherzustellen. Das bedeutet, dass für moderne Unternehmen eine veraltete Backup-Strategie nicht nur ein technisches Risiko darstellt, sondern mittlerweile einen schwerwiegenden Verstoß gegen Compliance-Vorgaben bedeutet. Wenn ihr Primärspeicher für forensische Untersuchungen durch Versicherer oder Strafverfolgungsbehörden gesperrt ist, benötigen sie eine Strategie, die sofort eine alternative, betriebsbereite Umgebung bereitstellt.

Die alte Regel „Backup- und Produktionsdaten niemals auf derselben Hardware zu vermischen“ spiegelte die Risiken, Technologien und Ausfallarten ihrer Zeit wider. Die heutige Realität erfordert einen differenzierteren Ansatz: Isolation bleibt wichtig, Unveränderlichkeit ist wichtiger, und die Mean Time to Clean Recovery ist am wichtigsten. In Zukunft wird es beim Datenschutz nicht mehr darum gehen, Systeme um jeden Preis voneinander zu trennen. Es geht darum, Wiederherstellungsebenen zu entwerfen, die klar voneinander abgegrenzt sind, schneller wiederhergestellt werden können und gezielt zusammenwirken. Dies ist kein Verstoß gegen die bisherige Regel, sondern eine Verbesserung.

Über den Autor:
Markus Grau ist Enterprise Architect im CTO-Office bei Everpure und mittlerweile, seit seinem Start in 2014, mehr als zehn Jahren im Unternehmen. Davor war er fast 9 Jahre in verschiedenen Positionen bei NetApp im Einsatz. Zuletzt 6 Jahre als Solutions Architect.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Backup-Lösungen und Tools