Screeny - Fotolia

So setzen Sie eine sinnvolle Archivierungs-Strategie um

Archivierungs-Systeme können Daten sicher speichern, auf die nicht häufig zugegriffen wird. Eine sinnvolle Archivierungs-Strategie kann Speichersysteme entlasten.

In den meisten Rechenzentren wurde auf 80 Prozent oder mehr aller Daten länger als ein Jahr nicht mehr zugegriffen. Fasst man den Zeitrahmen enger, stellt sich heraus: 95 Prozent der Daten wurde innerhalb der vergangenen 90 Tage nicht ein einziges Mal abgefragt.

Das bedeutet: Die überwiegende Mehrheit der Daten blockiert nur die teuren und schnellen Flash-Arrays, die eigentlich gekauft wurden, um aktive Daten zu unterstützen.

Dennoch schrecken die meisten IT-Verantwortlichen vor aggressiven Schritten zurück, beispielsweise dem, 95 Prozent ihrer Daten auf Sekundärspeicher zu migrieren.

Die IT kann mit einem entsprechenden Design dieses Ziel erreichen, ohne dass sich Nutzer häufig über zu langsame Zugriffe auf seltener genutzte Daten beschweren. Dafür müssen vor allem vier grundlegende Regeln beachtet werden.

Regel Nummer 1: Das Archiv kann nahezu so schnell antworten wie Primär-Storage

Eine funktionierende Archivierungsstrategie für Daten sollte auf Festplatten mit hoher Kapazität samt Deduplizierung und Kompression aufbauen, um so viel Leistung wie möglich aus der Archivierungsschicht zu holen.

Zwar können alle diese Technologien die Leistung beim nochmaligen Zugriff auf Archivdaten beeinträchtigen, allerdings ist die Datenabfrage aus einem sinnvoll aufgebauten aktiven Archiv fast genauso schnell wie die Abfrage von aktivem Storage.

Das liegt daran, dass Primär-Storage auf Hunderte oder Hunderttausende von Datenabfragen pro Sekunde reagieren muss, während ein Archiv typischerweise ein oder zwei Anfragen pro Stunde beantwortet.

Archive sind in der Regel stärker damit beschäftigt, einlaufenden Datenverkehr zu bearbeiten als damit, Zugriffe auf alte Daten abzuwickeln. Sind weniger Ein-/Ausgabevorgänge zu verarbeiten, kann Disk-basiertes Archiv-Storage einzelne Anfragen fast so schnell wie Primär-Storage beantworten.

Allerdings sollte man sich bewusst sein, dass Archive im Grundsatz nicht so schnell wie Primär-Storage antworten müssen, sie müssen nur schnell genug sein, dass Anwender keinen Unterschied bemerken.

Regel Nummer 2: Nicht alles auf einmal am ersten Tag archivieren

Aus guten Gründen hat der IT-Bereich von Unternehmen und Organisationen ein ausgeprägtes Misstrauen gegen nahezu alles, was von den Herstellern behauptet wird, entwickelt.

Die Anbieter von Archivierungssoftware und besonders Hardwareanbieter schwadronieren über Return on Investment (ROI), der angeblich beweist, dass Investitionen in eine Archivierungsstrategie sich schon 30 Sekunden nach der Installation amortisieren.

Das Problem dabei: Um derart kurze Amortisationsperioden zu erreichen, müssten Unternehmen 100 TByte Archiv- oder Sekundärstorage kaufen und 80 bis 95 Prozent ihrer Daten sofort, sobald die Archivplattform funktionsfähig ist, dorthin migrieren.

Jeder IT-Spezialist, der etwas von seinem Fach versteht, wird so etwas nicht tun. Es muss auch gar nicht sein. Primär-Storage, das alle diese alten Daten hält, wurde ja bereits dafür gekauft und bezahlt, und die meisten Hersteller werden es ihren Kunden nicht gestatten, ein halbes Array gegen Kostenerstattung zurückzugeben, weil diese Daten nun auf Archiv-Storage liegen.

Eine Datenarchivierungsstrategie mit Logik ist es, Daten nach Bedarf zu archivieren. Beispielsweise dann, wenn die Wartungsverträge der Primärsysteme auslaufen oder wenn sie soweit gefüllt sind, dass neue Kapazität oder ein komplett neues Primärsystem beschafft werden muss.

Wie groß ist nun der Anteil der Daten auf einem solchen Array, der archiviert werden kann? Weiß man das, sollte man vom Archiv-Anbieter nur genau so viel Storage kaufen, so dass der Kauf eines Primär-Storage-Systems herausgeschoben werden kann oder ein weitaus kleineres Hochleistungs-Storage-System ausreicht.

Hat man eine Archivierungsstrategie implementiert, besteht der einzige Grund, mehr Primär-Storage zu kaufen, in erhöhtem Leistungsbedarf – nicht darin, mehr Kapazität zu benötigen.

Regel Nummer 3: Eine transparente Datenabfrage kann wichtig sein – oder auch nicht

Folgt man einer aggressiven Datenarchivierungsstrategie – 80 Prozent der Daten auf der Primär-Storage ins Archiv zu verlagern – muss man sich darauf vorbereiten, dass Anwender häufiger auf archivierte Daten zugreifen.

Zieht man eine graduelle Verschiebung auf Archivierungs-Storage in Betracht, wie sie Regel 2 vorschlägt, wird es jedoch in der Regel seltener als erwartet vorkommen, dass Nutzer auf archivierte Daten zugreifen wollen.

Deshalb sollte man als erstes sicherstellen, dass die meisten dieser Archiv-Aufrufe abgewickelt werden können, ohne die normalen IT-Abläufe zu unterbrechen. Dafür ist Software nötig, die transparente Verbindungen zwischen dem Nutzungsort einer Datei und ihrem Archivierungsort aufbauen kann.

Es ist auch wichtig, sich daran zu erinnern, dass Archive häufig mehrstufig angelegt werden. Mögliche Stufen sind On-Premises-Disk und anschließend Tape oder Cloud.

Die entsprechenden Verbindungen zwischen Abfrage- und Speicherort müssen mit der Veränderung der File-Location ebenfalls verändert werden, sobald die entsprechenden Daten auf ein anderes Speichersystem wandern.

Andererseits muss für transparente Archiv-Abfragen die Architektur so gestaltet werden, dass sie Stub-Files oder eine zentrale Schicht zur Kontrolle und Steuerung der Metadaten umfasst. Wie immer in solchen Architekturen entsteht durch diese Kontroll- und Steuerschicht eine gewisse Rigidität.

Sie kann sich in potentiellen Management-Problemen bezüglich der Stub-Files und einem gewissen Grad an Bindung an den Hersteller der Daten-Management-Software zeigen. Jeder Anwender muss selbst entscheiden, was im individuellen Fall überwiegt – die Vorteile oder die Nachteile.

Regel Nummer 4: Mit häufigeren Zugriffen aufs Archiv ist zu rechnen

Organisationen, die die Strategie, 95 Prozent der Daten zu archivieren, vollständig übernehmen, oder bei denen sich die Situation in dieser Richtung entwickelt, müssen darauf vorbereitet sein, dass öfter auf das Archiv zugegriffen wird.

Ob solche Zugriffe transparent oder per Hand erfolgen – letzteres, weil eine Komponente für transparente Archivanfragen im System fehlt –, eins ist sicher: Man muss mit Dutzenden Anfragen pro Stunde rechnen. Je höher die Recall-Rate, desto eher lohnt sich ein Disk-basiertes Archiv, entweder ausschließlich oder dem Tape-Archiv vorgelagert.

Basiert der größte Teil des Archivs auf Festplatten, sollte eine hohe Abfragerate die Leistung nicht beeinträchtigen. Letzten Endes sollte deshalb das Frontend des Archivs Disk- oder Cloud-basierend sein.

Tape, wenn man es überhaupt einsetzt, sollte entweder als Langzeitarchiv oder nur als Backup des Archivs dienen. Obwohl Tape eine robuste und zuverlässige Technologie ist, erfordert sein Einsatz in Archivierungssystemen je mehr Planung desto aktiver Archive genutzt werden.

Besser mehr strategische Datenarchivierungsplanung als weniger

Fraglos können 95 Prozent der Unternehmensdaten ohne Probleme archiviert werden. Archivierung sollte man also nicht als Storage-Diät betrachten, die man nur ab und zu durchführt, um einen zu dick gewordenen Datenbauch abzubauen.

Stattdessen lohnt es sich, den permanenten Einsatz von Archivierungstechnologie als organisatorische Veränderung zu betrachten, die schrittweise verläuft und wenn man sie einmal vollständig umgesetzt hat, für immer bleibt. Daten sollten ständig durch das Unternehmen fließen – von der Primär- auf Archiv-Storage und gelegentlich zurück zur Primär-Storage.

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Integrierte Archiv- und Backup-Lösungen sparen Kosten.

SDS-Produkte erneuern die Archivierung.

Backup und Archiv lassen sich vereinen.

Erfahren Sie mehr über Storage Management

ComputerWeekly.de
Close