Joshua Resnick - Fotolia

F

High-Availability-Cluster: Testen oder auf deren Funktionieren vertrauen?

Wie stellt man sicher, dass die High-Availability-Konfiguration wirklich funktioniert? Bei Hochverfügbarkeitstests gehen die Meinungen auseinander.

Sollte man die High-Availability-Funktion seiner Produktivumgebung testen und eine Downtime riskieren oder sich einfach auf die Systemstabilität verlassen?

Ein Server oder System, für das eine High-Availability-Funktion konfiguriert wurde, dürfte allgemein als geschäftskritisch für das Unternehmen eingeschätzt werden. Wenn ein Hochverfügbarkeitsserver ausfällt, wirkt sich dies entsprechend negativ auf die Geschäftsabläufe aus. Sollte man High-Availability-Konfigurationen der Produktivumgebung also testen? Zwei Experten geben Antwort.

Kevin Tolly: Während die Frage nach dem Testen der Hochverfügbarkeit wohl spezifisch für Server-Cluster gilt, kann es nicht schaden, Test-Prinzipien für High Availability ganz generell zu betrachten. Beim Testen der Hochverfügbarkeit muss man zwei Dinge abwägen:

  • Welchen Effekt hat der Ausfall eines Hochverfügbarkeitsystems auf die Geschäftsabläufe? Wenn die Auswirkungen groß sind, dann sollte die Hochverfügbarkeit in kürzeren Abständen getestet werden.
  • Welchen Effekt hat ein fehlgeschlagener Test auf die Nutzer des Produktivsystems? Wenn die Auswirkungen auch in diesem Fall groß sind, dann spricht dies wiederum eher für längere Zeitabstände zwischen den Tests.

Die meisten Unternehmen werden allerdings auf beide Fragen mit „groß“ antworten, IT-Abteilungen wollen also sowohl ausgefallene Systeme als auch fehlgeschlagene Tests vermeiden.

Sofern genug Budget vorhanden ist, sollte in dieser Situation eine Kopie der High-Availability-Umgebung angelegt werden, inklusive Server, Switches, Firewalls und sämtlichem sonstigen Equipment, das in der Hochverfügbarkeitskonfiguration der Produktivumgebung vorhanden ist.

Das so gespiegelte System sollte dem Original bis ins kleinste Detail der Betriebssystemversion und Treiberkonfiguration gleichen. Diese Testumgebung ermöglicht es dem IT-Team, den Hochverfügbarkeits-Cluster in regelmäßigen Abständen, sogar täglich, einem Test zu unterziehen, ohne dabei die Produktivumgebung zu gefährden.

Aber selbst mit einer detaillierten Kopie müssen IT-Abteilungen auch die Live-Server regelmäßig testen. Hier sollte man zwei Ansätze verfolgen: Erstens sollten die HA-Server in regelmäßigen Abständen getestet werden, zweitens sofort nach jeder Veränderung an Hardware und Software, beispielsweise nach dem Einspielen von Updates und Patches.

Dies gibt der Geschäftsführung die Kontrolle über den Zeitraum möglicher Störungen, die durch das Testen der Produktivsysteme entstehen kann. Je länger man zwischen den einzelnen Tests wartet, umso größer ist auch die Wahrscheinlichkeit, dass die HA-Vorkehrungen nicht mehr funktionieren. Aus diesem Grund sollte man die Produktivumgebung mindestens einmal im Quartal testen. Und natürlich nach jeder signifikanten Hardware- oder Softwareänderung.

Joe Clabby: Der einzige Grund, warum man einen Hochverfügbarkeits-Cluster anfassen sollte, sind Performance-Probleme. In diesem Fall sollte man Tests durchführen, um die Ursache des Problems herauszufinden und es beheben zu können.

In allen anderen Fällen sollten Tests der High-Availability-Umgebung sehr selten notwendig sein. Wer eine Uptime von 100 Prozent benötigt, der wird ohnehin eine Funktion wie Fault Tolerance konfiguriert haben. Bei einer Uptime-Anforderung von 99,99 Prozent gibt es dagegen einen gewissen Spielraum für einen Server-Ausfall, was die Notwendigkeit von Tests ebenfalls minimiert. Und bei einer Uptime-Anforderung von 99,999 Prozent sollten die Server schlicht so gut konfiguriert sein, dass Tests ebenfalls selten notwendig sind.

Folgen Sie SearchDataCenter.de auch auf Twitter, Google+ und Facebook!

Erfahren Sie mehr über Disaster Recovery

- GOOGLE-ANZEIGEN

ComputerWeekly.de

Close