sdecoret - stock.adobe.com

Data Center Interconnect beeinflusst die WAN-Performance

Verzögerungsreiche Verbindungen zwischen Rechenzentren können im ungünstigen Fall die Leistung wichtiger Anwendungen verringern, wenn das Netz nicht optimal konfiguriert ist.

Welche Faktoren beeinflussen die Leistung einer Hochgeschwindigkeitsverbindung zwischen Datenzentren mit hoher Verzögerung? Es ist üblich, Rechenzentren redundant aufzubauen, da sie Unternehmen unterbrechungsfreie Verfügbarkeit der IT garantieren sollen. Aber wie weit entfernt ist zu weit für eine gute, zuverlässige Anwendungsleistung?

Das Beratungsunternehmen NetCraftsmen führte bei seinen Kunden eine Untersuchung über mögliche Leistungsprobleme bei der Replikation von Daten durch. Versuchsobjekt waren zwei 2000 Meilen (ca. 3220 km) voneinander entfernte Rechenzentren. Die Verzögerung in einer Richtung betrug etwa zehn Millisekunden pro 1000 Meilen (ca. 1610 km). Die Gesamtlatenz für Hin- und Rückweg (Round-trip Delay) betrug also etwa 40 ms.

Können Kunden davon ausgehen, dass ihre Daten-Replikationssysteme über diese Entfernung noch gut funktionieren? Folgend werden wir einige wichtige Technologien für Verbindungen zwischen Rechenzentren daraufhin betrachten, wie sie die Anwendungsleistung beeinflussen.

Zunächst etwas Geschichte: Die maximalen WAN-Geschwindigkeiten lagen noch vor einigen Jahren bei 100 MBit/s. Heute gibt es verbreitet WAN-Verbindungen mit 1 GBit/s, einige Carrier bieten auch Datenpfade mit 100 GBit/s an. Konzeptionell betrachtet scheint es zunächst so, dass eine Erhöhung der WAN-Geschwindigkeit auf das Zehnfache – also von 100 MBit/s auf 1 GBit/s oder von 1 GBit/s auf 10 GBit/s auch die Applikationsleistung um das Zehnfache steigern sollte. Doch das stimmt selten. Andere Faktoren begrenzen die Leistungsverbesserung.

Verzögerung und überlastete Leistungen können DCI-Strategien beeinträchtigen.
Abbildung 1: Verzögerung und überlastete Leistungen können DCI-Strategien beeinträchtigen.

Was beschreibt das Bandbreiten-Verzögerungsprodukt?

Eine Überlegung bei der Technologieauswahl für die Verbindung zwischen Rechenzentren bezieht sich auf die Menge an Daten, die eine Netzwerkverbindung mit langer Verzögerung puffern kann. Die Funktion von TCP hier im Detail zu erklären, würde zu weit führen. Kurz zusammengefasst: Der TCP-Durchsatz ist beschränkt durch die Verzögerung über den gesamten Hin- und Rücksendeweg eines Datenpakets und die Menge an Daten, die das Empfängersystem puffern kann.

Eine Methode, die TCP-Leistung zu messen, ist das Bandbreiten-Verzögerungsprodukt (Bandwidth Delay Product, BDP). Es misst, wie viele Daten TCP auf einmal übertragen sollte, um die verfügbare Kapazität der Verbindung voll auszuschöpfen. Der Wert ist das Produkt aus Verbindungsgeschwindigkeit und Gesamtverzögerung für Hin- und Rückweg. In dem oben angeführten Beispiel beträgt das BDP etwa 5 MB (0,04 Sekunden mal eine Million Bit/s geteilt durch 8) – um den möglichen Durchsatz voll auszuschöpfen.

Sende- und Empfangssysteme müssen diese 5 MB Daten puffern, die nötig sind, um die Verbindung zu füllen. Bei voller Geschwindigkeit müssen also die Systeme 5 MB alle 40 ms übertragen. Ältere Betriebssysteme, die fixe Puffergrößen verwendeten, mussten extra dafür konfiguriert werden, die gewünschte Datenmenge für die optimale Leistung auf breiten BDP-Pfaden zu puffern. Diese Betriebssysteme hatten oft eine Standard-Puffergröße von 64 KB, was zu einem Maximaldurchsatz von etwa 1,6 MBit/s über einen 2000-Meilen-Datenpfad führte. Glücklicherweise passen moderne Betriebssysteme automatisch ihre Puffergröße an, damit mehr Leistung möglich ist.

Der signifikante Unterschied im Durchsatz über große BDP-Pfade bedeutet, dass Sie die Sende- und Empfangssysteme und deren Konfiguration verstehen sollten, wenn Sie eine optimale Leistung benötigen.

Eine Möglichkeit, den Durchsatz zu erhöhen, ist die Reduzierung der Round-Trip-Latenzzeit. Es gibt jedoch eine Reihe von Forschungsarbeiten, die Systemarchitekturen beschreiben, in denen verteilte Datenspeicherung fast so effektiv sein kann wie lokale Speicherung. Dies ist etwas ganz anderes als die vorherige Überlegung, Daten in der Nähe der Systeme zu platzieren, die sie verwenden werden.

Technische Hindernisse für Data Center Interconnect

Natürlich können auch andere Faktoren bei Technologien für Data Center Interconnect ins Spiel kommen. Dazu gehören:

Latenz. Niedrige Verzögerungen sind wichtig für Anwendungen mit kleinen Transaktionen. Die Hin- und Rückreisedauer von Datenpaketen ist hier umso kritischer, je mehr Pakete ausgetauscht werden. Eine Applikation, die von Hunderten kleiner Transaktionen abhängt, um eine einzige Anwenderaktion umzusetzen, leistet in einer LAN-Umgebung viel. Dort liegt die Verzögerung bei ein bis zwei Millisekunden. Allerdings sinkt die Leistung in einer Umgebung, wo Datenpakete für eine Hin- und Rückreise 50ms brauchen und die Transaktionszeit demnach fünf bis zehn Sekunden dauert.

Es ist leicht, den Einfluss der Verzögerung zu übersehen, besonders, wenn eine Applikation von einer externen Partei stammt und man ihre internen Betriebsdaten nicht kennt. In solchen Fällen ist es empfehlenswert, eine Anwendung in einer WAN-Umgebung mit hoher Verzögerung oder mit einem WAN-Simulator zu validieren, bevor man sie von einer LAN- in eine WAN-Umgebung migriert.

Gemeinsam genutzte Kapazität und Überlastung. Die meisten WAN-Carrier bieten eine IP-Verbindung in der Vorstellung an, dass deren Bandbreite nicht immer komplett benötigt wird. So können sie mehrere Kunden über eine gemeinsame Infrastruktur versorgen und wettbewerbsfähigere Preise verlangen, als wenn nur ein Kunde dieselbe Verbindung nutzen würde. Dies bedeutet jedoch, dass es Zeiten geben kann, in denen der Verkehr von mehreren Kunden zu Staus an Punkten entlang des Weges zwischen zwei Rechenzentren führt. Einige Pakete müssen verzögert oder fallen gelassen werden, wenn die Überlastung größer ist als der verfügbare Pufferraum der Geräte in diesem Netzwerkpfad.

Es ist daher wichtig, das Konzept der zugesicherten Datenrate (Committed Information Rate, CIR) im WAN-Vertrag genau zu verstehen. Möglicherweise müssen Sie Quality-of-Service-Konfigurationen einrichten, um den Datenverkehr so zu gestalten und zu überwachen, dass er vor dem Eintritt in das WAN abgebaut wird.

Dieses Problem wächst, wenn der Datenpfad durchs Internet führt. Es gibt deutlich sichtbare Verstopfungseffekte im Internet, die gleichzeitig mit lokalen oder zeitlichen Nutzungsspitzen auftreten, also beispielsweise am Abend. Datenpfade, die sich über mehrere Zeitzonen erstrecken, können längere Überlastungszeiten aufweisen, da die Spitzenauslastung von einer Zeitzone zur nächsten wandert.

Ein SD-WAN könnte den Gesamtdurchsatz für einige Anwendungen erhöhen. Diese Produkte messen Latenz, Bandbreite und Paketverluste mehrerer Verbindungen und ermöglichen es, verschiedene Verkehrstypen über Verbindungen mit spezifischen Eigenschaften zu leiten. Beispielsweise kann der Datenverkehr wichtiger Applikationen über zuverlässige MPLS-Verbindungen fließen, während Massendaten einen schnellen, breitbandigen Internetpfad verwenden.

TCP-Stauvermeidung. Ein wichtiger Faktor, der die TCP-Leistung beeinflusst, liegt im Alter des TCP/IP-Stacks, besonders im Algorithmus zur Kontrolle von Leitungsüberlastungen (Congestion Control). Datenstaus können auch in Netzwerkgeräten entstehen, wenn die Verbindungsgeschwindigkeiten sich an Aggregationspunkten ändern. Das geschieht beispielsweise, wenn Leitungsgeschwindigkeiten kombiniert werden, die nicht zueinander passen, etwa eine 10-GBit/s-LAN-Verbindung und ein 1-GBit/s-WAN-Link. Modernere TCP/IP-Stacks handhaben überfüllte Leitungen besser und erreichen so mehr Durchsatz.

Technologien für Data Center Interconnect verstehen

Es ist entscheidend zu verstehen, wie wichtige Anwendungen das Netzwerk verwenden und wie zusätzliche Verzögerungen ihre Leistung beeinflussen. Manchmal wird man sie anders installieren müssen. Das bedeutet, dass Netzingenieure mit allen oben angeführten Konzepten vertraut sein müssen. Noch wichtiger ist es aber, dass sie diese Themen anderen erklären können, die sich mit Fragen der Anwendungsleistung nicht auskennen.

Folgen Sie SearchNetworking.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Wann ein hybrides WAN sinnvoll ist

Gratis-eBook: Managed-SD-WAN stressfrei einsetzen

Gratis-eBook: Ratgeber SD-WAN

Erfahren Sie mehr über Software-defined Networking

ComputerWeekly.de
Close