Einsatzszenarien für Data Center Switches

Die Wahl der richtigen Data Center Switches hängt von Ihren Anforderungen ab. Wir beschreiben Einsatzszenarien für die neue Switch-Generation.

Dieser zweite Teil unserer vierteiligen Reihe über den Kauf von Data Center Switches geht auf vier Szenarien ein, in denen diese Switches die meisten Vorteile für Ihr Netzwerk bringen. Teil eins beschäftigt sich mit den verschiedenen Typen von Data Center Switches. Teil drei erklärt, was es beim Kauf und der Bereitstellung von Rechenzentrums-Switches zu beachten gilt, und Teil vier vergleicht die besten Data Center Switches, die virtualisierte Rechenzentren unterstützen sollen.

Eine neue Generation von Switches – im Folgenden als Data Center Switches oder Rechenzentrums-Switches bezeichnet – sind in der Lage, sowohl Daten- als auch Storage-Anforderungen zu berücksichtigen. Außerdem sorgen sie für die Zuverlässigkeit, die Unternehmen für geschäftskritische Anwendungen brauchen. Diese Switches eignen sich für virtualisierte Umgebungen und bieten die zugrunde liegende Netzwerkinfrastruktur, um hochkomplexe und häufig verteilte Anwendungen, Datenbanken und Datenspeicher für Unternehmen zu unterstützen. Doch sie kommen nicht für jede Firma infrage und werden derzeit hauptsächlich von großen Unternehmen genutzt.

Es geht darum, zu erkennen, wann die Zeit gekommen ist, die althergebrachte Technik für lokale Netzwerke (LAN) und Storage Area Networks (SAN) durch neuere und vielseitigere Data Center Switches zu ersetzen. Zwar lassen sich umfangreiche Vergleichslisten zwischen Rechenzentrums-Switches und herkömmlichen LAN/SAN-Switches erstellen, aber die praxisrelevanten Vorteile bleiben solange unklar, bis Sie genaue Einsatzszenarien entwerfen, wo Data Center Switches in Ihrem Netzwerk den meisten Nutzen bieten.

Szenario 1: Rechenzentrums-Switches und verstärkte Virtualisierung

Trotz allem, was Sie möglicherweise gehört haben, basiert eine große Anzahl von Unternehmensinfrastrukturen nach wie vor auf Bare-Metal-Servern, die noch nicht virtualisiert wurden. Letzten Endes werden aber die Kosteneinsparungen und die vereinfachte Verwaltung den Ausschlag geben, und die Virtualisierung wird sich durchsetzen. Wenn das geschieht, werden Standard-LAN-Switches die in modernen virtualisierten Rechenzentren benötigten Portgeschwindigkeiten nicht abdecken können. Zur Verbindung mit heutigen Blade-Servern und Storage-Arrays braucht man mindestens mehrere Verbindungen mit 10 GBit/s. Oft sind Ethernet-Ports mit höherer Kapazität erforderlich, die Geschwindigkeiten von 40 und 100 GBit/s bieten.

Bei einer großen Anzahl an Ports mit 40/100 GBit/s erfüllt ein neuer Typ von Rechenzentrums-Switches diese Anforderung. Die Virtualisierung reduziert im Data Center die Kapazitätsanforderungen an den einzelnen Port, während sie gleichzeitig den Bedarf hinsichtlich Durchsatz steigert. Zunehmend werden einzelne Ports mit 1 GBit/s im Rechenzentrum unnötig und sind technisch überholt. Stattdessen wird eine Konnektivität mit 10, 40 und 100 GBit/s zum Standard. Wenn Sie zur Anbindung Ihrer Blade-Server konsolidierte Schnittstellen mit hohem Durchsatz benötigen, wird ein robuster Data Center Switch Ihre Bedürfnisse am besten erfüllen, denn er bietet die höchste Dichte an Schnittstellen mit hoher Bandbreite, die Blade-Server und Storage-Arrays heutzutage erfordern.

Virtualisierung auf Serverebene konsolidiert mehrere virtuelle Server und Storage-Arrays zu einer einzigen Hardwareplattform. Dadurch wird der Bedarf nach zusätzlichen Redundanztechniken wie virtuellen Portkanälen und Overlay-Transporttechnologien kritisch. Diese Techniken bieten eine weitere Schutzebene, falls ein Fehler in der Hardware oder Software des Netzwerks auftritt. Der Fehler eines einzigen Blade-Servers, der Dutzende oder Hunderte von virtualisierten Servern steuert, kann sich für eine Unternehmensorganisation katastrophal auswirken. Darum müssen zusätzliche Mechanismen für die Ausfallsicherheit eingeführt werden, die oft nur bei Rechenzentrums-Switches (wie die weiter oben beschriebenen) anzutreffen sind.

Szenario 2: Konvergieren von LAN- und SAN-Netzwerken

Zu Beginn des 21. Jahrhunderts bestand der einzige Weg, ein Storage Area Network bereitzustellen, darin, ein separates, dediziertes Netzwerk aufzubauen, speziell für den Transport von Daten auf Blockebene. Aufgrund von immanenten Einschränkungen im Ethernet-Protokoll war Fibre Channel das ideale Speichertransportmedium. Ethernet wurde als sogenanntes Best-Effort-Protokoll entworfen, was nicht ausreicht, wenn es um den Speichertransport geht. Der Betrieb eines dedizierten Speichernetzwerks unabhängig vom LAN funktioniert technisch zwar, aber dieses Protokoll verdoppelt die Kosten für die Administration, weil man zwei separate Netzwerkinfrastrukturen verwaltet.

Mit dem Aufkommen von Data Center Bridging (DCB) oder konvergiertem, erweitertem Ethernet erschloss sich eine elegantere Lösung für dieses Problem, indem man die Möglichkeit für Paketverluste in Ethernet-Netzwerken beseitigte. Durch das Entfernen dieses Schwachpunkts führt ein DCB-fähiges Rechenzentrum einzelne LAN- und SAN-Netzwerke zu einem singulär implementierten und verwalteten hybriden Netzwerk zusammen. 

Diese hybriden Netzwerke verlangen allerdings Data Center Switches, da sie Storage-over-Ethernet-Protokolle wie Fibre Channel over Ethernet (FCoE) und Internet Small Computer System Interface (iSCSI) nutzen. Zwei Netzwerke durch die Verwendung von Data Center Switches zu einem zu konsolidieren, wird die Kapitalausgaben drastisch senken, indem der Anteil der physischen Hardware reduziert wird, die für den Betrieb eines LANs und SANs nötig ist. Außerdem vermindern sich dadurch auch die Betriebskosten, weil Unternehmen ein einziges, konsolidiertes Netzwerk verwalten können anstatt von zwei unabhängigen Netzwerken.

Szenario 3: Erhöhter Ost-West-Traffic im Rechenzentrum

Die dramatische Zunahme von Ost-West-Traffic – das ist Traffic, der zwischen zwei oder mehreren Rechenzentrumsservern fließt – erwischt viele Netzwerk-Administratoren auf dem falschen Fuß.

Die meisten Rechenzentren der älteren Generation können mühelos eine beträchtliche Menge an Nord-Süd-Traffic abwickeln – dabei handelt es sich um Client-Server-Kommunikation ins oder aus dem Data Center. Aber aufgrund von Fortschritten wie Virtualisierung und Big Data wächst der Ost-West-Traffic, der innerhalb des Rechenzentrums bleibt, rasant an. Nach Ciscos Prognose Global Cloud Index besteht mehr als 75 Prozent des gesamten IP-Traffics im Rechenzentrum nun aus Ost-West-Traffic, der zwischen diversen Data-Center-Komponenten hin und her vermittelt wird. 

Um mit derart gewaltigen Informationstransfers umzugehen, kann es unumgänglich sein, dass eine Infrastruktur Data Center Switches benötigt. Nur Rechenzentrums-Switches, die eine hohe Kapazität aufweisen und sich für mehrere Zwecke nutzen lassen, bieten eine Backplane, die solch eine massive Zunahme an Ost-West-Traffic abdecken kann.

In dem Maße wie Ihre Legacy-Anwendungen kontinuierlich veralten und durch moderne Unternehmensanwendungen ersetzt werden, sollten Sie die aktuelle Backplane-Kapazität der Switches im Auge behalten, denn sie könnte ihre Grenze erreichen. Wenn der Ost-West-Traffic den Nord-Süd-Traffic im Rechenzentrum zu überholen beginnt, ist es Zeit, an eine umfassendere Switch-Architektur im Data Center zu denken.

Szenario 4: Top-of-Rack-Switching mit zentraler Verwaltung

Mehrere Netzwerk-Switches zu verwalten, ist eine gewaltige Aufgabe für große Rechenzentren. Herkömmliche Data Center, die für den Betrieb Standard-LAN-Switches verwenden, setzen eine physikalische Switching-Architektur nach dem End-of-Row-Prinzip ein. Das bedeutet im Wesentlichen, dass autonome Switches am Ende jeder Rackreihe angeordnet werden. 

Die Virtualisierung reduziert im Rechenzentrum die Kapazitäts-anforderungen an den einzelnen Port, während sie gleichzeitig den Bedarf hinsichtlich Durchsatz steigert.

Und alle Server in dieser Reihe werden für die Konnektivität wiederum mit diesem Switch verkabelt. Dieses Design führt zu einer beträchtlichen Kupfer- und Glasfaserverkabelung zwischen Servern und Switches. Jeder Switch muss einzeln konfiguriert und verwaltet werden. Das kann häufig fehlerhafte Konfigurationszuordnungen für den Switch verursachen, was zu nicht optimalem Switching für die Server führt.

Demgegenüber lässt sich ein neuer Rechenzentrums-Switch in einem physikalischen Top-of-Rack-Design bereitstellen. Hierbei werden Switches mit nur einer Höheneinheit (Rack Unit) in jedem einzelnen Rack bereitgestellt und über Hochgeschwindigkeits-Uplinks mit einem Aggregations-Switch verkabelt. 

Auf diese Weise müssen die Signale der Server, die im Rack darunter platziert sind, lediglich wenige Zentimeter oder knapp einen Meter zurücklegen, bevor sie das Netzwerk erreichen. Dadurch lassen sich Aufwand und Kosten der Verkabelung spürbar reduzieren, indem man die Switch-Hardware gleichmäßiger in einem Rechenzentrum verteilt. Eine weitere wichtige Überlegung besteht darin, dass diese kleineren, verteilten Top-of-Rack-Switches nur Erweiterungen des Upstream-Aggregations-Switchs im Rechenzentrum sind, der eine zentrale Verwaltung ermöglicht.

Durch diese Architektur lässt sich ein umfangreiches Unternehmensrechenzentrum nur mit einer Handvoll Data Center Switches betreiben, die von einem zentralen Switch aus verwaltet werden. Wenn man Rechenzentrums-Switches auf diese Weise nutzt, erhält man ein hochskalierbares und hochflexibles Modell, das mit traditionellen Switch-Architekturen nicht nachgebildet werden kann.

Entscheidungshilfe

Berücksichtigen Sie diese Punkte, wenn Sie vorhaben, Data Center Switches zu kaufen:

  • Den Grad der heutigen und der erwarteten künftigen Virtualisierung in Ihrem Rechenzentrum
  • Die Anzahl der verwendeten Ports mit 1 GBit/s gegenüber Ports mit 10 GBit/s und schneller
  • Den zunehmenden Bedarf für verbesserte Redundanz und Fehlertoleranz
  • Die möglichen Kosteneinsparungen durch die Konsolidierung von separaten LAN/SAN-Netzwerken zu einem einzigen vereinheitlichten Netzwerk
  • Einen voraussichtlichen Anstieg des Ost-West-Traffics im Rechenzentrum
  • Die Notwendigkeit, die Netzwerkverkabelung im Rechenzentrum deutlich zu reduzieren
  • Die Anforderung, die Verwaltung der Switches im Rechenzentrum zu zentralisieren

Wenn Sie einer oder mehreren der oben aufgeführten Überlegungen zustimmen können, lohnt sich möglicherweise die Bereitstellung von Data Center Switches mit höherer Kapazität. Selbst falls Sie im Moment noch keinen Bedarf für einen Rechenzentrums-Switch sehen, führen Sie im nächsten Jahr eine ähnliche Evaluierung durch. Am Ende werden die Anforderungen von Servern, Storage, Anwendungen und Benutzern sie erforderlich machen.

Im dritten Teil unserer Reihe über Data Center Switches erfahren Sie alles, was Sie vor dem Kauf von Switches wissen müssen.

Folgen Sie SearchNetworking.de auch auf Twitter, Google+ und Facebook!

Erfahren Sie mehr über Netzwerkhardware

ComputerWeekly.de
Close