Worauf die IT-Abteilung beim Switch-Kauf für das Data Center achten muss

Die IT-Abteilung muss wissen, was beim Kauf von neuen Switches für das Data Center wichtig ist. Agilität und SDN muss sein.

So lange es Netzwerke im Data Center gibt, ist auch der Wunsch vorhanden, alle Daten auf eine einzige Plattform konsolidieren zu können. Im Laufe der letzte 30 Jahre wurde diese Konsolidierung durch die Entwicklung von Ethernet und IP vorangetrieben. 

Zuerst wurden die Technologien für allgemeines Networking ersetzt, die dann zum Teil in den Netzwerk-Betrieb der Data Center (DC) wanderten. Das beinhaltet unter anderem das Management, die Storage-Connectivity und hoch performante Computing-Verbindungen.

Neben monetären und betrieblichen Vorteilen sowie dem Einsatz von handelsüblicher Hardware für die Bereitstellung eines Netzwerks, bietet eine einheitliche Netzwerkstruktur vor allen Dingen Agilität. Genau darauf achten IT-Teams in diesen Tagen, auf Agilität. Die IT-Abteilung will beim Kauf von Switches für das Data Center unbedingt wissen, wie sie damit agiler wird. 

Somit kann man das Geschäft an aufkommende Chancen anpassen und auf Herausforderungen schnell reagieren. Komplexe Netzwerke und solche, die für einen bestimmten Zweck entwickelt wurden, engen Infrastrukturen in der Regel ein und die Agilität sinkt.

Wichtige Überlegungen

Die Performance von Switches im Data Center wird auf zwei Arten gemessen. Das ist zum einen die Port-Geschwindigkeit und zum anderen die Latenz. Die Migration auf Ethernet-Storage und die Implementierung von Data-Center-Virtualisierung bedeutet, dass jede Netzwerk-Verbindung mehr zu leisten hat. 

Sie muss mehr Datenflüsse abarbeiten und dementsprechend mehr Datenvolumen verarbeiten können. Aus diesem Grund müssen Switches für ein Data Center sehr hohe Geschwindigkeiten unterstützen. In großen Data Centern mit vielen Hosts für virtuelle Maschinen benötigt man dicht gepackte Formfaktoren, die Ports mit extrem hohen Geschwindigkeiten besitzen.

Latenz wird zu einem immer wichtigeren Punkt, da sich der Fluss des Traffics in der IT ändert. Früher war das in erster Linie North / South (Server zu Anwender), der Trend geht aber in Richtung East / West (Server zu Server). East / West Traffic erfordert Switching mit geringer Latenz. 

Data Center Netzwerk-Architekten und Ingenieure kaufen die Zukunft, wenn sie ihre nächste DC-Switches kaufen.

Transaktionen springen zwischen mehreren Servern hin und her, bevor diese Resultate liefern. Vielleicht sind das sechs, 16 oder sogar 60 verschiedene Maschinen. Somit ist eine Netzwerk-Topologie Voraussetzung, die minimale Latenzen mit sich bringt. Nur so lassen sich Performance-Probleme bei den entsprechenden Anwendungen vermeiden.

Das Streben nach geringerer Latenz führt zu flacheren Netzwerken. Noch vor ein paar Jahren bestand ein typisches System aus drei Stufen (Tiers): Edge-Switches (am Rande des Netzwerks) haben zu Aggregations-Switches geführt, die wiederum Core-Switches (im Kern des Konstrukts) gefüttert haben. 

Heutzutage muss das Data Center mit einem doppelschichtigen oder sogar einem Einzelschicht-Netzwerk zurechtkommen. Ein Mesh ist zum Beispiel ein Netzwerk auf einer Ebene, bei dem jeder Switch mit den anderen direkt verbunden ist. In einem Mesh ist jeder Server oder jeder Storage Node nur einen Hop von jedem anderen Node entfernt. Sie befinden sich entweder am selben Edge-Switch oder an Switches, die direkt miteinander verbunden sind. Meshes setzen eine hohe Port-Anzahl voraus, weil viele Ports für die Verbindungen zu den anderen Switches gebraucht werden.

Eine so genannte Leaf-Spine-Architektur besteht aus zwei Ebenen: Leaf (Blatt) Switches, zu denen sich Server und Storage verbinden, sowie Spine (Stamm) Switches, womit wiederum die Leaf Switches verbunden sind. Jeder Leaf Node ist mit jedem Spine Node verbunden. 

Das bedeutet, dass jeder Node höchstens zwei Hops von jedem anderen entfernt ist. Entweder teilen sie sich ein Leaf oder sie senden Traffic durch Ihr Leaf zu einem Spine Node und danach zu einem anderen Leaf. Hybride Versionen und Variationen gibt es reichlich. Zum Beispiel kann ein Mesh als ein Leaf an einem Leaf-Spine-Arrangement hängen. Möglicherweise sind an Spine Nodes Computing- und Storage-Ressourcen direkt angebunden. Vielleicht gibt es auch verbindende Leaves, die man dann Spline-Architektur nennt.

Während jeder die Geschwindigkeit bei seinen Switches verbessert, hat sich noch nicht jeder des 100-Gb-Standards angenommen oder stellt ihn auf seinen Geräten zur Verfügung. Ähnlich dazu bedeutet geringe Latenz für einige Anbieter fünf Mikrosekunden an Verzögerung. Andere meinen damit wiederum lediglich eine Mikrosekunde. Je nach Data Center und zugehörigen Lösungs-Architekturen können solche Nuancen den Unterschied zwischen Erfolg und Scheitern bei einem neuen Service ausmachen.

Management und Komplexität

Die Anzahl der Tools und Plattformen (Betriebssysteme der Komponenten), die man für einen Einsatz in einem Data Center benötigt, ist bei den verschiedenen Anbietern ein signifikanter Unterschied. Je höher die Anzahl, desto komplexer und schwieriger wird es sein, den laufenden Betrieb damit zu stemmen. 

Im Idealfall handelt es sich um eine einheitliche Plattform, die sich mit einem einzelnen Management-Tool verwalten lässt. Somit ist der Management-Aufwand für die entsprechende Architektur (dreistufig, Leaf-Spine, Spline oder Mesh) minimal und erfüllt damit die Anforderungen des Data Centers optimal.

Die Anbieter unterscheiden sich außerdem dahingehend, ob man für Wartungsarbeiten den jeweiligen Switch herunterfahren muss oder nicht. In einem Immer-An-Data-Center ist jede Funktion vorteilhaft, die sich ohne jegliche Downtime warten lässt.

Schlüssel-Funktionen: Physisch und virtuell, sowie Hardware und Software vermischen

Eine Schlüsselfunktion der künftigen DC-Netzwerke ist die Integration von virtuellen und physischen Netzwerken. Das gilt auch für Netzwerk-Hardware-Ressourcen, die man mittels SDN (Software-defined Networking) und Private-Cloud-Management-Stacks adressiert. 

Switches können zum Beispiel die Integration von virtuellen Netzwerken via VLANs unterstützen, indem die Ressourcen-Verteilung zwischen virtuellen und physischen Domänen vereint wird. Überbrückt man virtuelle und physische Netzwerke, spielen Switches dabei möglicherweise eine entscheidende Rolle, um die virtuelle Netzwerk-Performance und die allgemeine Netzwerk-Sicherheit zu erhöhen. 

Die Virtualisierung des Netzwerks hilft dabei, die IT mehr wie eine interne Cloud zu betreiben. Aus diesem Grund ist ein weiteres wichtiges Ziel, das Switching in Cloud-Management-Frameworks wie zum Beispiel OpenStack integrieren zu können. Diese Unterstützung steht auf der neuen Agenda für Data-Center-Switching.

Eine Checkliste für Switch-Käufer

Liebäugeln Sie mit dem Kauf neuer Switching-Hardware für das Data Center, sollten die Geräte nachfolgendes enthalten:

Optionen für 100 Gb

  • Der Bereich von Switch-Formfaktoren mit 100-Gb-Ports.
  • Die maximale Anzahl der 100-Gb-Ports pro Rack-Einheit

Sub-Mikrosekunden-Optionen

  • Der Bereich der Switch-Formfaktoren mit einer Verarbeitungsleistung unter einer Mikrosekunde
  • Die maximale Anzahl der 100-Gb-Ports pro Rack-Einheit

Bereit für Cloud, SDN und Virtualisierung

  • Unterstützung für OpenFlow – je höher die Version, desto besser
  • Ein Zertifikat für Konformität mit der höchsten Version, die bei der jeweiligen Testing Suite definiert ist. In der Regel wird das einige Versionen hinter der aktuellsten sein.
  • Ein OpenFlow (OF) Controller des Anbieters und / oder von Drittanbietern und / oder Open-Source-OpenFlow-Controller, der für die jeweilige Hardware zertifiziert ist.
  • Ein Plug-in für OpenStack
  • Physische Switch-Unterstützung für VXLAN und / oder NVGRE

Einheitliche Plattform, einheitliches Management und einfache Wartung

  • Ein einzelnes Betriebssystem für alle Switches im Data Center
  • Ein einzelnes Management-Tool, mit dem sich das gesamten DC-Switching-Portfolio und alle Funktionen adressieren lassen.
  • Unterstützung für In-Service Software-Upgrades. So muss man die Switches für Upgrades nicht herunterfahren.

SDN kristallisiert sich als nächster großer Übergang im Netzwerk heraus. Angetrieben wird das vom Wunsch, die Netzwerk-Architektur von der Verkabelung zu trennen. SDN erlaubt es jeder Netzwerk-Verbindung, jeden Netzwerk-Service zur Verfügung zu stellen. 

Der Grund dafür ist, dass die Services getrennt von den Switches existieren, die den Datenschicht-Zugriff zum Netzwerk ermöglichen. Um sich angemessen auf die Migration auf SDN vorzubereiten, sollten sich Unternehmen, die neue Switches kaufen wollen, einer Sache versichern. Die Geräte müssen den OpenFlow-Standard unterstützen, der für die Switch-zu-Controller-Kommunikation verantwortlich ist.

Fazit

Im wahrsten Sinne des Wortes kaufen Netzwerk-Architekten und -Techniker mit dem Erwerb neuer DC-Switches auch Ihre Zukunft. Zumindest gilt das für die Zukunft des Data Centers. Die getroffenen Entscheidungen, die Definitionen von Anforderungen und ihre Bewertungen werden die ihnen zur Verfügung stehenden Möglichkeiten bestimmen, ohne dass man sich später abermals in hohe Unkosten stürzen muss. 

Deswegen sollten Sie mit Bedacht wählen und nicht nur momentane Projekte und solche im kommenden Jahr in die Rechnung aufnehmen. Man sollte mindestens zwei bis fünf Jahre in die Zukunft planen, auch wenn das etwas vage werden kann. Der clevere Entscheider investiert in Hardware, die mehr Dichte, höhere Geschwindigkeiten und gleichzeitig geringere Latenzen liefert. 

Aber auch vereinfachtes Management durch Simplifizierung der Plattform ist ein wichtiger Punkt. Ebenso sollten Sie im Auge behalten, dass eine Vereinigung von physisch, virtuell, „herkömmlich“ und SDN möglich ist.

Über den Autor:
John Burke ist leitender Analyst bei Nemertes Research. Er berät wichtige Unternehmen und Anbieter. Weiterhin führt er Analysen durch und hat in vielen Bereichen eine Vordenker-Rolle inne. John hat reichlich Erfahrung in den Welten der virtuellen Netzwerke, SDN-Technologien (Software-defined Network), Standards und Implementierungen.

Folgen Sie SearchNetworking.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im März 2015 aktualisiert

Erfahren Sie mehr über LAN-Design und Netzwerkbetrieb

- GOOGLE-ANZEIGEN

ComputerWeekly.de

Close