Die beste Netzwerk-Topologie für das Data Center

Administratoren sollten die bekanntesten Netzwerk-Topologien für das Data Center kennen. Manchmal lohnt sich ein Blick auf die Alternativen.

In Sachen Netzwerk-Topologie für das Data Center gibt es keine Universallösung, die sich für jedes Unternehmen anwenden lässt. Sobald Sie allerdings die wichtigsten Topologie-Optionen verstanden haben, ist eine Entscheidung einfacher, welche sich am besten für Ihren Netzwerk-Traffic eignet. Zumindest bekommen Sie ein Verständnis dafür, wie sich Probleme im existierenden Netzwerk beheben lassen.

Welche sind die wichtigen Netzwerk-Topologien für das Data Center?

Die modernen Netzwerke im Rechenzentrum sind in erster Linie so genannte Three-Layer-Topologien (drei Schichten). Sie bestehen aus Kern-Switches für das Data Center, die zueinander und zu den externen Netzwerk-Providern verbunden sind. Weiterhin kommt eine Anwender- oder Zugriffs-Schicht hinzu und es gibt eine Aggregations-Schicht, die sich zwischen den beiden befindet. Sie transportiert Informationen in die Richtungen North und South.

Leaf-Spine ist eine Netzwerk-Topologie für das Data Center, die in erster Linie mit East-West-Netzwerk-Traffic zu tun haben. Bei dieser Topologie stattet man den Spine-Layer mit mehr Switches aus, um Traffic wie Netzwerk-Datenverkehr bei einem Storage Area Network (SAN) im Data Center adressieren zu können.

Alternative und aufkommende Netzwerk-Topologien

Diese Designs adressieren spezielle Problemstellungen für spezifische Applikationen. Alternative, neue Designs gehen komplett anders an die Materie des Netzwerk-Designs heran. Sie verlegen die Netzwerk-Intelligenz in die Hosts und benutzen diese wiederum als Forwarding-Nodes, zusätzlich zu den herkömmlichen Switches. 

Etablierte Netzwerke brauchen diese Leistungsfähigkeit möglicherweise heute noch nicht. Aufkommende Trends schleichen sich allerdings oftmals in die Hauptströmungen. Vielleicht spiegeln sie nicht wider, was man heute einsetzt, geben allerdings einen Ausblick auf die Zukunft.

Es gibt noch ein paar andere Netzwerk-Topologien, die neben den herkömmlichen Three-Layer-Netzwerken in der Regel akzeptiert sind. Man findet sie in realen Szenarien eher selten. Dennoch sind sie relevant und wohlverstanden.

Multi-Tier Leaf-Spine. Hier handelt es sich um einen Ansatz, bei dem man ein Leaf-Spine-Netzwerk horizontal skaliert. Man überzeichnet mit einer angemessenen Ratio, um einen zweiten, vertikalen Leaf-Layer anzufügen.

Hypercube. Ein einfaches 3D-Hypercube-Netzwerk ist wirklich nur ein Würfel. Es ist eine Box mit sechs Seiten und an jeder Ecke befinden sich Switches. Ein 4D Hypercube, auch Tesserakt genannt, ist ein Würfel innerhalb eines Würfels mit Switches an den Ecken, die miteinander verbunden sind. 

Der innere Würfel verbindet sich an den Ecken mit dem äußeren Würfel. Hosts verbinden sich zu den Switches am äußeren Würfel. Ein Unternehmen muss den Fluss des Applikations-Traffics sehr genau verstehen, um entscheiden zu können, ob sich eine Hypercube-Topologie lohnt oder nicht.

Toroidal. Dieser Ausdruck referenziert auf eine ringförmige Topologie. Ein 3D-Torus ist ein außerordentlich strukturiertes Ring-Netzwerk. Tori setzt man gerne in Computing-Umgebungen ein, die eine sehr hohe Performance fordern. Möglicherweise verwenden sie Switches für die Verbindungen zwischen den Computing-Nodes.

Jellyfish. Die Jellyfish-Topologie ist genau genommen willkürlich. In diesem Design sind die Switches so verbunden, wie das dem Netzwerk-Profi am besten in den Kram passt. Studien, Umfragen und Tests von Jellyfish-Designs haben ergeben, dass diese gegenüber herkömmlichen Netzwerken im Durchschnitt eine 25 Prozent höhere Kapazität aufweisen.

Scafida. Scale-Free- oder Scafida-Netzwerk-Topologien sind mit Jellyfish wegen der Willkür verwandt. Seltsamerweise tritt bei dieser Art Willkür mehr Struktur auf. Die Idee dahinter ist, dass bestimmte Switches als dicht verbundene Verteiler-Seiten fungieren. Das ist ähnlich zu den Flugmustern bei Luftfahrtgesellschaften.

DCell. Viele Server werden mit mehreren NICs (Network Interface Cards / Netzwerkkarten) ausgeliefert. Einige dieser Netzwerkkarten verbinden sich in einer Zelle direkt von einem Server zu einem anderen. Andere NICs verbinden sich hingegen via Switch oder anderen Zellen. DCell setzt voraus, dass ein Server vier oder mehr Netzwerkkarten besitzt.

FiConn. Ähnlich wie bei DCell verwendet FiConn eine Hierarchie bei den Server-zu-Server-Verbindungen und Zellen. Allerdings besteht die Minimalanforderung hier aus nur zwei Netzwerkkarten.

BCube. Wie auch DCell und FiConn verwendet man bei BCube zusätzliche Server-Ports für eine direkte Kommunikation. Allerdings ist diese Topologie speziell für modulare Data Center gedacht, die man mit Containern aufbaut. Microsoft steht hinter BCube und hat das Protokoll BCube Source Routing entwickelt. Damit wird das Forwarding bei dieser Netzwerk-Topologie für das Data Center verwaltet.

CamCube. Diese Topologie ist genau genommen ein 3D-Ring, der mithilfe von Microsofts CamCubeOS betrieben wird. Das Ziel ist es, den Traffic-Fluss im Ring zu optimieren, während man Cluster von Hosts verbindet. CamCubeOS geht davon aus, dass herkömmliche Netzwerk-Forwarding-Paradigmen für diese Anwendung ineffizient sind und ersetzt sie deswegen.

Butterfly. Googles Flattened Butterfly ist ein spezielles Netzwerk-Konstrukt, ähnlich zu einem Schachbrett. In diesem Gitter an Switches kann der Traffic zu jedem Switch in einer vorgegebenen Dimension wandern. Der Zweck ist es, den Energieverbrauch zu verringern, woran Google ständig arbeitet.

Folgen Sie SearchNetworking.de auch auf Twitter, Google+ und Facebook!

Erfahren Sie mehr über LAN-Design und Netzwerkbetrieb

ComputerWeekly.de
Close