WavebreakMediaMicro - Fotolia

Software-defined Data Center als Ansatz echter IT-Automatisierung

Immer mehr Mitarbeiter nutzen mobile Apps. Damit dies reibungslos funktioniert, benötigen Unternehmen aber auch die entsprechende IT-Infrastruktur.

Die Bedeutung der mobilen Cloud in Unternehmen ist in den letzten Jahren deutlich gestiegen – und damit auch die Anforderungen an die Kapazität und Verfügbarkeit der darunterliegenden IT-Infrastruktur. In großen Unternehmen erwarten oft tausende Nutzer, dass hunderte Anwendungen störungsfrei funktionieren. Zudem fordern Mitarbeiter, dass sie mit jedem Gerät an jedem Ort der Welt arbeiten können.

Aufgrund dieser durch Software unterstützten Geschäftsprozesse kann die IT nicht mehr länger im Hintergrund bleiben und im stillen Kämmerlein für Innovationen sorgen. Die IT ist aufgefordert, sich bemerkbar zu machen und ihre Ideen mit den Fachabteilungen auszutauschen. Ein erfolgreiches Unternehmen muss die Rolle der IT verstehen und sie als Partner und Mittel erkennen, welche die Geschäftstätigkeiten unterstützt.

Dies sollte auf eine immer agilere Weise geschehen. Zudem muss der Anwender in der Lage sein, sich auf die genutzten Anwendungen zu konzentrieren – und nicht auf die Fähigkeiten der Server. Doch wie lässt sich diese Herausforderung bewältigen? Durch ein softwaredefiniertes Rechenzentrum (Software-defined Data Center, SDDC), das vereinfacht dargestellt aus vielen Servern besteht, deren Hardware abstrahiert und von einer zentralen Stelle verwaltet wird.

Die Basis für ein SDDC ist die Virtualisierung von Ressourcen – CPU, RAM, Storage und Netzwerk. Hier wird ein Server nur noch durch Software definiert und ist damit scheinbar unabhängig von der zugrunde liegenden Hardware. Diese virtuellen Server lassen sich dann mittels Softwareschnittstellen (APIs) erstellen und verwalten und bieten daher mehr Flexibilität als physische Server.

Datenerhebung im SDDC auch mit virtuellen Sensoren

Unabhängig davon, welchen Ansatz Unternehmen für ein modernes Rechenzentrumsnetzwerk wählen – SDN (Software-defined Networking), NFV (Network Function Virtualization) oder eine Mischform – die Netzwerkvirtualisierung bleibt das grundlegende Element. Der Wechsel hin zur Netzwerkvirtualisierung ändert nichts an der Notwendigkeit, den Netzwerkverkehr zu überwachen, um auf Ereignisse rechtzeitig und angemessen reagieren zu können – aber er verändert die Vorgehensweise.

In der Vergangenheit war der beste Weg zur Erhebung von Netzwerkdaten die Positionierung eines physischen passiven Sensors, der den Beginn, den Inhalt und das Ende von Netzwerkverbindungen einer oder mehrerer Applikationen ermitteln konnte. Auf Basis der IP-Adressen der Netzwerkverbindungen konnten Unternehmen genaue Aussagen treffen, wer, wann, wo und warum Schuld an einer verminderten Performance hatte. In Kombination mit Daten von Endanwendern, die mit den Applikationen arbeiteten, und mit Leistungsdaten der Server erhielten Unternehmen einen vollständigen Überblick über ihre Applikationslandschaft und deren Performance.

In den heute zunehmend virtualisierten Umgebungen wird jedoch die Platzierung von physischen Sensoren immer schwieriger, oder genauer gesagt: weniger praktikabel. Kommunizieren virtuelle Server miteinander, die am selben Hypervisor betrieben werden, findet man keinen Datenfluss zur Überwachung auf dem Netzwerk, da die gesamte Kommunikation nur über den Hypervisor abgewickelt wird. Zusätzlichen zu den physischen Sensoren ist es daher zielführend, virtuelle Sensoren zu verwenden, die an vielen verschiedenen Stellen in virtuellen Umgebungen eingesetzt werden können.

Beim SDDC ist Sichtbarkeit entscheidend

Natürlich bilden die herkömmlichen Netzwerkdaten weiterhin einen zentralen Teil des Gesamtansatzes. Es lässt sich sogar sagen, dass die Einsicht in diesen Bereich an Bedeutung gewonnen hat. Die Einführung eines SDDC ist jedoch für viele Unternehmen Neuland. Noch sind sich viele deshalb nicht wirklich im Klaren, wie ihre Applikationen in einer solchen Umgebung funktionieren werden und folglich, welchen Einfluss diese neue Netzwerkarchitektur auf die Applikationen haben wird.

Die Traffic- und Performance-Eigenschaften sowie -Merkmale aus früheren Architekturen werden wahrscheinlich nicht dieselben sein. Doch ohne Einblick in die Art ihrer Veränderung kann sich die Lösung von Problemen oder die Optimierung der Performance recht schwierig gestalten.

Performance abhängig vom Standort

Eine Untersuchung der Universität Stanford ergab beispielsweise, dass die Performance eines innerhalb einer virtuellen Maschine (VM) ablaufenden Workloads nicht nur durch andere VMs auf derselben physischen Maschine beeinträchtigt wird, sondern auch durch den Standort der VM gegenüber anderen VMs, mit denen sie über das Netzwerk kommuniziert. Es wurde ein erheblicher Einfluss auf die Latenz und den Datendurchsatz der Netzwerkverbindungen beobachtet.

Die Studie ermittelte auch, dass in Rechenzentren mit übermäßig beanspruchten Netzwerkverbindungen der Standort einer virtuellen Maschine innerhalb der Topologie über deren Performance entscheidet. Zudem zeigte sie, dass die Performance durch bewusste Platzierung der VM im Netzwerk um mehr als 70 Prozent verbessert werden kann, verglichen mit der anfänglich zufälligen VM-Platzierung. Deshalb sollten Unternehmen berücksichtigen, dass auch ein SDDC von sich aus noch keine Verbesserungen bringt, sondern entsprechend geplant, umgesetzt sowie kontinuierlich verwaltet und optimiert werden muss.

Einen weiteren wichtigen Punkt bildet die Betriebsperspektive. Das Netzwerk stellt immer noch den größten Teil des Wegs einer Applikation vom Server zum Endanwender dar und eröffnet somit die größte Gefahr für Performance-Verluste. Dabei kann es sich um einfache Datenstaus, Paketverluste oder um ein durch Kapselung herbeigeführtes unerwünschtes Verhalten handeln, wie beispielsweise einen unterbrochenen Tunnel.

Abbildung 1: Richtige Positionierung von Applikations-Komponenten kann Latenz und Verkehrsstaus reduzieren, wenn die Übertragungswege bekannt sind.

Zudem bietet das SDDC eine sehr dynamische Netzwerkumgebung. Deshalb ist das Wissen darüber, wo die Daten in der Vergangenheit übertragen wurden, wo sie gegenwärtig sind und künftig sein sollten, von grundlegender Bedeutung für das Management der Netzwerk-Performance.

Einsichten in aktive Tunnel ermöglichen Performance-Analyse

Es ist leicht gesagt, dass Sichtbarkeit in das virtuelle Netzwerk hinein nötig ist. Aber wonach genau sollten Unternehmen suchen? Grundsätzlich müssen sie verstehen, wie virtuelle Netzwerke funktionieren. In einem Overlay-Netzwerk ist beispielsweise die Einsicht in aktive Tunnel, deren Endpunkte und die Arten von Tunneln ein guter Ausgangspunkt. Damit erhalten Unternehmen grundlegende Einblicke, die ein Verständnis ermöglichen, ob das virtuelle Netzwerk korrekt konfiguriert und eingerichtet wurde, wie geplant funktioniert und angemessen genutzt wird.

Abbildung 2: Exemplarische Darstellung zweier Prozesse auf verschiedenen Servern, die über ein Overlay-Netzwerk kommunizieren.

Diese elementare Sichtbarkeit und das Verständnis, welche Applikationen, Anwender und Server welche Tunnel durchlaufen, geben wichtige Hinweise in Bezug auf die Last in der Umgebung und unterstützen bei der Beurteilung von Performance-Verlusten, die durch Überbeanspruchung verursacht sein könnten. Diese Sicht lässt sich auch verwenden, um Nutzungsmuster zu erkennen und beispielsweise festzustellen, ob sich eine Applikation nachteilig auf eine andere auswirkt.

Zur Vervollständigung dieses Bildes sollten Unternehmen unbedingt qualitative Netzwerkmetriken wie Paketverluste und Retransmissions in ihre Metrikensammlung aufnehmen. Dazu sollten Einblicke am Server ebenso wie an Punkten innerhalb der virtuellen Infrastruktur gehören.

„Die IT ist aufgefordert, sich bemerkbar zu machen und ihre Ideen mit den Fachabteilungen auszutauschen. Ein erfolgreiches Unternehmen muss die Rolle der IT verstehen.“

Dirk Wallerstorfer, Dynatrace

xxxxx

Damit können sie feststellen, ob die virtuelle Infrastruktur negative Einflüsse auf den Datenverkehr der Applikationen hat. Wonach sie im Wesentlichen Ausschau halten sollten, ist Applikations-Performance, Performance bei Endanwendern und Verlustraten. Dies sind dieselben Metriken, die schon bei den bisherigen einfacheren Netzwerken wichtig waren.

Neue softwaredefinierte Netzwerkstrukturen machen die Datenerhebung komplizierter als dies durch ein einfaches Platzieren eines Sensors auf dem Pfad zu erledigen wäre. So sollten Unternehmen davon ausgehen, dass sie eine Reihe von Techniken zur Sammlung wichtiger Metriken nutzen müssen. Dazu gehören auf Datenfluss basierende Daten aus der virtuellen Infrastruktur selbst (zum Beispiel durch NetFlow, IPFIX, sFlow und so weiter), Daten auf Paketebene von Agenten und/oder Sensoren an virtuellen Abzweigungen sowie direkt aus der zentralen Steuereinheit eines softwaredefinierten Netzwerks, dem SDN-Controller, bezogene Daten.

Zahlreiche Vorteile von SDDC für den Weg zur IT-Automatisierung

Wie auch immer Unternehmen vorgehen, die Netzwerk-Virtualisierung bietet ihnen zahlreiche Vorteile. Dazu gehören Kostenreduzierungen, die Verbesserung von Platzbedarf und Leistungsaufnahme im Rechenzentrum, die Verringerung von Produkteinführungszeiten sowie eine höhere Geschwindigkeit und Agilität. Dies erfüllt die heutigen Erwartungen an die Servicebereitstellung.

Um aber den optimalen Nutzen aus SDDC ziehen zu können, benötigen sie Einsicht in das Netzwerk und die Services, die es bereitstellt. Diese Transparenz ist entscheidend für die Optimierung im Betrieb, sowohl wenn neue Infrastrukturen geplant als auch wenn bestehende ausgebaut werden. Denn damit stehen nachvollziehbare Betriebsdaten in der Produktion zur Verfügung und letztendlich ein Weg zur echten Automatisierung. Und diese ist nötig, um mobile Applikationen reibungslos und mit hoher Performance bereitzustellen, auch wenn sehr hohe Kapazitäten gefordert sind.

Über den Autor:
Dirk Wallerstorfer ist Diplom-Ingenieur und Developer Advocate bei Dynatrace in der Produktgruppe Ruxit.

Folgen Sie SearchDataCenter.de auch auf Twitter, Google+, Xing und Facebook!

Erfahren Sie mehr über Cloud Computing

- GOOGLE-ANZEIGEN

ComputerWeekly.de

Close