Sergey Nivens - stock.adobe.com

Monitoring: Wie Sie Netzwerkanalyse-Tools effizient nutzen

Lesen Sie, welche Analyse-Tools beim Überwachen des Netzwerks helfen und um welche Systeme und Prozesse Sie sich vorab kümmern sollten, damit sie so effektiv wie möglich sind.

Netzwerkmanager befinden sich häufig in einer Zwickmühle. Um ausreichend Informationen zu sammeln, damit sie Netzwerkproblemen auf den Grund gehen können, benötigen sie Daten, und zwar sehr viele. Das Erfassen und Übertragen dieser Daten kann jedoch genau zu dem Problem beitragen, das sie zu lösen versuchen. Darüber hinaus umfassen Netzwerke aufgrund ihrer Beschaffenheit häufig unterschiedliche funktionale Bereiche, Abteilungen und Geschäftseinheiten. Informationen mit Netzwerkanalyse-Tools und anderen Mitteln auf allen genannten Gebieten zu erfassen, erfordert oft die Zusammenarbeit mit anderen, für die das Netzwerk-Management keine Priorität darstellt.

Netzwerkanalyse-Tools und Bandbreitenprobleme

„Wir beobachten, dass IT-Manager mehr Daten aus Quellen mit höherer Auflösung erfassen, diese Daten genauer analysieren und sie dann für längere Zeiträume aufbewahren“, sagt Jon Toor, Chief Marketing Officer bei Cloudian, einem im Bereich Data Storage tätigen Unternehmen. „Dadurch werden die für den Transport dieser Daten um die Welt benötigten Netzwerkressourcen stärker belastet“, fügt er hinzu.

Toors Kunden stehen nicht allein da: Das Verwalten der Performance ist eine Herausforderung für eine wachsende Zahl von Netzwerkfachleuten, wenn die Datenvolumen weiterhin steigen und so die Netzwerke unter immer stärkeren Druck geraten.

Laut Vivek Bhalla, Research Director bei Gartner, besteht die Herausforderung in puncto Messungen im Kern typischerweise darin, welche Datenquelle verwendet wird, um den Netzwerk-Traffic zu überwachen. „Wir erleben häufig, dass Organisationen aktive Quellen für die Datenerhebung nutzen, zum Beispiel das Simple Network Management Protocol (SNMP) und Windows Management Instrumentation (WMI) oder synthetisches Monitoring, etwa beim Einsatz von Ciscos IP SLA (Internet Protocol Service Level Agreement)“, erläutert Bhalla.

Doch diese Methoden dürften wohl kaum jedes Problem lösen. Der Grund liegt darin, dass diese Ansätze zwar gute Ergebnisse für das Availability Monitoring liefern – das heißt, sie verraten, welche Teile des Netzwerks wo funktionieren und wo nicht. Aber diese Mechanismen beobachten nicht unbedingt auch die Echtzeit-Performance. Der einzige Weg, um herauszufinden, ob sich etwas verschlechtert oder verbessert, besteht darin, die betreffenden Geräte kontinuierlich abzufragen. „Dadurch besteht die Möglichkeit für ein exzessives Polling der eigenen Umgebung – etwas, das einen bestehenden Flaschenhals oder ein vorhandenes Performance-Problem verschlimmern kann“, sagt Bhalla.

Produkte von Anbietern wie Gigamon, Ixia, Big Switch Networks und NetScout könnten das Problem durch übermäßiges Polling entschärfen, erklärt Bob Laliberte, Practice Director bei Enterprise Strategy Group, aber sie erforderten im Allgemeinen die Installation von Netzwerk-Taps und Aggregatoren, um die Daten zu sammeln, zu filtern und an die entsprechenden Tools zu verteilen. „Die meisten bezeichnen diesen Bereich als Netzwerkpaket-Broker“, sagt er.

„Wenn die Taps, Aggregatoren, Testmodule und Netzwerkpaket-Broker ordnungsgemäß bereitgestellt wurden, kann dies für die meisten Legacy-Umgebungen äußerst effektiv sein“, meint Laliberte.

Das Deployment dieser Produkte kann allerdings einigermaßen kostspielig sein, denn es ist fast so, als würde man ein weiteres Netzwerk überwachen. Während die Umgebungen immer stärker virtualisiert und dynamischer werden, wird die Datenerhebung zunehmend herausfordernder, weil häufig der Ost-West-Traffic zwischen virtuellen Maschinen erfasst werden muss, der an keinem physischen Tap vorbeikommt. Darüber hinaus bedeutet der dynamische Charakter einer stark virtualisierten Umgebung, dass sich ebenfalls die Erfassungspunkte rasch ändern und virtuelle Taps notwendig sind. „Es gibt eine Menge verschiedener Optionen und Eigenschaften. Organisationen sollten also prüfen und festlegen, was sie benötigen, denn Highend-Lösungen können teuer werden“, ergänzt Laliberte.

Bhalla empfiehlt seinerseits Flow-basierte Technologien wie IP Flow Information Export, Cisco NetFlow und sFlow für den Großteil der Traffic-Analysen. „Wo es möglich ist, kann dies durch eine feingranulare Paketerfassung und -analyse ergänzt werden“, sagt er.

Strategien zur Netzwerkanalyse, die Unternehmen heute überwiegend nutzen
Abbildung 1: Strategien zur Netzwerkanalyse, die Unternehmen heute überwiegend nutzen

Außer dem Einsatz von Tools für die Netzwerkanalyse, die für die Kontrolle der Netzwerk-Performance konzipiert sind, beginnen Unternehmen auch zu untersuchen, wie sie am besten die Interaktion von Endanwendern mit dem Netzwerk beobachten können – die sogenannte Quality of Experience. Obwohl Datenquellen wie das Simple Network Management Protocol, Flow und Pakete gut geeignet sind, um den Netzwerkgeräten eine gerätebasierte quantitative Instrumentierung zu entnehmen, „spiegelt dies nicht immer die tatsächliche Erfahrung der Endbenutzer wider, insbesondere für verzögerungsintolerante Anwendungen und Services wie VoIP, Desktop-Video, Collaboration Tools und andere Formen von Unified Communications“, erklärt Bhalla.

In diesen Fällen ist es notwendig, die quantitative gerätebasierte Instrumentierung um eine qualitative Einschätzung aus Sicht des Endbenutzers zu ergänzen. Bhalla sagt, Gartner habe beobachtet, dass eine wachsende Zahl von Anbietern nach Möglichkeiten sucht, das Gefühl des Endbenutzers zu erfassen. Dazu dienen Scoring-Verfahren wie Collective Intelligence Benchmarking, das umfangreiche Datensätze zu den Erfahrungen von Endbenutzern untersucht. Die Ergebnisse werden anonymisiert an Endanwender und Organisationen für eine vergleichende Analyse und zum Benchmarking zurückmeldet.

Auf welcher Seite stehen Sie?

Eine noch ganz andere Herausforderung ist die notwendige Zusammenarbeit, um Netzwerkanalyse und -Monitoring auch tatsächlich durchführen zu können. „Die Zugriffsdaten, selbst um lediglich Daten vom Netzwerk-Equipment zu lesen, sind in vielen Organisationen streng gehütete Geheimnisse“, sagt Thomas Stocking, Vice President für die Produktstrategie bei GroundWork Open Source, einem Monitoring-Anbieter. „Allein die Aktivierung von SNMP-Polling kann zum Gegenstand von Verhandlungen werden, die Wochen dauern“, erklärt er. Und etwas wie die Konfiguration von Appliances für Paketmitschnitte erfordere in der Regel die Zustimmung der obersten Managementebene, fügt er hinzu.

Organisatorische Hindernisse können eine riesige Herausforderung für das Netzwerk-Monitoring sein, stimmt Bhalla zu. Oft werden die Netzwerk-Operations-Teams von benachbarten Abteilungen behindert, die nicht verstehen, warum sie diesen Teams und deren Netzwerkanalyse-Tools Zugriff auf ihre Server, Anwendungen oder Sicherheitsprozesse gewähren sollen. Mitunter geht es um reines Kompetenzgerangel: Einige Gruppen nehmen dann an, das Netzwerk-Operations-Team wolle ihre Zuständigkeiten an sich reißen. „In vielen Fällen betrete ich einen Raum und kann sofort die Spannung zwischen den für das Netzwerk und den für die Server Verantwortlichen spüren“, sagt Bhalla. Zu anderen Gelegenheiten äußert sich das Symptom in Form von Gleichgültigkeit zwischen der Netzwerk-Operations- und der Security-Operations-Gruppe, die oft ähnliche Daten für ihre jeweiligen Zwecke erfassen, aber unabhängige und separate Tools zur Netzwerkanalyse einsetzen.

Die Kultur für derartige Revierstreitigkeiten ist oft die größte Herausforderung, die es zu meistern gilt. Bhalla ist der Ansicht, der Schlüssel, um solche Hürden zu überwinden, liege darin, sie als menschliche Herausforderung anzuerkennen. Mit anderen Worten: Treten Sie Ihrem Gegenüber nicht mit einer Checkliste entgegen, als würde es um ein technisches Problem gehen. „Teams zur Zusammenarbeit zu bewegen, gelingt am besten, wenn sie nicht einmal bemerken, dass sie Hand in Hand arbeiten. Es kommt darauf an, das Ganze als Herausforderung zu verkaufen, für die die Fähigkeiten beider Teams oder Gruppen erforderlich sind, um das vorliegende Problem zu lösen“, erläutert Bhalla.

Er ergänzt, dass kooperatives Handeln sich fördern lasse, indem man die Methoden überdenkt, die für die Beurteilung des IT-Personals genutzt werden. Der Fokus solle darauf liegen, eine Atmosphäre herzustellen, die eine Zusammenarbeit unterstützt und die gemeinsamen geschäftlichen Ziele hervorhebt, „anstatt die Mitarbeiter auf eine Weise zu bewerten, die eine Angst vor Versagen begünstigt“, so Bhalla weiter.

„Ich glaube, das größere Problem hier besteht vor allem darin, die richtigen Informationen zu den richtigen Teams zu bringen“, meint Laliberte. Doch wenn Monitoring-Verfahren genutzt werden, die die Performance beeinflussen, könne dies definitiv Probleme verursachen, fügt er hinzu. Auch die Weitergabe der Kosten an mehrere unterschiedliche Abteilungen könnte für Spannungen sorgen, denn dann streiten die Gruppen sich darum, wie viel jede einzelne zahlen sollte.

Nach Aussage von Destiny Bertucci, Head Geek bei SolarWinds, einem Anbieter von Netzwerkmanagement-Software, ist der Sache eher gedient, wenn man die Kapazitätsplanung versteht und die Fähigkeit besitzt, künftige Anforderungen an die Netzwerk-Infrastruktur zu prognostizieren.

Die Verwendung von Netzwerkanalyse und Netzwerk-Monitoring – sowie die Anwendungen, Server und Technologien, auf denen die Netzwerke basieren – werde es Unternehmen ermöglichen, Probleme proaktiv anzugehen, sagt sie. „Berichte über das Monitoring sind eine heute in den Firmen unzureichend genutzte Strategie, die dazu beitragen kann, Ihre geschäftlichen Anforderungen vorherzusagen, noch ehe Sie einen Anruf von einem Nutzer erhalten, der Probleme hat.“

Nächste Schritte

Ist aktives oder passive Netzwerk-Monitoring besser?

Fehlersuche und Monitoring im Netzwerk

Gratis-eBook: Kaufberatung Netzwerk-Performance-Monitoring

Erfahren Sie mehr über Netzwerk-Monitoring und -Analyse

ComputerWeekly.de
Close