NicoElNino - stock.adobe.com

Transparenz ist eine Herausforderung in modernen Netzwerken

Eine hohe Netzwerktransparenz vereinfacht das Lösen von Problemen, ermöglicht das Überprüfen von leistungsabhängigen Konfigurationen und erhöht die Sicherheit im Netzwerk.

Da Netzwerke immer komplexer werden, ist es unerlässlich, eine durchgängige Transparenz über das komplette Netzwerk hinweg zu erreichen. Doch einige traditionelle Tools zum Network Monitoring sind mit neueren und fortschrittlicheren Netzwerktechnologien teilweise überfordert. Hier ist es schwierig, eine ausreichende Sichtbarkeit zu erreichen.

So erhöhen Entwicklungen wie Netzwerkvirtualisierung, dynamisches Per-Flow-Routing und Multi-Cloud-Umgebungen die Komplexität zusätzlich. Jede Technologie macht es schwieriger, relevante Kennzahlen zu sammeln, die zur Überwachung des Netzwerks beitragen.

Um diese Komplexität besser zu verstehen, beschreiben wir zunächst, warum die Transparenz im Unternehmensnetzwerk entscheidend ist. Anschließend untersuchen wir, wie verschiedene Netzwerktechnologien das Erreichen einer vollständigen Netzwerktransparenz beeinträchtigen.

Warum Transparenz im Netzwerk wichtig ist

Unternehmen sollten aus mehreren Gründen eine ganzheitliche Sicht auf den Status ihrer Netzwerke anstreben. Zum einen lassen sich durch eine hohe Sichtbarkeit Fehler und auftretende Probleme im Netzwerk einfacher und besser lösen. Durch eine lückenlose Überwachung der Datenflüsse im lokalen Netzwerk (LAN), Wide Area Network (WAN) und sogar bis zum Internet-Edge können IT-Teams alle möglichen Ursachen für Probleme identifizieren, seien es ausgefallene Netzwerksegmente oder Schnittstellen sowie verschlechterte Verbindungen.

Ein weiterer Grund für eine hohe Transparenz im Netzwerk ist das Überprüfen leistungsabhängiger Konfigurationen. Mit dieser Sichtbarkeit können Netzwerkmanager besser verstehen, wie sich Netzwerkprobleme auf die Daten der einzelnen Anwendungen auswirken. Wenn bestimmte Anwendungen geschäftskritisch sind, ist es möglich, diese wichtigen Datenflüsse mit Konfigurationstechniken wie Quality of Service (QoS), Traffic Shaping und Policing zu optimieren. Dank einer hohen Transparenz kann das Netzwerkteam dann prüfen, ob die Leistungsänderungen funktionieren oder ob es die Konfiguration weiter anpassen muss.

Schließlich verbessert die Transparenz die Auditierung und Sicherheit des gesamten Netzwerks. Da jeder Mitarbeiter das Netzwerk nutzt, ist es der ideale Ort, um verschiedene Sicherheits- und DLP-Tools (Data Loss Prevention) einzusetzen. Wenn Firmen genau wissen, woher die Daten stammen und wo sie landen, können Sie ihr geistiges Eigentum schützen, das in einem digitalen Format vorliegt.

Neuere Technologien können die Transparenz mindern

Moderne Technologien können zwar die Effizienz in einem Unternehmensnetzwerk erheblich verbessern, erhöhen aber die Komplexität zusätzlich. Damit wird es auch schwieriger, die Leistung eines Netzwerks durchgängig End-to-End zu überwachen und zu messen.

Da Netzwerke immer komplexer werden, ist es unerlässlich, eine durchgängige Transparenz über das komplette Netzwerk hinweg zu erreichen.

Ein gutes Beispiel dafür sind virtualisierte Netzwerke. Routing und Switching von Betriebssystemen läuft hier nicht mehr auf Bare-Metal-Hardware ab. Die Virtualisierung verschiebt diese Intelligenz stattdessen auf eine virtuelle Maschine (VM), die einen Pool gemeinsamer Hardware-Ressourcen nutzt.

Das Problem: Viele traditionelle Monitoring-Tools arbeiten mit einigen Hypervisoren nur unzureichend zusammen. Normalerweise überwacht ein Tool Appliance-basierte Netzwerkkomponenten, während eine andere Lösung das Monitoring der virtuellen Router, Switches und Firewalls übernimmt. Das kann aber zu blinden Flecken und mangelnder Transparenz im Netzwerk führen.

Auch Technologien wie Overlay-Netzwerke bringen Vorteile und Nachteile mit sich. Hier sind nicht alle Monitoring-Tools in der Lage, die zugrunde liegende Hard- und Software komplett zu überwachen. Dadurch können Probleme unterhalb des virtualisierten Overlays Leistungseinbußen verursachen, die jedoch aufgrund mangelnder Sichtbarkeit unbemerkt bleiben.

Tools mit künstlicher Intelligenz (KI), die beispielsweise in Softwared-defined Networks (SDN) zum Einsatz kommen, können die Netzwerktransparenz ebenfalls erschweren. SDN verwendet Netzwerkrichtlinien in Kombination mit KI-Analysen, um den optimalen Pfad für jeden Datenfluss zu bestimmen, der ein LAN oder WAN durchläuft.

Ein Großteil dieser Entscheidungen hängt von der Überwachung des Echtzeitzustands von Netzwerkverbindungen ab. Daher müssen Überwachungs- und Sichtbarkeits-Tools intelligent genug sein, um dynamische Per-Flow-Routing-Technologien zu verstehen. Dies wird in der Regel mit ausgefeilteren Überwachungs-Tools wie NetFlow erreicht.

Auch hybride und Multi-Cloud-Netzwerkarchitekturen verursachen erhebliche Lücken in der End-to-End-Sichtbarkeit. Da Clouds wahrscheinlich auf sehr unterschiedlichen Hard- und Software basieren, ist es eine Herausforderung, die richtigen Monitoring-Tools zu finden, die sich in verschiedenen Umgebungen einsetzen lassen.

Eine weitere Herausforderung: inwieweit arbeiten die Monitoring-Tools über mehrere Netzwerke oder Cloud-Umgebungen hinweg konsistent? Firmen sollten daher die Entscheidung für den richtigen Cloud-Service-Provider und die entsprechenden Monitoring-Tools nicht auf die leichte Schulter nehmen.

Nächste Schritte

Checkliste für Netzwerk-Monitoring

Performance Monitoring in automatisierten Netzwerken

Netzwerk-Monitoring-Tools für hybride Clouds

Erfahren Sie mehr über Netzwerk-Monitoring und -Analyse

ComputerWeekly.de
Close