Anwendungs-Performance-Management: APM in komplexen IT-Umgebungen

Unternehmen müssen unabhängig von Standort und Entfernung eine gute Anwendungs-Performance und bestmögliche Anwendererfahrung sicherstellen.

Die Komplexität moderner IT-Umgebungen verändert auch die Anforderungen an Lösungen für das Anwendungs-Performance-Management (APM, Application Performance Management) grundlegend. 

Unternehmen nutzen heute immer mehr geschäftskritische Anwendungen,  agieren in größeren globalen Netzwerken und setzen auf mobile Geräte, wie Smartphones und Tablets, um die Produktivität voranzutreiben. 

Christian Lorentz,
Riverbed

Hinzu kommen neue Entwicklungen wie Cloud, Virtualisierung und Konsolidierung von Rechenzentren, so dass es immer schwerer wird, Probleme zuverlässig zu erkennen und zu beheben.

Angesichts all dieser Veränderungen ist es oft eine gewaltige Herausforderung, Transparenz herzustellen, besonders bei wichtigen Diensten. Unternehmen müssen daher flexibel sein und in Monitoring-Lösungen investieren, die sich an diese neue Welt einer dynamischen und schnell verändernden Infrastruktur anpassen können. 

Folgende Aspekte sollten Unternehmen bei der Evaluierung solcher Lösungen vor allem beachten:

Performance da messen, wo es darauf ankommt

Die Anwendererfahrung kann den Unterschied zwischen Erfolg und Misserfolg ausmachen. Daher sollte nach Möglichkeit immer die Performance gemessen werden, die der Anwender auf seinem System tatsächlich über seinen Browser erlebt. 

Ideal wäre ein Messwerkzeug, das zum einen sehr detaillierte Daten über einzelne Transaktionen erfasst und zum anderen auch High-Level-Daten für alle Benutzer nach Land oder nach der Art des Browsers anzeigt. IT-Teams können dann zuverlässig erfassen, wie gut die Performance einer Anwendung tatsächlich ist – unabhängig von Standort und Plattform des Anwenders.

Transparenz im gesamten Unternehmen

Wenn Anwendungen infolge von Konsolidierungsmaßnahmen, Kosteneinsparungen oder Virtualisierung in das Rechenzentrum oder die Cloud verlagert werden, ist es häufig nicht praktikabel, die Monitoring-Tools entsprechend schnell anzupassen, um weiterhin den erforderlichen Überblick zu behalten. 

Daher sollten Unternehmen Monitoring-Lösungen nutzen, die in die Infrastruktur integriert sind. Hier bieten sich Lösungen auf der Basis von Flow-Daten an, wie sie beispielsweise NetFlow in der gesamten Netzwerkumgebung sammelt. Sie können die dringend erforderliche Transparenz gewährleisten, egal, wohin eine Anwendung verschoben wird.

Flexibler Einsatz

Bei Anwendungen, die zunehmend virtualisiert in der Cloud laufen, sind gerätebasierte APM-Lösungen nicht immer zielführend. Deshalb ist es wichtig, eine Lösung zu implementieren, die so flexibel wie die Anwendung selbst ist. Es sollte möglich sein, die Überwachungskomponenten einfach und ohne Verlust der Transparenz zu verlagern, sobald eine virtualisierte Anwendung zu einer anderen Gruppe von Servern migriert wird.

Die Performance zählt

Die schnelle Lösung komplexer Anwendungsprobleme erfordert den Zugriff auf eine Vielzahl detaillierter Kennzahlen. Die Möglichkeit, die relevanten Daten effizient zu speichern und schnell abzurufen, kann den Unterschied zwischen dem Beheben eines Problems in Minuten statt in Stunden oder sogar Tagen ausmachen. 

Idealerweise sollte das Produkt einfach in der Bedienung sein, damit das IT-Team schnell von der Zusammenfassung auf eine Detailansicht wechseln kann. Ebenso sollte es möglich sein, eine Lösung anhand möglichst praxisnaher Szenarien zu bewerten. Nur dann kann ein Unternehmen davon ausgehen, dass die Monitoring-Lösung hält, was sie verspricht, wenn es wirklich darauf ankommt.

Performance-Messung im Code

Ein wichtiger Aspekt jeder APM-Lösung ist die Möglichkeit, die Performance einer laufenden Anwendung zu erfassen und zu messen. 

Unternehmen müssen in Monitoring-Lösungen investieren, die sich an diese neue Welt einer dynamischen und schnell verändernden Infrastruktur anpassen können.

Für moderne Anwendungen schließt dies die Unterstützung von Entwicklungsumgebungen wie Java und .NET ein, die häufig beim Aufbau von Unternehmensanwendungen zum Einsatz kommen. 

Außerdem werden Tools benötigt, die umfassende Kennzahlen im Sekundentakt mit geringem Overhead messen können, um nicht selbst wiederum Performance-Probleme zu verursachen.

Ein leistungsfähiges Repository für große Datenmengen ist ebenfalls ein Muss. 

Dieses muss mit einer ebenso leistungsfähigen Benutzeroberfläche gekoppelt sein, die schnelle Wechsel von der Übersicht aller Transaktionen zur Prüfung problematischer Einzelbereiche des Codes ermöglicht. 

Und nicht zuletzt ist es erforderlich, eine Anwendung sowohl in der Entwicklung als auch in der Produktion flexibel mit der gleichen Lösung überwachen zu können.

Test wichtiger Anwendungsfunktionen

Um sicherzustellen, dass wichtige Funktionen einer Anwendung ordnungsgemäß arbeiten, sollten diese regelmäßig getestet werden. 

Hierzu hat sich die Einführung automatisierter Tests zur Prüfung einer Anwendung entweder in der Vor-Produktion (Test) oder in der Produktion als hilfreich erwiesen. Wenn einer der Tests, die einfach oder beliebig komplex sein können, fehlschlägt, kann sich das IT-Team im Idealfall um das Problem kümmern, noch bevor die Endanwender es überhaupt bemerken.

Skalierbarkeit und Analysen

Wie zu erwarten, erfordert das Sammeln detaillierter Daten über Transaktionen in einer laufenden Anwendung oder die Erfassung des gesamten Netzwerkverkehrs für die gleiche Anwendung hoch skalierbare Datenspeicher, die schnell durchsucht werden können. 

Leider wird allzu oft versucht, die Ursache eines Problems durch blindes Durchsuchen großer Datenmengen zu identifizieren – ein nahezu aussichtsloses Unterfangen, das nicht zur effektiven und schnellen Lösung des Problems beiträgt. Umfassende Analysen, die alle eingehenden Daten auf Anzeichen von Schwierigkeiten überwachen, liefern hingegen die benötigte Transparenz und Skalierbarkeit.

Unterstützung softwaredefinierter Netzwerke

Mit der zunehmenden Verbreitung der Netzwerk-Virtualisierung ist die Verfügbarkeit von Tools, die sowohl das logische Netzwerk als auch dessen Bezug zur physischen Infrastruktur verstehen, von entscheidender Bedeutung.

Fazit

Anwendungen sind heute an einem beliebigen Ort angesiedelt – in Rechenzentren, Zweigstellen oder der Cloud – während Mitarbeiter und Kunden überall sein können. Um in dieser neuen Landschaft erfolgreich zu sein, müssen Unternehmen Entfernung und Standort in einen Wettbewerbsvorteil verwandeln, indem sie unabhängig vom Standort die reibungslose Anwendungs-Performance und bestmögliche Anwendererfahrung sicherstellen. Um mit dieser neuen Umgebung Schritt zu halten, benötigen CIOs volle Transparenz und Kontrolle einer Anwendungs-Performance-Infrastruktur, die gleichzeitig standortunabhängig ist.

Über den Autor: 
Christian Lorentz ist Senior Product Marketing und Alliance Manager bei
Riverbed Technology.

Folgen Sie SearchNetworking.de auch auf Facebook, Twitter und Google+!

Artikel wurde zuletzt im Oktober 2014 aktualisiert

Erfahren Sie mehr über Netzwerk- und Anwendungs-Performance

- GOOGLE-ANZEIGEN

ComputerWeekly.de

Close