Mobile-Menu

Mission: Possible – Performanceproblemen auf der Spur

End-to-End-Analyse – ein hochkomplexes Troubleshooting-Szenario

Seite: 2/2

Anbieter zum Thema

Messpunkte: verstehen, wie die Anwendung kommuniziert

Der Kommunikationsfluss und mögliche End-to-End-Messpunkte sind in Abbildung 1 dargestellt. Hier schickt eine Anwendung Daten durch eine komplexe Infrastruktur, die dann an bestimmten Messpunkten (1) abgegriffen und für eine End-to-End-Analyse ausgewertet werden können.

Die Grafik zeigt, wie ein einziger Klick eines Anwenders eine Transaktion auslöst (2) und deren Paketfluss zu einer messbaren Antwortzeit (3) beim Endanwender führt. Weiterhin wird deutlich, dass es Strecken gibt, auf denen Netzwerklaufzeiten auftreten (4), oder dass es auf einzelnen Serversystemen zu deutlichen Prozesszeiten (5) kommt, die direkten Einfluss auf die Antwortzeit haben.

Bei der End-to-End-Analyse spielt die Komplexität der Anwendung nur eine untergeordnete Rolle, sie gilt es, lediglich bei der Messplanung und -vorbereitung zu berücksichtigen. Selbst komplexe Portalanwendungen mit Dutzenden Servern im Rechenzentrum können mit dem entsprechenden Fachwissen über Applikationskommunikation mit wenigen Messpunkten vermessen werden.

In spezielle Analysetools integrierte Decode Engines beispielsweise ermöglichen ein Reverse Engineering auf Anwendungsebene. Auf diese Weise helfen die Tools zu verstehen, wie eine Anwendung kommuniziert und welche Abhängigkeiten diese zur Infrastruktur hat. Engpässe oder ungünstiges Kommunikationsverhalten wie SQL-Massenanfragen können so schnell aufgespürt und den einzelnen, zu optimierenden Transaktionen innerhalb einer Applikation eindeutig zugewiesen werden.

Optimierungspotenzial erschließen, Zeit und Kosten sparen

Die Zeiteffekte (4) und (5) aus Abbildung 1 lassen sich addieren und, wie in Abbildung 2 (Screenshot von OPNET ACE Analyst) dargestellt, auf die Verursacher verteilen. So kann für jede vermessene Transaktion eine Aussage bezüglich des Optimierungspotenzials getroffen werden.

Für das Netzwerk wird die ermittelte Gesamtzeit dann weiter differenziert und in die Bestandteile Latenzzeiteffekt, Bandbreiteneinfluss, Protokolleffekte und Auslastungseffekte aufgebrochen. Dies ermöglicht sehr präzise Aussagen zu Art und Weise einer möglichen Optimierung. In Abbildung 2 ist zu erkennen, dass das Netzwerk zwischen Client und Server den höchsten Anteil an der gesamten Antwortzeit von 3,17 Sekunden hat.

Dieser Anteil setzt sich zu großen Teilen aus Latenzzeit und Protokolleffekten zusammen. Das bedeutet, dass die gemessene Transaktion einer Anwendung aufgrund ihres ungünstigen Kommunikationsverhaltens (Massenkommunikation) Verzögerungen durch Aufsummierung von Einzeleffekten verursacht – eine längere Antwortzeit kommt also nicht etwa durch ein inperformantes Netzwerk zustande.

Mit Hilfe dieser Informationen erhalten IT-Betreuer und Entwickler Einblick in die Abhängigkeiten innerhalb des Systems und Kenntnisse darüber, wie sich die Arbeitsweise einer Anwendung auf die gesamte IT-Landschaft auswirken kann. Oftmals wird dabei die Frage gestellt, wie sich das Netzwerk bzw. die Infrastruktur auf die Applikation auswirkt. Die genauso wichtige Gegenfrage, wie sich die Applikation auf die Infrastruktur auswirkt, darf jedoch nicht vergessen oder vernachlässigt werden.

Fazit

Applikationen müssen im Tagesbetrieb ordnungsgemäß funktionieren und Systeme ausreichend Kapazität bieten. Daher reichen im Sinne einer Qualitätssicherung bei komplexen Anwendungen, die über dezentrale Netzwerke betrieben werden, Lasttests und funktionale Tests bei Weitem nicht mehr aus.

Werden dagegen bereits während der Entwicklungsphase End-to-End-Analysen betrieben, lässt sich schnell und kostengünstig auf auftretende Probleme reagieren. Mit den Maßnahmen und Methoden der End-to-End-Analyse ist es möglich, das Risiko, in Performanceprobleme zu geraten, im Vorfeld fast gegen Null zu minimieren. Die Vorteile liegen auf der Hand: Ein einziger Spezialist ist ausreichend, um die betroffene Anwendung vom Client bis zum letzten Server zielgerichtet zu überprüfen. Zeit, Personenaufwand, Kosten – und nicht zuletzt Nerven – werden so gespart.

Über den Autor

Thomas Rode ist Senior Consultant bei Computacenter

(ID:2047424)