Suchen

Störungen proaktiv verhindern Predictive Monitoring – Monitoring der Zukunft

| Autor / Redakteur: Bernhard Lück / Dipl.-Ing. (FH) Andreas Donner

Während bei herkömmlichem Monitoring nur nachträglich reagiert werden kann, ist es beim Predictive Monitoring möglich, auf Basis der Bestimmung von Eventmustern auch künftige Ausfälle zu prognostizieren – ein Modell für die Zukunft, meint IT-Full-Service-Provider Consol.

Firma zum Thema

Monitoring mit proaktivem Ansatz macht es möglich, eventuelle künftige Ausfälle zu prognostizieren.
Monitoring mit proaktivem Ansatz macht es möglich, eventuelle künftige Ausfälle zu prognostizieren.
(Bild: Kurhan – Fotolia.com)

Status quo im Monitoring-Bereich ist das reaktive Monitoring, das z.B. auf der Analyse von Logfiles basiert. Doch selbst bei einer Echtzeitanalyse könne auf veränderte Bedingungen nur nachträglich reagiert werden. Würden etwa Belastungsspitzen erkannt, könnten zusätzlicher Ressourcen erst anschließend bereitgestellt und Engpässe damit nicht verhindert werden. Außerdem seien mit einem reaktiven Monitoring Störungen oder gar Ausfälle von Applikationen generell nicht auszuschließen, da keine Detektion potenzieller Probleme oder Fehler erfolge.

„Ein proaktiver oder auch Predictive Monitoring genannter Ansatz überwindet die Schwächen herkömmlicher Vorgehensweisen, da auf Basis der Bestimmung von Eventmustern auch eventuelle künftige Ausfälle prognostiziert werden können. Dadurch ist es möglich, frühzeitig entsprechende Gegenmaßnahmen einzuleiten“, betont Henning von Kielpinski, Leiter Business Development bei Consol in München.

Die umfassenden Analysen, die für ein erfolgreiches Predictive Monitoring erforderlich seien, führten zwangsläufig zum Thema Big Data. Es müssten alle internen und externen Infrastrukturkomponenten in die Überwachung einbezogen und die Daten z.B. mit weitverbreiteten Logging-Tools wie Splunk oder Graylog analysiert und aufbereitet werden. Basierend auf der permanenten Auswertung einer großen heterogenen Datenmenge könne dann im Rahmen eines Predictive-Monitoring-Ansatzes dynamisch ein Zukunftsbild abgeleitet werden. Ohne eine Big-Data-Anwendung sei diese komplexe Aufgabenstellung nicht zu bewältigen.

Der Erfolg des Predictive Monitoring hänge im Wesentlichen von zwei Faktoren ab: einem End-to-End-Monitoring und einer umfassenden Datenbasis des Providers. End-to-End-Monitoring würde heißen, dass alle IT-Prozesse unter Einbezug des gesamten Application-Stacks in Echtzeit überwacht werden, also alle technischen Systeme, Datenbanken und Applikationen. Nur so sei eine system- und funktionsübergreifende Ermittlung von Schwachstellen möglich. Unverzichtbar sei zudem, dass der Anbieter von Monitoring-Lösungen und -Services über ausreichende Erfahrungswerte mit unterschiedlichsten IT-Umgebungen und eine breite Datenbasis verfügt, um auf alle Eventualitäten gut vorbereitet zu sein.

Die Vorteile einer End-to-End-Monitoring-Lösung, die auf einem proaktiven und prognostischen Ansatz basiert, seien weitreichend. Systeme könnten so immer auf einem aktuellen Stand gehalten und Verfügbarkeit wie Performance zu jeder Zeit sichergestellt werden. Nicht zuletzt spreche auch unter Kostengesichtspunkten einiges für Predictive Monitoring. Wenn ungeplante Aktivitäten überflüssig würden, könnten auch unerwartete Kosten vermieden werden.

(ID:44109229)