Suchen

„Die Silos im IT-Monitoring aufbrechen!“ 10 Thesen zum IT-Monitoring

Autor / Redakteur: Gregory Blepp / Dipl.-Ing. (FH) Andreas Donner

BYOD (Bring Your Own Device), Virtualisierung, Cloud-Computing, VoIP und Tele-Working haben die Komplexität von IT-Infrastrukturen deutlich erhöht. Der bisherige Ansatz, in getrennten Abteilungen und mit spezialisierten Tools ein punktuelles Monitoring vorzunehmen, wird der neuen Vielschichtigkeit der Unternehmens-IT kaum noch gerecht.

Firma zum Thema

Netzwerk-Monitoring verlangt ein vernetztes Monitoring, das über das RZ hinaus auch Internet, Intranet, VoIP, die Cloud und externe Endgeräte der Mitarbeiter (BYOD) mit einbezieht.
Netzwerk-Monitoring verlangt ein vernetztes Monitoring, das über das RZ hinaus auch Internet, Intranet, VoIP, die Cloud und externe Endgeräte der Mitarbeiter (BYOD) mit einbezieht.
(Bild: Gerd Altmann - pixelio.de)

Heute tragen IT-Leiter und Administratoren nicht nur Verantwortung für die stabile Verfügbarkeit der bestehenden Infrastruktur. Sie sollen auch Entwicklungsinitiativen starten und am besten neue Geschäftsmodelle auf den Weg bringen.

In der Praxis haben IT-Verantwortliche aber schon mit der Absicherung des Status quo ihre „liebe Not“. Für umfassende Analysen, die Schwachstellen und Innovationspotenziale systematisch ermitteln, fehlt meist die Zeit. Häufig genug sind IT-Verantwortliche „Getriebene“ und damit ausgelastet, Störungen im Produktivbetrieb zu beseitigen: Und wenn schon die reaktionsschnelle Beseitigung der Fehlersymptomatik Probleme bereitet, dann rückt das präventive, nachhaltige und grundsätzliche Beheben von Schwachstellen in weite Ferne.

Gutes Monitoring ist keine Ressourcenfrage

Der Ruf nach mehr Ressourcen für das IT-Monitoring ist verständlich, schafft aber in der Regel keine Abhilfe. Das eigentliche Problem liegt in der parzellierten Organisation der Mitarbeiter, die das Monitoring bereichsgebunden durchführen. Die Fokussierung auf den eigenen Verantwortungsbereich führt zu einer mangelhaften Synchronisation der Abteilungen. Datenabgleich, Wissensvernetzung und abgestimmtes Handeln bleiben auf der Strecke.

Spezialisten für ein Tool – oder ein Tool für Spezialisten?

Vor allem teure, noch nicht abgeschriebene Monitoring-Tools entwickeln häufig ein Eigenleben und schaffen sich jeweils „ihre“ Mitarbeiter, Organisation und Abläufe. So haben z.B. Nutzungsreichweite, Handlingaufwand und die Reportingfähigkeit eines Tools erheblichen Einfluss auf die Arbeitsprozesse. Allerdings sollte sich das Monitoring nach den tatsächlichen Datenverarbeitungsprozessen richten und nur die erforderlichen Tools einbeziehen.

Weniger ist mehr: den Tool-Park ausdünnen

Heute wird das Monitoring überwiegend mit dedizierten Hard- und Software-Tools aufgesetzt. Sie sind nur für Teilbereiche der Infrastruktur ausgelegt. Über Jahre hinweg ist so ein Wildwuchs an hoch spezialisierten Monitoring-Instrumenten entstanden. Dem entspricht Software-seitig eine Vielzahl inkompatibler Protokolle und Netzwerk-seitig eine isolierte und daher unproduktive Datenhaltung. Es gilt, den Tool-Park ausdünnen und Monitoring-Ergebnisse zu konsolidieren.

Ganz oder gar nicht – Inseln der Sicherheit sind trügerisch

Überdenken sollten Unternehmen ihren additiven Ansatz, zunächst nur Teilbereiche wie Server oder Datenbank für sich zu betrachten. Ist jeder Bereich für sich eine „Insel der Sicherheit“, dann würde das in Summe auch für die gesamte Infrastruktur gelten. Aber das bleibt Theorie. Tatsächlich scheitert dieses Silokonzept daran, Schwachstellen zu ermitteln, die erst aus dem Zusammenspiel der Teilbereiche heraus zu verstehen sind. Die Ursachen für problematische Befunde halten sich nicht immer eindeutig an die Organisation der einzelnen Verantwortungsbereiche.

Ganzheitliches Monitoring

Statt die heterogenen Daten und Befunde der spezialisierten Tools im Nachhinein zu bündeln, empfiehlt es sich, direkt eine zentralisierte und übergreifende Datenhaltung einzurichten. Sie ist die Basis für ein fachbereichsübergreifendes Interventionsmanagement mit kurzen Krisenreaktionszeiten. Nur wenn die einzelnen Fachbereiche eng zusammenarbeiten, kann z.B. bei einer schleppend verfügbaren Webanwendung ermittelt werden, ob die Software modifiziert, leistungsfähigere Hardwarekomponenten zugekauft oder Outsourcing bzw. Virtualisierung oder eine Anpassung der Applikation an die vorgegebenen Möglichkeiten zu empfehlen ist. Lösungsstrategien sollten daher abteilungsübergreifend und kollaborativ entwickelt bzw. umgesetzt werden.

Systemisches Monitoring

Die Methode, die Systeme in eigens aufgesetzten Testszenarios und dedizierten Tools zu „befragen“, hat ihre Berechtigung. Aber effektiver und kosteneffizienter ist es, den Systemen „zuzuhören“: Gesammelt wird das „Wissen“ von PCs, Servern, Routern sowie Applikationen und Datenbanken in den Machine- und Log-Daten.

Anders als „invasive Testverfahren“ erfüllen die systemische Abschöpfung und Auswertung der ohnehin anfallenden Monitoring-Daten die Anforderung des IT-Grundschutzes: „Never touch a running System“. Allerdings setzt die Live-Erfassung aller Monitoring-Daten den Umgang mit „Big Data“ voraus, da z.B. die Vorfilterung durch die jeweiligen Fachabteilungen entfällt.

Big Data beherrschen, statt Daten reduzieren

Wer nicht bei heterogenen Teilsammlungen von Monitoring-Daten stehen bleiben, sondern das „ganze Bild“ sehen will, hat es schnell mit Datenmengen zu tun, die mit relationalen Datenbanken nur sehr schwer beherrschbar sind.

Schubladendenken verhindert, dass die verteilten Ursachen und Auswirkungen von Schwachstellen umfassend erkannt werden.
Schubladendenken verhindert, dass die verteilten Ursachen und Auswirkungen von Schwachstellen umfassend erkannt werden.
(Bild: BirgitH - pixelio.de)

Die Fähigkeit, hohe Datenlasten professionell auszuwerten, entscheidet darüber, ob rechtliche Vorgaben für Dokumentation, Funktions- und Datensicherheit eingehalten werden können. Unternehmen müssen dabei die Erfassung, Speicherung, Indizierung und Analyse sehr großer Log-Datenbestände befriedigend lösen.

Eine Reduktion der anfallenden Datenlast ist gefährlich, weil sie zu Lasten einer hohen Monitoring-Granularität geht. Werden z.B. im vCenter Diagnosedaten nur alle 5 Minuten erfasst, um das System nicht zu belasten, entstehen „blinde Flecken“ ausgerechnet da, wo ein lückenloses Monitoring unverzichtbar wäre, um z.B. Sicherheitsvorfälle rechtzeitig zu bemerken.

Mit Hadoop muss Big Data keine Last sein

Zur Beherrschung großer Datenmengen steht heute z.B. die Apache Hadoop-Technologie bereit. Sie basiert auf Googles MapReduce-Verfahren, das eine parallele und verteilte Verarbeitung selbst großer Datenbestände erlaubt. Dadurch reduzieren sich die Durchlaufzeiten für anspruchsvolle Operationen und Big-Data kann mit diesem hoch skalierbaren Verfahren auch auf kleineren und preisgünstigen Standardservern verwaltet werden.

Fazit

Die Silopraxis kann und sollte überwunden werden. BYOD (Bring Your Own Device), Virtualisierung, Cloud-Computing, VoIP und Tele-Working haben die Komplexität von IT-Infrastrukturen deutlich erhöht. Der bisherige Ansatz, in getrennten Abteilungen und mit spezialisierten Tools ein punktuelles Monitoring vorzunehmen, wird der neuen Vielschichtigkeit der Unternehmens-IT kaum noch gerecht.

Besser ist es, sich mit der Echtzeit-Erfassung aller Log-Dateien einen 360 Grad-Blick auf die IT als Ganzes zu verschaffen. Das setzt allerdings voraus, sehr große Datenmengen („Big Data“) zu beherrschen und auswerten zu können. Dafür stehen mit Apache Hadoop und Google MapReduce mittlerweile jedoch bereits erfolgreich eingesetzte Verfahren bereit. Vor diesem Hintergrund ist die Zeit reif, die Silopraxis aufzugeben.

Gregory Blepp ist CEO von NetDescribe.
Gregory Blepp ist CEO von NetDescribe.
(Bild: NetDescribe)

Über den Autor

Gregory Blepp führt das Münchner SystemhausNetDescribe, das sich auf die Überwachung und Optimierung größerer und großer Infrastrukturen spezialisiert hat. Zu den Kunden von NetDescribe zählen unter anderem Adidas und die Commerzbank.

(ID:37554560)