Mobile-Menu

Security, Cloud, KI, Digitalisierung Monitoring vor dem Hintergrund der wichtigsten IT-Trends

Ein Gastkommentar von Thomas Timmermann

Die IT scheint sich immer schneller zu entwickeln. Welche Rolle spielt IT-Monitoring in Hinblick auf die wichtigsten Trends in der Informationstechnologie bzw. wie wirken sich die Trends auf das IT-Monitoring aus?

Anbieter zum Thema

Thomas Timmermann, Senior Manager Corporate Development & Alliances bei der Paessler AG, wirft einen Blick auf die Rolle des Monitorings im Zusammenhang mit den wichtigsten IT-Trends.
Thomas Timmermann, Senior Manager Corporate Development & Alliances bei der Paessler AG, wirft einen Blick auf die Rolle des Monitorings im Zusammenhang mit den wichtigsten IT-Trends.
(Bild: Gletscherhorn / Paessler)

Als ich vor einiger Zeit anfing, über die aufkommenden IT-Trends nachzudenken, stand Security gar nicht auf meiner Liste. Nicht etwa, weil Security in näherer Zukunft kein Thema in der IT sein würde – ich bin seit über 20 Jahren in der IT tätig und Security war immer eines der wichtigsten Themen – sondern, weil Security immer ein Thema ist und eigentlich gar nicht mehr erwähnt werden muss. Bis Russland die Ukraine überfallen hat.

Weder bin ich qualifiziert, noch finde ich die richtigen Worte, um mich zu den wirtschaftlichen und vor allem zu den humanitären Folgen zu äußern, aber neben Demonstrationen, steigenden Benzinpreisen, Mitgefühl mit den Opfern und Wut auf diesen offensichtlich nicht ganz lupenreinen Demokraten im Kreml, hat der Überfall auf die Ukraine mich jetzt auch in meinem digitalen Alltag erreicht: Vor kurzem kam eine Rundmail aus unserer IT, dass es im Rahmen des Ukraine-Konflikts und der Spannungen mit Russland zu einer deutlichen Zunahme von Cyberkriminalität und Cyber-Mobbing zu kommen scheint und wir verstärkt auf Auffälligkeiten achten sollen.

Schon hinter dem SolarWinds-Hack Ende 2020, der den Zugriff auf etliche US-Regierungsinstitutionen ermöglichte, vermuten viele Experten russische Hacker. Industrieunternehmen, kritische Infrastrukturen oder Regierungsorganisationen scheinen lohnende Ziele im Cyberkrieg zu sein. Aber auch unabhängig von aktuellen Cyberkrieg-Szenarien sorgte die Ransomware-Attacke auf Kaseya im letzten Sommer für Schlagzeilen.

In Anbetracht all dessen grenzt es sicher nicht an Hellseherei, wenn ich vorhersage, dass das Security-Thema in den kommenden Monaten nochmal deutlich mehr in den Fokus rücken dürfte, als wir es ohnehin schon gewohnt sind. So macht gerade Zero Trust die Runde: Das derzeit schwer angesagte Modell des NIST, des National Institute of Standards and Technology, einer Abteilung des US-Wirtschaftsministeriums, soll für eine sicherere Netzwerkarchitektur sorgen.

Es geht davon aus, dass man keinem Gerät und keiner Applikation trauen darf, auch wenn diese in einem geschützten Netzwerk aufgehängt und überprüft worden sind. Daraus resultieren Maßnahmen wie eine ständige, verbindliche Authentifizierung für Nutzer und Geräte in Verbindung mit einer starken, zentralen Instanz zur Nutzer-Identifizierung, dazu strenge Sicherheitsrichtlinien und eine Überprüfung des Geräte-Zustands sowie Kontrollen nicht nur beim ersten Zugriff auf eine Applikation, sondern auch innerhalb der Applikation. Ich bin kein Sicherheits-Experte, aber einige Jahre Erfahrung und der gesunde Menschenverstand sagen mir, dass auch Zero Trust die Security-Problematik nicht lösen wird: Komplexe Systeme, hohe Kosten und, last but not least, der Faktor Mensch verhindern absolut sichere Systeme und werden das auch in Zukunft tun. Aber jede Maßnahme, die ein Netzwerk etwas sicherer macht, ist definitiv zu begrüßen.

Monitoring und Security

Monitoring-Lösungen sind keine eigentliche Security-Software, aber sie bilden einen Baustein in einem umfassenden Sicherheitskonzept: Sie überwachen Funktion und Aktualität von Firewalls und Virenscannern und sie können ungewöhnliche Aktivität im Netzwerk erkennen und so möglicherweise Malware-Angriffe aufdecken. Auch beim Zero Trust Konzept spielt Monitoring eine wichtige Rolle, wenn es beispielsweise um die Überwachung der Gerätezustände geht.

Der Solarwinds-Hack hat aber noch eine andere Bedeutung von Monitoring-Lösungen gezeigt: Aufgrund ihres strategischen Einsatzes im Unternehmensnetzwerk können sie Einfallstore für Cyberattacken bilden. Das wird in Zukunft allerdings schwerer werden – wir, die Paessler AG, haben nach dem SolarWinds-Skandal unsere ohnehin schon hohen Sicherheitsmaßnahmen nochmals deutlich intensiviert und ich bin mir sicher, dass das auf so gut wie alle Hersteller von Monitoring-Software zutrifft. Absolute Sicherheit aber wird es niemals geben. Kein Monitoring ist aber auch keine Lösung.

Die Cloud – immer noch

Eigentlich ist Cloud kein Trend mehr, sondern längst etabliert. Allerdings ist die Cloud im Zuge von Corona und dem damit verursachten Homeoffice-Boom nochmal deutlich mehr in den Fokus gerückt. Nichtsdestotrotz sehe ich aufgrund der Pandemie keinen grundlegenden Paradigmenwandel: Cloud war schon vorher eines der beherrschenden Themen in der IT-Welt und ist durch Corona lediglich noch etwas mehr in den Fokus gerückt.

War vor einigen Jahren noch der allgemeine Tenor, dass sich über kurz oder lang alles in die (öffentliche) Cloud verlagert, hat die Praxis mal wieder die Prognosen relativiert: Hybrid ist derzeit das Maß der Dinge, sprich die Kombination aus Diensten aus der öffentlichen Cloud, wie beispielsweise Office 365, kombiniert mit einer privaten Cloud, die im eigenen Rechenzentrum läuft, und klassischer IT vor Ort. Nicht immer hat sich die Verlagerung von Diensten und Systemen in die Cloud als Ideallösung herausgestellt. Das hat Sicherheitsgründe, Bedenken beim Zugriff auf sensible Daten, wenn diese in anderen Ländern gelagert werden, aber auch ganz simple Performance-Gründe: Schließlich erfolgt der Zugriff auf die Daten über das Netz und wenn die Netzwerkanbindung oder das Netz selbst langsam sind, dann geht auch die Performance in die Knie, ohne dass die eigene IT hier eingreifen kann.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Netzwerktechnik, IP-Kommunikation und UCC

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Was bedeutet das für Monitoring-Anbieter? Die Cloud ist da, aber auch die lokale IT existiert und darf nicht vernachlässigt werden. Aber das ist eh in der Regel das Brot- und Butter-Geschäft der meisten etablierten Monitoring-Lösungen. Darüber hinaus müssen immer mehr Cloud-Applikationen und Cloud-Anbieter in das zentrale Monitoring einbezogen werden, indem die entsprechenden Schnittstellen abgefragt werden. D.h. die Monitoring-Lösungen müssen laufend erweitert und angepasst werden. Nur wenn Monitoring einen zentralen Überblick über lokale IT ebenso wie über private Cloud-Anwendungen und die wichtigsten Dienste der großen Cloud-Anbieter liefert, können ITOps-Teams Verfügbarkeit und Performance ihrer IT im Ganzen sichern.

KI

Auch bedingt durch die Möglichkeiten der Cloud ist KI in den letzten Jahren immer präsenter geworden. „Echte“ KI in Form von Machine Learning wird dabei allerdings häufig immer noch mit mehr oder weniger komplexen Algorithmen in einen Topf geworfen. Hier gibt es unendlich viele Chancen und Möglichkeiten, allerdings auch eine Menge blinden Hype und Fehleinschätzungen. KI wird in den nächsten Jahren immer mehr in den Fokus rücken und nach und nach in den IT-Alltag Einzug halten. Natürlich spielen auch Sicherheitsaspekte eine Rolle, speziell wenn es um „echte KI“ geht, sprich selbstlernende Systeme. Zahlreiche Science-Fiction-Filme liefern seit vielen Jahren genug warnende Beispiele, was da alles schiefgehen kann und erste intelligente Chat-Programme bestätigen solch düsteren Prognosen, wenn sie plötzlich rassistische Thesen von sich geben, weil nur schwer kontrollierbar ist, was als Informationsbasis für den Lernprozess dient.

Was KI und Monitoring angeht, bin ich mal auf einer Veranstaltung angesprochen worden, ob unsere Lösung PRTG KI unterstützt. Auf meine Gegenfrage, was die KI denn machen solle, habe ich nur ratlose Blicke bekommen. Mein Gesprächspartner hatte kurz vorher den Vortrag eines Analysten gehört, der über KI als Zukunft von ITOps gesprochen hat. Das war sehr theoretisch und weit in der Zukunft, praktisch war da anscheinend nicht viel hängen geblieben.

Natürlich kann KI eine wichtige Rolle im Monitoring spielen. Monitoring sammelt gigantische Datenmengen und die Kombination Cloud und KI bzw. Machine Learning ist prädestiniert dazu, diese Daten zu analysieren und Muster zu erkennen. Da kann es um das Erkennen von Auffälligkeiten gehen, um verbesserte Root-Cause-Analysen, um Trending und Predictive Maintenance aber auch um Selbstorganisation und -konfiguration. Derzeit sind es vor allem einige wenige, neue und Cloud-basierte Monitoring-Lösungen, in erster Linie für den Enterprise-Markt, die KI-basierende Prozesse einsetzen. Da geht es dann meistens um Security oder die Performance von Applikationen auf Basis von fortgeschrittener Traffic-Analyse; hochspezialisierte Lösungen, die sich an ausgewiesene Spezialisten richten.

Klassische, breit ansetzende Monitoring-Lösungen werden sicherlich in Zukunft in der einen oder anderen Form intelligenter werden. Ob das dann aber wirklich Machine Learning oder einfach nur clevere Algorithmen sein werden, muss sich von Fall zu Fall zeigen. Letztlich geht es um das Ergebnis und nicht um irgendwelche Schlagwörter. Monitoring ist per se weniger Trendsetter-Technologie als vielmehr ein praxis- und gegenwartsbezogenes Werkzeug, dessen Hauptaufgabe darin liegt, aktuell eingesetzte Technik in Hinblick auf Performance und Verfügbarkeit zu überwachen.

Software-Defined Everything

Was mit SDN (Software-Defined Networking) anfing, hat sich mittlerweile zu SDx, Software-Defined Everything entwickelt – Storage, WAN, LAN, Radio, Data Center… Während in der Vergangenheit Geräte immer intelligenter und damit auch komplexer wurden, wird Intelligenz nun immer mehr in einen Software-Layer ausgelagert. Die Vorteile sind offensichtlich: „Dümmere“ und damit günstigere Geräte werden zentral eingerichtet und gesteuert. Geringere Anschaffungskosten für Hardware, weniger Aufwand bei Konfiguration und Management.

Was bedeutet SDx für das IT-Monitoring? Während in der Vergangenheit immer intelligentere Geräte einzeln und aufwändig in das Monitoring integriert werden mussten, hat sich das mit SDx etwas geändert: Über die Anbindung des Software-Layers können viele Werte direkt dort abgefragt werden. Parallel können zusätzliche Faktoren wie zugrundeliegende Hardware, Traffic und die umgebende Infrastruktur über eine breit angelegte Monitoring-Lösung überwacht und so ein umfassendes Bild der gesamten SDx-Umgebung ermittelt werden. Letztlich hat sich für breit aufgestellte Monitoring-Lösungen mit SDx nicht so wirklich viel geändert. Es ist lediglich eine neue Komponente dazugekommen, die in ein übergreifendes Monitoring integriert werden muss.

Digitalisierung (IoT, Industrie 4.0, …)

Digitalisierung ist ein Punkt, der aus der IT-Perspektive oft nur als Randerscheinung gesehen wird, da es hier um Bereiche geht, die bisher von der IT getrennt waren – z.B. Produktionsanlagen, medizinische Geräte oder Gebäudetechnik. Allerdings erzeugt die Digitalisierung immer mehr Daten und die Kompetenz für Transport, Lagerung und Verarbeitung von Daten liegt nun mal bei der IT. Über kurz oder lang wird die Digitalisierung die IT betreffen und den Aufgabenbereich von Administratoren und ITOps-Teams deutlich erweitern.

Von den hier aufgeführten Trends wird die Digitalisierung am wenigsten mit der klassischen IT in Verbindung gebracht, dabei ist hier der Einfluss derzeit eigentlich am stärksten – mal abgesehen von der Security. Nehmen wir das Beispiel Krankenhaus. Ich hatte ein Gespräch mit dem IT-Leiter einer großen deutschen Klinik, der erklärte, dass es in seiner Klinik einen Kompetenzstreit zwischen den medizinischen Fachabteilungen und der IT gibt, den er gerade für die IT entscheidet. Er hat das am Beispiel eines Arztes veranschaulicht, der mit einem Laptop am Bett seines Patienten sitzt und Zugriff auf Röntgenbilder und Patientendaten braucht. Das geht nur über die IT, die für das Klinik-Netzwerk und den darüber erfolgenden Datentransport verantwortlich zeichnet. Allerdings braucht die IT dafür auch Zugriff auf die medizinischen Systeme und Geräte. Im Fall der Röntgenbilder zum Beispiel auf das Röntgengerät, aber auch auf das PACS (Picture Archiving and Communication System), das Bildarchivierungs- und Verarbeitungssystem. Laut dem IT-Leiter hat die Röntgenabteilung anfangs der IT energisch den Zugriff auf ihre Systeme verwehrt. Schließlich handle es sich dabei um hochsensible medizinische Geräte, auf die nur Fachpersonal zugreifen dürfe. Der IT-Leiter konterte, dass das auch nur Computer seien, die Bilder machen. Inzwischen hat seine Abteilung Zugriff auf die gesamte medizinische Infrastruktur und sämtliche Geräte.

In Hinblick auf das Monitoring bedeutet das, dass im Fall einer Störung sofort identifiziert werden kann, wo das Problem ist – ob beispielsweise das PACS hängt oder ob es Engpässe beim Datentransport im Netzwerk gibt. Allerdings funktioniert das nur, wenn die Monitoring-Lösung sowohl IT als auch medizinische Infrastrukturen überwachen kann. Nun gibt es aber im medizinischen Bereich keine übergreifenden Monitoring-Systeme. Die dort gebräuchlichen Kommunikations-Server haben keine oder nur sehr rudimentäre Monitoring-Funktionalität und keine Ambitionen, das auf heterogene und hochkomplexe IT-Umgebungen auszuweiten. Daher müssen übergreifende Monitoring-Lösungen aus der IT kommen. Um medizinische Infrastrukturen integrieren zu können, müssen die Tools die entsprechenden Protokolle wie DICOM (Management von Bilddaten) oder HL7 (Management von Patientendaten) unterstützen. Ist das gegeben, kann eine entsprechende Monitoring-Lösung sowohl IT- als auch medizinische Infrastrukturen monitoren und ein zentrales Dashboard liefern, das einen umfassenden Überblick liefert und so eine schnelle Fehleranalyse ermöglicht.

In anderen Bereichen der Digitalisierung ist es ähnlich. Methoden wie OPC UA oder Protokolle wie MQTT oder Modbus erlauben es klassischen IT-Monitoring-Lösungen, Produktionsanlagen und OT-Systeme ebenso einzubeziehen wie Umwelt-Sensorik oder Gebäudetechnik, was den Einsatz in der Industrie, in Rechenzentren oder vernetzten Gebäuden ermöglicht. Vor allem die Digitalisierung dürfte in der näheren Zukunft einen wesentlichen Einfluss auf das IT-Monitoring haben: Ohne Digitalisierung ist es mittlerweile so gut wie unmöglich, im internationalen Wettbewerb mitzuhalten. Digitalisierung oder die Integration von Bereichen, die bisher von der IT getrennt waren, erfordert zwingend ein übergreifendes Monitoring, egal ob Krankenhaus, Industrie oder Gebäudetechnik. Vor allem breit aufgestellte Monitoring-Lösungen sind hier gefordert, die einen Management-Überblick liefern können und dazu alle Bereiche zusammenführen müssen.

Was bedeuten IT-Trends für Monitoring-Anbieter?

Monitoring ist grundsätzlich ein Technologie-Folger, kein -treiber. Neue Technologien werden nicht in kürzester Zeit flächendeckend adaptiert. Was heute Thema bei Analysten und in der Presse ist, kommt in der Regel morgen bei einigen wenigen Unternehmen in der Praxis an und erst übermorgen bei der großen Masse der Unternehmen. Monitoring muss auf die neuesten Trends nicht sofort reagieren. Bevor sich neue Technologien in der Breite durchgesetzt haben, nutzt es nur einigen wenigen, diese bereits beim Monitoring zu unterstützen. Eine breite und zuverlässige Unterstützung etablierter Technologien hat hier klaren Vorrang.

Natürlich gibt es immer einen gewissen Bedarf für innovative Monitoring-Tools, die Cutting-Edge-Technologien bedienen und heute schon Funktionen von übermorgen unterstützen. Die Masse der Administratoren und ITOps-Teams lebt allerdings im Hier und Jetzt und muss sich den Herausforderungen der Gegenwart stellen. Gerade breit aufgestellte Monitoring-Lösungen wie PRTG müssen zuallererst diesen Herausforderungen begegnen und sich eng an den Anforderungen ihrer Kunden weiterentwickeln. Das heißt aktuell für die nächsten Monate und Jahre:

  • Umfassende Features zum Monitoring klassischer (und hybrider) IT-Umgebungen
  • Integration von Cloud-Diensten und SDx-Anbietern
  • Integration von Protokollen für die Digitalisierung

Vorteilhaft ist es, wenn Monitoring-Lösungen entsprechende Schnittstellen bieten, um andere Monitoring-Tools zu integrieren. Paessler hat dazu das Uptime Alliance Programm ins Leben gerufen. Hier arbeiten wir mit innovativen Unternehmen zusammen, die neue Technologien treiben und sich mit PRTG integrieren. Ein schönes Beispiel dafür ist Rhebo. Rhebo ist ein deutsches Unternehmen, das sich auf Unusual Behavior Detection in industriellen Netzwerken spezialisiert hat. Ein wichtiges Thema bei Sicherheits-Spezialisten in Produktionsumgebungen, die sich im Rahmen von Digitalisierung und Industrie 4.0 der IT und dem Internet öffnen und so verstärkt Risiken aussetzen. Dank einer Integration von Rhebo und PRTG kann Rhebo auf die vielfältigen Möglichkeiten zu Alarmierung und Datenpublikation von PRTG zugreifen, während PRTG zusätzliche Daten zur Sicherheit in industriellen Netzwerken in sein umfassendes Monitoring-Konzept integrieren kann.

ThomasTimmermann.
ThomasTimmermann.
(Bild: Gletscherhorn / Paessler)

Über den Autor

Thomas Timmermann ist Senior Manager Corporate Development & Alliances bei der Paessler AG in Nürnberg.

(ID:48200817)