Mobile-Menu

Generalisten und Spezialisten: Unterschiedliche Ansätze bei der IT-Überwachung Marktübersicht IT-Monitoring

Autor / Redakteur: Thomas Timmermann / Dipl.-Ing. (FH) Andreas Donner

IT-Monitoring ist das ungeliebte Kind des IT-Administrators: Er muss es tun, um ein reibungsloses Funktionieren seiner IT sicherzustellen, aber Spaß hat er dabei meist nicht. Das führt dazu, dass viele hochqualifizierte IT-Experten beim Thema Monitoring erstaunliche Wissenslücken aufweisen. Diese soll der vorliegende Artikel mit seiner Klassifizierung des Monitorings und seiner Markt- und Feature-Übersicht über die 16 wichtigsten Monitoring-Lösungen schließen.

Firma zum Thema

Nahezu unüberschaubar ist der Markt an Werkzeugen für das IT-Monitoring – und dabei sind die Tools oft noch nicht einmal korrekt klassifiziert. Dieser Beitrag räumt mit Halbwahrheiten auf und benennt Einsatzgebiete, Disziplinen und Marktteilnehmer.
Nahezu unüberschaubar ist der Markt an Werkzeugen für das IT-Monitoring – und dabei sind die Tools oft noch nicht einmal korrekt klassifiziert. Dieser Beitrag räumt mit Halbwahrheiten auf und benennt Einsatzgebiete, Disziplinen und Marktteilnehmer.
(Bild: © Yanawut Suntornkij - stock.adobe.com)

Reichen die Kenntnisse für grundlegende Anforderungen meist noch aus, kommen die Wissenslücken von IT-Experten beim Thema Monitoring spätestens dann zum Vorschein, wenn das eingesetzte Monitoring-Szenario nicht mehr ausreicht oder, schlimmer noch, über die Jahre so komplex geworden ist, dass es kaum noch bedienbar ist. Bei der Evaluierung des Marktes wird die Komplexität des Themas dann erst richtig deutlich: zahllose Lösungen sind verfügbar, die alle das perfekte Monitoring versprechen, aber mit unterschiedlichsten Konzepten und Techniken aufwarten. Es werden Äpfel mit Birnen verglichen und der Fachmann wundert sich, warum er zu keinem zufriedenstellenden Ergebnis kommt. Dabei ist es gar nicht so kompliziert, wenn man einmal die grundlegenden Kategorien erkannt hat und weiß, was die Äpfel und was die Birnen sind.

Was genau ist eigentlich IT-Monitoring?

Klassisches IT-Monitoring ist die Überwachung von Verfügbarkeit und Performance in IT-Umgebungen. IT-Monitoring beantwortet Fragen wie „Ist mein Server online?“, „Kommen Daten in meinem Netzwerk rechtzeitig da an, wo sie hinsollen?“ oder „Arbeitet meine Firewall zuverlässig?“. IT-Monitoring lässt sich in seiner Grundfunktion auf vier Aufgaben herunterbrechen:

  • Ermitteln von Daten zu Verfügbarkeit und Performance von IT-Komponenten;
  • Speichern dieser Daten;
  • Benachrichtigen und Alarmieren anhand von definierten Schwellwerten;
  • Publizieren der Daten in Übersichten oder Berichten.

Natürlich gibt es zahlreiche erweiterte Aufgaben im Umfeld von IT-Monitoring. Da geht es um Ursachenermittlung bei erkannten Problemen (Root Cause-Analyse) oder das Erkennen von Trends und darauf basierende Vorhersagen. Gleichzeitig geht es aber auch um Sicherheitsaspekte wie das Überwachen der Funktion von Firewalls oder Virenscannern oder das Erkennen von ungewöhnlichem Verhalten im Netzwerk, der so genannten Intrusion Detection.

Auch Logging wird häufig unter Monitoring aufgeführt. Logging oder auch (Event-)Log Management meint das Auswerten von Logfiles wie Syslog-Nachrichten oder SNMP-Traps und wird oft auch unter SIEM (Security Information and Event Management) gelistet. Dabei ist Logging eher ein Verwandter des IT-Monitorings. Der Schwerpunkt liegt meist auf Security-Aspekten und weniger auf Performance oder Verfügbarkeitsmonitoring. Die Übergänge sind hier allerdings oft fließend. Log-Management spielt auch eine wichtige Rolle bei der Beschaffung großer Datenmengen, die dann ausgewertet und analysiert werden müssen. „Big Data“ ist das magische Wort, das viel verspricht, aber auch viel fordert. Auf Basis von Big Data können Trends erkannt und Prognosen erstellt werden, allerdings muss die benötigte Masse an Daten erst einmal generiert und dann vor allem sinnvoll verarbeitet werden.

Fassen wir zusammen: Monitoring ist eigentlich ein simpler Vorgang: Sammeln, Speichern und Publizieren von Daten plus Alarmieren auf Basis von Schwellwerten. Unter dem Oberbegriff Monitoring firmieren zahlreiche Tools, die über reines Monitoring hinaus noch etliche weitere Funktionen liefern.

Monitoring in den 2020er Jahren

Schon länger gewinnen Cloud und Cloud-basierte Applikationen mehr und mehr an Bedeutung. Das hat sich durch Covid-19 und die damit veränderte Arbeitssituation zwar nicht grundlegend verändert, die Verschiebung in Richtung Cloud hat aber nochmal einen gehörigen Schub bekommen. Allerdings reden wir nicht von einer Ablösung, sondern von einer Ergänzung. Nach wie vor findet IT auch vor Ort im Unternehmen oder im unternehmenseigenen Rechenzentrum statt: Hybride Umgebungen sind das neue Normal. Administratoren bzw. ITOps-Teams zeichnen für die lokale IT ebenso verantwortlich wie für Applikationen oder Storage in der privaten wie in der öffentlichen Cloud. Das bedeutet aber auch, dass sie einen entsprechenden Überblick über beide Bereiche benötigen: Cloud und lokal.

Viele Anbieter setzen auf Cloud-basierte Lösungen für das Monitoring von Cloud-Umgebungen, während die lokale IT weiter mit bestehenden Lösungen überwacht wird. Das führt zu einer weiteren „Zerfaserung“ des jetzt schon unübersichtlichen Monitoring-Marktes, der zahlreiche hochspezialisierte Lösungen auffährt: Da gibt es eigene Tools zum Traffic-Monitoring, zur Überwachung von Datenbanken, Storage-Systemen oder virtuellen Servern.

Mit der zunehmenden Bedeutung der Cloud sind vor allem Network oder Application Performance Monitoring zum Hype-Thema geworden: Der Fokus liegt auf User Experience; die Lösungen überwachen Datentransfer und Performance von Cloud-basierten Applikationen auf Basis von Flow-Protokollen. Sie richten sich in erster Linie an DevOps-Teams, die sowohl für ihre Applikationen als auch für deren Entwicklungs- bzw. Betriebsumgebungen in der Verantwortung stehen. Dazu liefern diese Lösungen tiefgehende Einblicke und Analysen. Über den relativ engen Einsatzbereich hinaus geht das allerdings nicht – sprich, die Infrastruktur wird nicht weiter berücksichtigt und auch viele andere Aspekte, die für den klassischen Administrator wichtig sind, bleiben unbeachtet.

Letztlich führt die zunehmende Komplexität der IT-Landschaft zu immer mehr hochspezialisierten Lösungen, die in einem klar definierten Bereich tiefe Einblicke ermöglichen. Im Folgenden als Spezialisten bezeichnet.

Nachdem aber praktisch jedes Unternehmen nach wie vor auch lokale IT-Umgebungen betreibt – und sich das auf absehbare Zeit auch nicht ändern wird – werden immer mehr Einzellösungen benötigt. Um trotzdem ein zentrales Management zu ermöglichen, werden zusätzliche Alert Management Tools angeboten. Diese alarmieren zwar, wenn etwas schiefläuft, bieten aber keinen Überblick über den Zustand der IT, sondern nur über auftretende Probleme.

Um einen zentralen Überblick über sämtliche Bereiche einer mehr oder weniger komplexen IT-Landschaft zu bekommen, bedarf es Monitoring-Lösungen, die möglichst breit aufgestellt sind. Diese Lösungen können keine so tiefen Einblicke wie die Spezialisten bieten – sie wären aufgrund ihrer Komplexität dann schlichtweg nicht mehr bedienbar und würden auch die meisten Budgets sprengen. Im Folgenden bezeichnen wir diese Lösungen als Generalisten.

Fassen wir zusammen: Hybride Umgebungen werden immer mehr zur Regel. Der Monitoring-Markt reagiert mit immer mehr hochspezialisierten Tools, die aber keinen zentralen Überblick bieten. Und, der Bedarf an einem zentralen Überblick bleibt bestehen und gewinnt sogar stetig an Bedeutung.

Generalisten und Spezialisten

Immer wieder werden Generalisten mit Spezialisten verglichen, dabei kann ein Generalist keinen Spezialisten ersetzen und umgekehrt. Klären wir erst einmal, was wir unter Monitoring-Generalisten und -Spezialisten genau zu verstehen haben.

Die Spezialisten

Mit den Lösungen für Network und Application Performance Monitoring haben wir ja bereits einen Eindruck von hochspezialisierten Lösungen gewonnen. Sie verschaffen Spezialisten tiefe Einblicke in eng umrissene Bereiche. Je größer ein Unternehmen bzw. je tiefer seine IT-Struktur ist, desto größer wird in der Regel der Bedarf an derart spezialisierten Lösungen. DevOps (Development Operations) benötigt detaillierte Informationen zu Applikationen, SecOps (Security Operations) braucht über klassische Tools wie Virencsanner oder Firewalls hinausgehende fundierte Einblicke in sicherheitsrelevante Aspekte des Netzwerk-Traffics, während NetOps (Network Operations) auf eine tiefgehende Analyse der Netzwerk-Performance angewiesen ist.

Im Bereich Network Performance liefern das beispielsweise Lösungen wie Scrutinizer by Plixer, Flowmon by Kemp oder Kentik, manchmal auch über die engen Grenzen eines Einsatzgebietes hinaus. So reklamiert etwa Flowmon für sich, SecOps und NetOps gleichermaßen zu informieren. Nichtsdestotrotz bleibt auch Flowmon eine Lösung für Spezialisten, die keinen generellen Überblick über die gesamte IT bietet – was ja auch nicht der Anspruch ist.

Technisch fokussieren sich die meisten spezialisierten Tools auf einige wenige Methoden bzw. Protokolle. Im Network und Application Monitoring ist das häufig Flow oder Packet Sniffing, im Security-Bereich kann das Flow bzw. Packet Sniffing unter Einsatz von Deep Packet Inspection aber auch Eventlog-Monitoring sein. Hier liefern die Tools in der Regel überragende Performance ab, skalieren auch für größere Umgebungen und bieten über das reine Monitoring hinaus tiefgehende Datenanalysen, die zum Teil auch auf künstliche Intelligenz oder zumindest fortgeschrittene Algorithmen setzen.

Das erfordert auf der anderen Seite aber auch eine gewisse Expertise beim Einsatz der Tools. Selbst wenn die Bedienung optimiert und möglichst einfach gestaltet ist – um einen Mehrwert aus den Tools zu ziehen, braucht es das nötige Fachwissen, um zunächst die Lösung richtig zu konfigurieren und einzusetzen und dann die ermittelten Daten zielführend nutzen zu können.

Benötigt der Anwender allerdings einen zentralen Überblick über Performance und Verfügbarkeit der gesamten IT – von Infrastruktur über Netzwerk bis zu Cloud-basierten Applikationen und vielleicht sogar darüber hinaus in Bereiche jenseits der IT – dann stoßen die Spezialisten schnell an ihre Grenzen. Hier sind dann die Generalisten gefragt.

Fassen wir zusammen: Spezialisten liefern tiefe Einblicke für Experten in Bereichen wie NetOps, SecOps oder DevOps, erfordern aber auch entsprechendes Knowhow. Spezialisten liefern allerdings keinen breiten Überblick und können die Generalisten im Unternehmen nicht ersetzen.

Die Generalisten

Technisch liefert hier oft SNMP (Simple Network Management Protocol) die Basis. Auch wenn das Protokoll technisch nicht auf der Höhe der Zeit ist und regelmäßig „für tot erklärt“ wird, ist es immer noch so verbreitet, dass ein breites IT-Monitoring ohne SNMP auch im Jahr 2021 noch nicht wirklich praktikabel ist. Schließlich werden IT-Umgebungen normalerweise nicht komplett rundumerneuert, sondern fortlaufend an neue Anforderungen angepasst – ältere Geräte und Strukturen koexistieren mit modernen Systemen.

So gewinnen auch aufgrund der fortschreitenden Digitalisierung schnittstellenbasierte Systeme (API = Application Programming Interface) immer mehr an Bedeutung. Monitoring-Tools müssen nach wie vor traditionelle Methoden wie SNMP, Ping oder WMI unterstützen, aber eben auch Schnittstellen und andere zeitgemäße Methoden wie MQTT oder OPC UA.

Der zentrale Überblick mit Hilfe eines Generalisten kann in kleineren Unternehmen bzw. begrenzten IT-Umgebungen schon völlig ausreichend sein. Bei einigen Dutzend oder Hundert zu überwachenden Geräten bzw. IP-Adressen kennt der Administrator oder das ITOps-Team seine IT meist so gut, dass ihm eine einfache Fehlermeldung ausreicht, um das Problem zu identifizieren und es zu lösen. Man benötigt keine hochspezialisierten Tools und hat meist auch gar nicht die Zeit oder das nötige Expertenwissen, um diese effizient einzusetzen. Eine möglichst breit aufgestellte Monitoring-Lösung liefert alle nötigen Informationen, ist einfach einzusetzen und zu bedienen und alarmiert, wenn ein Eingreifen erforderlich ist.

In größeren Unternehmen bzw. IT-Umgebungen mit fokussierten Teams, die entsprechend spezialisierte Tools benötigen, besteht meist trotzdem auch Bedarf an einer übergreifenden Lösung, die einen zentralen Überblick bietet und Zusammenhänge erkennen lässt. Das kann auf der ITOps-Ebene der Fall sein oder im übergeordneten Management. Hier kommen die Generalisten ins Spiel: Sie liefern Informationen zu allen Bereichen der IT, ohne dabei allzu sehr in die Tiefe zu gehen.

Generalisten unterstützen in der Regel eine Vielzahl von Protokollen und bieten im Idealfall auch noch entsprechende Schnittstellen, um möglichst breit Daten sammeln zu können. Die ermittelten Daten werden gespeichert und mit Schwellwerten versehen, anhand derer über unterschiedlichste Kanäle benachrichtigt und alarmiert wird. Das umfasst dann das Monitoring von Traffic ebenso wie von Geräten, Applikationen, Storage-Systemen, Datenbanken oder Cloud-Diensten. Einige Anbieter gehen sogar noch einen Schritt weiter und unterstützen auch Protokolle und Techniken jenseits der klassischen IT. Dazu zählen zum Beispiel HL7 und DICOM zum Einbinden medizinischer Infrastrukturen, MQTT und OPC UA für industrielle Anwendungen oder Modbus zum Monitoring von Gebäudetechnik in Rechenzentren. Sie liefern damit ein zentrales Dashboard für die Digitalisierung.

Manche Generalisten bieten die Möglichkeit, Daten aus unterschiedlichen Bereichen in Beziehung zueinander zu setzen. Dazu gehören auch vordefinierte Schnittstellen, um Informationen von Spezialisten zu sammeln und zu integrieren. So kann beispielsweise die Performance mehrerer, redundanter Mailserver mit Traffic-Daten, Load-Balancern, Firewalls, Datenbanken, Storage-Systemen und weiteren Komponenten in einem Service oder Prozess zusammengefasst werden. Das ermöglicht eine Management-Übersicht aus Unternehmensperspektive über unterschiedlichste Bereiche der IT hinweg. Entsprechend eingerichtet, wird der komplette Prozess als produktiv und funktionierend angezeigt, auch wenn einzelne Komponenten Probleme melden. Solange der gesamte Prozess läuft, werden lediglich die zuständigen Mitarbeiter informiert, um die betroffenen Probleme zu beheben, bevor es kritisch wird. Erst wenn der gesamte Prozess gefährdet ist, werden entsprechende Alarme ausgelöst.

Fassen wir zusammen: Für eine kleinere IT-Umgebung kann ein Generalist als alleinige Monitoring-Lösung ausreichend sein. In großen Umgebungen kann ein Generalist spezialisierte Tools für Experten aber nicht ersetzen. Generalisten können über das eigene Monitoring hinaus Daten von Spezialisten sammeln und so einen Management-Überblick für große und komplexe IT-Landschaften liefern.

Sonderfall Monitoring-Suiten

Einige Hersteller wie zum Beispiel SolarWinds oder ManageEngine bieten umfangreiche Suiten aus verschiedensten Einzellösungen an. Das sind meist spezialisierte Monitoring-Tools sowie andere Lösungen, die über das Monitoring hinaus Management-Funktionen übernehmen – wie etwa Configuration- oder IP-Address-Management. Darüber hinaus bieten die Hersteller eine Art zentrales Dashboard, das die Tools des Herstellers in einer Übersicht zusammenführt.

Allerdings bedeutet dies noch keine echte Integration der verschiedenen Lösungen in dem Sinne, dass ermittelte Daten zusammengeführt und zentral ausgewertet werden. Jedes Tool hat in der Regel seine eigene Datenbank, seine eigene Auswertungsmethodik, seine eigenen Dashboards und Reports.

Damit sind diese Suiten in erster Linie aus kaufmännischer Sicht interessant: Sämtliche Monitoring-Tools können aus einer Hand bezogen werden, was den Lizenzkauf und regelmäßige Wartungskäufe ebenso vereinfacht wie die Abwicklung von Software-Leihe in Form von Abo-Modellen. Auch bei eventuell auftretenden Problemen hat man nur ein Unternehmen als Ansprechpartner.

Fassen wir zusammen: Monitoring-Suiten liefern keinen integrationsbasierten, zentralen Überblick, sondern ein Sortiment spezialisierter Lösungen und ein übergeordnetes Dashboard. Unter kaufmännischen Aspekten bieten Suiten Mehrwert in Form eines zentralen Ansprechpartners.

Der Monitoring-Markt aus Expertensicht

Wir haben gesehen, dass der Monitoring-Markt ein komplexes Ding ist, das unterschiedlichste Lösungen unter einem Oberbegriff zusammenfasst. Natürlich gibt es zahlreiche Versuche, den Markt mit Hilfe von Kategorisierungen übersichtlicher zu gestalten. Review-Portale, Analystenhäuser, Consultants und Journalisten – alle liefern die unterschiedlichsten Modelle, die dem suchenden Kunden Orientierung bieten sollen. Wie schwierig das ist, zeigen wir im Folgenden am Beispiel Gartner.

Monitoring bei Gartner

Mit mehr als 2.000 Experten ist Gartner das führende Analystenhaus im IT-Bereich. Die Magic Quadrants von Gartner liefern Übersichten über einzelne Bereiche und dienen Unternehmen oft als Entscheidungshilfe. Allerdings werden Quadranten nach einigen Jahren nicht mehr gepflegt, sondern durch etwas weniger aufwändig recherchierte Marktübersichten ersetzt. Alternativ hat Gartner vor einigen Jahren die Peer Insights eingeführt: ein Portal, bei dem Kunden IT-Lösungen bewerten, ähnlich wie Capterra oder G2.

Unter allen Gartner-Quadranten finden sich gerade mal zwei zum Thema Monitoring: „Application Performance Monitoring“ und „Network Performance Monitoring and Diagnostics“, wobei letzterer seit 2020 nicht mehr aktualisiert wird. Ergiebiger sind da die Peer Insights, denn hier dreht es sich zumindest um vier Monitoring-Themen:

  • Application Performance Monitoring
  • IT Infrastructure Monitoring Tools
  • Network Performance Monitoring and Diagnostics
  • Unified Communications Monitoring (ist mit derzeit acht Bewertungen für vier Lösungen zu vernachlässigen)

Nehmen wir als Beispiel die Peer Insights Network Performance Monitoring and Diagnostics. Hier finden sich unter den ersten Zehn schöne Beispiele für Spezialisten, Generalisten und Suites. Die Standard-Sortierung der Peer Insights erfolgt anhand der Anzahl der Bewertungen. Das sagt etwas über die Verbreitung der Lösung aus, aber nicht unbedingt darüber, inwieweit sie das genaue Anforderungsprofil eines Network Performance Monitoring and Diagnostics Tools erfüllt.

Dazu sollte noch erwähnt werden, dass Gartner relativ hohe Anforderungen an eingereichte Bewertungen stellt, diese recht gewissenhaft prüft und nur ca. 50 % zur Veröffentlichung freigibt. Hier die ersten zehn Tools aus den Gartner PeerInsights „Network Performance Monitoring and Diagnostics Reviews and Ratings“, Stand Mai 2021:

  • SolarWinds Network Performance Monitor (NPM)
  • PRTG Network Monitor by Paessler
  • OpManager by ManageEngine
  • ExtraHop
  • CatchPoint
  • Kentik
  • NetFlow Analyzer by ManageEngine
  • SolarWinds NetFlow Traffic Analyzer
  • Cisco Prime Infrastructure
  • Nagios XI

Mit SolarWinds und ManageEngine sind zwei klassische Anbieter von Monitoring-Suiten mit jeweils zwei Tools vertreten. Jeweils mit einem Tool zum etwas breiter aufgestellten Network Performance Monitoring (SolarWinds NPM und ManageEngine OpManager) und einem spezialisierteren Tool für das Traffic Monitoring mittels NetFlow (SolarWinds NetFlow Traffic Analyzer und ManageEngine NetFlow Analyzer).

PRTG Network Monitor ist trotz seines Namens ein Generalist. Die Lösung unterstützt NetFlow ebenso wie SNMP, WMI und dutzende anderer Protokolle. Wie breit PRTG aufgestellt ist, wird auch klar, wenn man die IT Infrastructure Monitoring Tools Peer Insights aufruft. Dort steht PRTG als meistbewertete Lösung auf Platz eins (Stand Mai 2021).

ExtraHop und Kentik bieten klassisches, NetFlow-basiertes Traffic-Monitoring mit Schwerpunkten auf User Experience und Security-Aspekten an.

CatchPoint fokussiert sich in erster Linie auf User Experience und Endpoint Monitoring. Dazu setzt die Lösung weniger auf klassisches NetFlow Monitoring des real passierenden Datenverkehrs, sondern auf das Messen von simuliertem End-to-End-Traffic.

Mit Cisco Prime Infrastructure findet sich hier auch eine Monitoring-Lösung eines klassischen Hardware-Herstellers. Das Tool nutzt Cisco-eigene Protokolle, um vor allem Cisco-dominierte Umgebungen in Hinblick auf Network Performance zu überwachen.

Zu guter Letzt findet sich in den Top Ten mit Nagios XI noch eine Lösung, die sich irgendwo zwischen Generalisten und Suite positioniert. Ursprünglich als Open Source-Lösung vor allem im Infrastruktur-Bereich beheimatet, bietet Nagios XI als kommerzielle Lösung diverse Tools an, unter anderem auch einen NetFlow Analyzer für Network Performance Monitoring.

Dieses Durcheinander von Generalisten, Spezialisten und Monitoring Suites findet sich nicht nur in den Peer Insights, sondern auch im Magic Quadrant bzw. in der entsprechenden Marktübersicht für Network Performance Monitoring and Diagnostics. Dort wird es jedoch noch etwas unpräziser, da nicht die Lösungen, sondern die Hersteller gelistet und bewertet werden. Es kommen zusätzlich Hersteller wie CA oder Riverbed dazu, die umfangreiche IT-Suiten für sehr große IT-Umgebungen anbieten. Diese Hersteller werden in einer Übersicht mit SolarWinds, Paessler, ExtraHop und Flowmon gelistet. Dabei muss man den Gartner-Übersichten noch eine relativ hohe Fachkompetenz zuerkennen. Bei anderen Analysten oder Bewertungs-Portalen sieht das oft noch viel wirrer aus.

Wettbewerber oder Partner?

Zwar bietet die Peer-Insights-Plattform an, mehrere Lösungen direkt miteinander zu vergleichen, doch diese Vergleiche liefern zu wenig technische Details, um einen wirklichen Überblick über die jeweiligen Möglichkeiten zu erhalten. Sie erwecken lediglich den Eindruck, dass es sich hier um Wettbewerber handelt. Aber ist das wirklich der Fall?

Tatsächlich sind Lösungen wir Kentik, ExtraHop oder auch Flowmon (bei den Network Performance Monitoring and Diagnostics Peer Insights immerhin mit 45 Bewertungen auf Platz 16 [Stand Mai 2021]) aufgrund der fast identischen Ausrichtung zweifelsfrei klare Wettbewerber. Allerdings pflegt Flowmon auch eine Partnerschaft mit Paessler (mit PRTG auf Platz zwei der gleichen Peer Insights). Dazu gibt es eine technische Integration in Form diverser PRTG-Sensoren, die bei Flowmon und Paessler gratis zur Verfügung stehen sowie Dokumentationen, die beschreiben, wie sich die Lösungen ergänzen. Ein klassisches Beispiel für die Verbindung von Spezialist und Generalist: Flowmon liefert tiefe Einsichten in den Netzwerk-Traffic und verschiedene Security-Aspekte, während PRTG Informationen über Infrastruktur, Netzwerk-Zustand und andere IT-Komponenten liefert und die Flowmon-Daten und -Analysen in den zentralen Überblick integriert.

Welchen Mehrwert liefern Experten?

Wer sich von dem Studium einer Marktübersicht, eines Magic Quadrants oder eines Review-Portals Klarheit über die Wahl der geeignetsten Monitoring-Lösung für seine Anforderungen verspricht, wird nicht weit kommen. Sind allerdings nach erfolgter Evaluierung eine Handvoll Kandidaten für die Endauswahl übrig, kann ein derartiges Expertenforum durchaus den einen oder anderen Hinweis auf die Qualität der Software, die Zuverlässigkeit des Unternehmens oder das Preis-Leistungs-Verhältnis liefern. Man sollte dabei allerdings stets im Hinterkopf behalten, dass Analysten ihre Informationen vom Hersteller oder von wenigen, handverlesenen Kunden erhalten und dass Bewertungen auf Portalen oft sehr subjektiv sind.

Fassen wir zusammen: Auch Experten tun sich schwer mit einer sauberen Kategorisierung und vergleichen oft Äpfel mit Birnen. Auf Vergleichsportalen und in Marktübersichten verfügbare technische Informationen sind oberflächlich und vereinheitlicht; für eine echte Produktevaluierung sind sie eher nicht zu gebrauchen.

(ID:47642996)