Mobile-Menu

Daten im richtigen Kontext betrachten Wie die Normalisierung das Netzwerk revolutionieren kann

Autor / Redakteur: Sascha Giese / Dipl.-Ing. (FH) Andreas Donner

Daten als Lebenselixier eines Unternehmens zu bezeichnen mag klischeehaft klingen, aber es entspricht schlicht und einfach der Wahrheit. Ob bei der Analyse der Netzwerknutzung oder der Überwachung des Datenverkehrs: Überall stehen Daten im Mittelpunkt. Für sich genommen und ohne Kontext haben sie jedoch keinerlei Bedeutung. Hier hilft die Normalisierung.

Firma zum Thema

Daten einfach nur so zu betrachten, ist meist wenig zieführend. Um Aussagekraft zu erlangen, müssen Daten in einen Kontext gebettet werden – und dies geschieht über "Normalisierung".
Daten einfach nur so zu betrachten, ist meist wenig zieführend. Um Aussagekraft zu erlangen, müssen Daten in einen Kontext gebettet werden – und dies geschieht über "Normalisierung".
(Bild: © NicoElNino - stock.adobe.com)

Um Daten im richtigen Kontext zu verwenden und zu bewerten braucht es die so genannte Normalisierung, denn sie verleiht den Daten einen Sinn – und hier geht es nicht nur darum, das Leben von IT-Experten leichter zu machen: Die Normalisierung kann ein zentraler Schritt auf dem Weg hin zur IT-Automatisierung sein.

Worum geht es also bei der Normalisierung? Per Definition ist Normalisierung die Anwendung von Statistiken, um Analysen zu ermöglichen und die Parameter zu definieren, die den Daten zu Aggregationszwecken eine tatsächliche Bedeutung geben. Dies ist bereits gegeben, wenn man eine Baseline für sein Netzwerk erstellt oder auch mehrere Baselines mit verschiedenen Variationen verwendet.

Die Normalisierung kann, einfach gesagt, die Variablen in den Daten in eine bestimmte Kategorie oder einen bestimmten Typ überführen. Es kann schwierig sein, Daten zu verstehen. Überwacht man ein Netzwerk über einen kurzen Zeitraum hinweg und hat erst wenige Datenpunkte, werden kleine Ausreißer schnell überinterpretiert.

Bei einem großen Zeitraum hingegen erscheint ein kurzer Spitzenwert oft als bedeutungslos. Daher ist es entscheidend, dass man genügend Datenpunkte hat, um erste Erkenntnisse aus den Daten ziehen zu können und zu überblicken, wie die Dinge zusammenwirken. Ohne Normalisierung ist es deutlich schwieriger oder gar unmöglich, Trends und Anomalien zu erkennen.

Sobald man eine effektive und funktionierende Baseline erstellt hat, ist es sehr viel einfacher, Spitzen im Netzwerkdatenverkehr zu erkennen und die folgenden Fragen zu beantworten: Was ist passiert? Weshalb ist es passiert? Was können wir infolgedessen tun? Wenn beispielsweise der Netzwerkpfad geändert wurde, erkennt man dies mit einer Baseline früher und das IT-Team kann nachvollziehen, was geschieht.

Der KI beim Lernen helfen

Für künstliche Intelligenz (KI) ist es nicht immer einfach, Daten zu verstehen – schließlich wurden Maschinen darauf programmiert, auf eine bestimmte Art und Weise zu „denken“, und ihnen fehlen die Kreativität und die eher zufälligen Denkprozesse des Menschen. Auch hier kommt die Normalisierung ins Spiel. Sobald die Daten „normalisiert“ und effektiv in verschiedene Kategorien sortiert wurden, kann die KI die von ihr betrachteten Daten leichter verstehen, Anomalien erkennen und die ihr zugewiesenen Aufgaben ausführen.

Zweifellos können IT-Experten einfache Aufgaben auch selbst durchführen, vielleicht auch ohne Normalisierung – aber weshalb sollten sie sich die Mühe machen? Dies würde deutlich mehr Zeit in Anspruch nehmen. Mit Automatisierung und einer effektiven Normalisierung können solche Aufgaben sehr viel schneller und effizienter ausgeführt werden, sodass IT-Experten mehr Zeit bleibt, sich auf wichtige kreative Projekte zu konzentrieren, die dem Unternehmen einen echten Wettbewerbsvorteil verschaffen.

Man muss nicht eine einzelne Baseline aus Datenpunkten erstellen: Auch komplexere Baselines mit verschiedenen Variationen sind möglich. Eine bestimmte Baseline könnte beispielsweise um 8 Uhr morgens, 11 Uhr mittags und 17 Uhr nachmittags völlig anders aussehen. So kann die KI mehr Anomalien erkennen und aussagekräftigere Informationen liefern.

Wer profitiert am meisten von der Normalisierung?

IT-Experten sind möglicherweise anfangs nicht allzu begeistert von der Idee der Normalisierung. Schließlich sind sie diejenigen, die die Zeit dafür aufwenden müssen, die ihnen zur Verfügung stehenden Daten zu durchkämmen und zu definieren. Viele IT-Experten sind hauptsächlich damit beschäftigt, akute Probleme zu lösen, und haben Schwierigkeiten die Zeit dafür aufzubringen, Daten zu normalisieren.

Dennoch wäre es den Aufwand allemal wert, denn sie selbst sind auch diejenigen, die langfristig am meisten davon profitieren. Durch den gesamten Prozess erlangen sie ein genaueres Verständnis der Metadaten, mit denen sie arbeiten, und die Normalisierung sorgt für eine effektivere künstliche Intelligenz und Automatisierung. So können IT-Experten sich wiederholende Aufgaben automatisieren und mithilfe von KI Anomalien erkennen, die von IT-Teams schnell einmal übersehen werden.

Sascha Giese.
Sascha Giese.
(Bild: SolarWinds)

Auch jenseits der IT-Abteilung kann ein Unternehmen von der Normalisierung profitieren, wenn auch ohne es zu bemerken. Denn Netzwerke und Datenbanken funktionieren effizienter, wenn Daten sauber aggregiert sind. Anomalien können schneller erkannt und Probleme mit geringeren Ausfallzeiten behoben werden. Gleichzeitig kann die KI bei der Bearbeitung von Tickets von Angestellten helfen, sodass IT-Profis weniger Zeit auf den Support bei akuten Problemen verwenden müssen. Alles in allem sorgt die Normalisierung also dafür, dass im Unternehmen alles besser funktioniert – und wer würde das nicht wollen?

Über den Autor

Sascha Giese ist Head Geek bei SolarWinds.

(ID:47479293)