Mobile-Menu

Riesige Datenmengen effizient verarbeiten Mit SD-WAN-Strategien der Datenflut Herr werden

Autor / Redakteur: Laurent Zimmerli / Dipl.-Ing. (FH) Andreas Donner

Die Datenflut wächst. Jeder, der Wertschöpfung mit IT betreibt, ist daran beteiligt und davon betroffen. Daher gilt es, die richtigen Wege zu finden, um diese Datenmengen effizient zu verarbeiten. Einer der vielversprechendsten ist SD-WAN (Software-Defined Wide Area Networking). Laurent Zimmerli von Open Systems erklärt, wie Unternehmen damit erfolgreich arbeiten können.

Anbieter zum Thema

SD-WAN ermöglicht eine effiziente Orchestrierung des Netzwerkverkehrs und eine Verteilung des Datenverkehrs anhand vorprogrammierter Parameter, sagt Laurent Zimmerli von Open Systems.
SD-WAN ermöglicht eine effiziente Orchestrierung des Netzwerkverkehrs und eine Verteilung des Datenverkehrs anhand vorprogrammierter Parameter, sagt Laurent Zimmerli von Open Systems.
(Bild: Open Systems)

IoT, Industrie 4.0, Clouds, KI, Deep Learning, Neuronale Netze… Die Liste dieser Buzz-Wörter ließe sich beliebig verlängern. Ihnen allen ist gemein, dass sie auch Chiffren für immer mehr Daten sind. Auch wenn Daten in aller Munde sind und als „wichtigste und wertvollste Ressource“ bezeichnet werden, lohnt ein Blick darauf, um was es dabei konkret geht.

Hohe Wachstumsraten des Datenvolumens durch stark zunehmende IoT-Anwendungen

Im Vergleich zu 21 Prozent im Jahr 2017 hat sich die Anzahl der deutschen Unternehmen mit IoT-Projekten auf mehr als 44 Prozent im Jahr 2018 verdoppelt, wie CIO und Computerwoche zusammen mit mehreren Partnern in einer Studie herausgefunden haben. Dahinter stehen keine „Killer-Anwendungen“, sondern der Studie nach die Bearbeitung immer neuer Anwendungsfelder. Sie reichen vom Schwerpunkt Industrie 4.0, Qualitätskontrolle und Logistik über Smart Connected Products, Kundenbindung und Smart Home bis zu Predictive Maintenance. Angesichts dieser Bandbreite ist es nicht überraschend, dass das Spektrum eingesetzter Technologien ebenfalls sehr groß ist. Es reicht von Cloud-Services über KI bis zu IoT-Hardware wie Sensoren, Aktoren und Gateways sowie Robotics.

Betrachtet man die Entwicklungen im Bereich IoT als verlässliche Basis für das Wachstum der Anwendungen, muss auch das Datenvolumen stark steigen. Andere Wachstumsgrößen unterstützen diesen Befund. Als Beispiel dafür sei die zunehmende Zahl der global vernetzten Geräte genannt, die nach Statista 20,4 Mrd. im Jahr 2020 betragen wird.

KI-Durchdringung als Treiber für das Datenwachstum

Wenn man die quantitative Dimension der Datenentwicklung dem IoT zuschreibt, kann man die qualitative mit KI verbinden. Die Idee hinter KI ist relativ einfach: die Leistungsfähigkeit von Software so zu verbessern, dass sie auf Basis wachsender Datenmengen signifikante Entwicklungen erkennt, diese bei der „Sichtung“ neuer Daten zielorientiert bewerten und gegebenenfalls sich selbst weiterentwickeln kann. Das Operationsfeld wird insbesondere mit den Begriffen Deep Learning und neuronale Netze beschrieben. Es ist offensichtlich, dass erfolgreiche KI-Projekte enorme Kostensenkungen, Produktivitätsgewinne und Absatzpotenziale versprechen. Dies erklärt auch die nahezu magische Anziehungskraft, die KI nach Erhebungen von Gartner auf die Unternehmen ausübt: Demnach ist die Umsetzung von KI-Projekten in den letzten vier Jahren um 270 Prozent gestiegen.

Wenn man sich beispielhaft für KI das Aufgabenszenario zur sicheren Beherrschung autonom fahrender Automobile vor Augen führt, wird anschaulich klar, dass es erhebliche Ressourcen erfordert. Für das Fahren selbst, die Erkennung von Umwelt, Verkehrszeichen und anderen mobilen Objekten müssen Rechenmodelle entwickelt, getestet und, immer mehr Daten einbeziehend, kontinuierlich verbessert werden. Darüber hinaus sind sie im interaktiven Modus für praktisch alle betriebsrelevanten Situationen zu optimieren.

Der Aufwand dafür ist immens – und die Herausforderungen sind extrem hoch. Dr. Janis Keuper von der Fraunhofer-Gesellschaft hat sie so beschrieben: „Ein zentrales Problem dabei ist die Frage, wie man die Unmengen an Daten überhaupt durch den eigentlichen Rechenvorgang sozusagen »durchschleusen« kann. Wir bewegen uns im Bereich von 10 hoch 15 oder sogar 10 hoch 20 Rechenoperationen. Deshalb versuchen wir, auf quasi allen Ebenen den dafür nötigen Datentransport in den Griff zu bekommen – von mathematischen Modellen, die die Menge an Daten herunterrechnen über die Kommunikationsprotokolle bis hin zur Hardware, mit der wir den Transport beschleunigen.“

Die Schlüsselerkenntnis lautet demnach: Bei KI müssen Unmengen von Daten transportiert werden. Das ist der Preis für die Beherrschung hochkomplexer Systeme. Der qualitative Gewinn beschleunigt damit noch einmal die extrem hohen Wachstumsraten des Datenvolumens.

Eine aktuelle Studie von IDC und Seagate prognostiziert, wie sich das globale Datenvolumen – bezeichnet als „global Datasphere“ – entwickeln wird. Zwischen 2018 und 2025 soll es von 33 Zettabytes auf 163 Zettabytes wachsen. So beeindruckend diese Steigerung auch ist, sie deckt der Untersuchung nach nur einen Teil der Wahrheit ab. Der andere: Die Expansion der Datensphäre werde niemals enden, sodass die Datenmenge ewig wachsen werde. Selbst wenn man bei „niemals enden“ getrost ein Fragezeichen setzen darf, kommt man nicht um die Erkenntnis herum: Die Datenmenge wächst unaufhaltsam weiter. Damit steigen auch die Anforderung an die Netze und das Datenmanagement kontinuierlich – für Unternehmen eine der ganz großen Herausforderungen schon heute und zukünftig erst recht.

Unvermeidbare Problemdominanz bei Kosten für Infrastruktur und Datenmanagement

Das extrem wachsende Datenvolumen kann nur mit ebenfalls wachsenden Netzen bewältigt werden. Damit sind steigende Infrastrukturkosten verbunden, die von den Anwendern als Nutzer zu tragen sind. Diese Kosten haben vielfältige Ursachen. Eine ist der Energieverbrauch. Erwähnt seien hier nur die Studie von ScienceDirekt, die unter dem Titel „Digitalisation, energy and data demand: The impact of Internet traffic on overall and peak electricity consumption“ feststellt, dass der Verbrauch elektrischer Energie durch digitale Geräte und die für deren Betrieb erforderliche Infrastruktur mit 7 Prozent pro Jahr deutlich schneller wächst als die globale Nachfrage nach elektrischer Energie mit 3 Prozent. Am höchsten sei die Wachstumsrate des elektrischen Energieverbrauchs für Netze mit 10,4 Prozent pro Jahr.

Mit IoT- und speziell KI-Projekten generieren Anwender über die Beteiligung an den Infrastrukturkosten hinaus Kosten für ihr Datenmanagement. Diese wachsen tendenziell auch dann, wenn Unternehmen ihr Datenmanagement optimieren. Insofern besteht eine unvermeidbare Problemdominanz, die sich anschaulich so benennen lässt: Auf dem Daten-Tsunami kann man nicht surfen wie auf einer Welle. Man muss sich ihm vielmehr stellen – und dabei von intelligenten Systemlösungen profitieren, weil Daten eben auch wichtige Ressourcen sind. Edge Computing ist als die Alternative, wenn der Ressourcenbedarf für den Datenverkehr und die Datenverarbeitung der lokalen Anwendung zugeordnet werden kann. Sie ist keineswegs bedeutungslos, auch weil sie Cloud-Anbindungen nicht ausschließt. Nach einem Bericht des Handelsblatts wird die Cloud aber immer attraktiver, da bereits 2025 ca. 64 Prozent des weltweiten Datenvolumens so gespeichert werden wird.

Mit SD-WAN von der Lösungsstrategie zur speziellen Unternehmenslösung

Gartner hat seine Kunden und potenziellen Kunden zu WAN, Managed SD-WAN-Services und Hybrid WAN über mehrere Jahre umfassend befragt. Für diese Zielgruppe von Unternehmen, bei der IT weit oben auf der Agenda steht und die man durchaus als richtungsweisend ansehen kann, stellt Gartner fest: Von Anfang 2016 bis Ende 2018 ist die Beschäftigung mit Managed SD-WAN-Services um 47 Prozent und die für SD-WAN um 70 Prozent gestiegen. Diese Zunahme korreliert nicht nur mit der für IoT- und KI-Projekten sondern auch mit dem wachsenden Datenvolumen. Diese Projekte und die daraus resultierende, zunehmende Datenflut sind die Ursache für die Dringlichkeit der Unternehmen, nach neuen Lösungen für ihr Datenmanagement zu suchen.

SD-WAN ist der bevorzugte strategische Ansatz dafür. Es ermöglicht eine effiziente Orchestrierung des Netzwerkverkehrs und eine Verteilung des Datenverkehrs anhand vorprogrammierter Parameter. So können Daten je nach Anforderung wahlweise über den schnellsten, billigsten oder stabilsten Kanal gesendet werden. Zudem lässt sich der Traffic basierend auf den Analysen und vorausschauenden Entscheidungen steuern, um den Datenfluss effizienter zu lenken.

Laurent Zimmerli.
Laurent Zimmerli.
(Bild: Open Systems)

Fazit

Wie sich IoT, Edge Computing, KI und 5G entwickeln werden, ist schwer vorherzusagen. Fakt ist aber, dass das Netzwerk der rote Faden in jeder Infrastruktur und der zugehörigen Trends bleiben wird. Eine effiziente und intelligente Steuerung ist daher unerlässlich, um den laufenden Betrieb nicht nur aufrecht zu erhalten, sondern zukunftsfähig zu optimieren.

Über den Autor

Laurent Zimmerli ist Head of Product Marketing bei Open Systems.

(ID:46154643)