Mobile-Menu

Datenfilter und Rechenpower am Netzwerkrand KI und IoT als Treiber: Edge Computing auf dem Vormarsch

Ein Gastbeitrag von Henrik Hasenkamp 5 min Lesedauer

Anbieter zum Thema

Die Edge verspricht, die Bandbreite zu schonen und niedrige Latenzen zu gewährleisten. Damit soll sie die Speicherkosten senken und die Effizienz der Datennutzung im Unternehmen steigern. Doch für die erfolgreiche Implementierung gibt es einiges zu beachten.

Hinter Edge Computing steckt eine verteilte Architektur, mit der Rechenleistung, Speicher und Netzwerkfunktionen in die Nähe der Orte gebracht werden, an denen die Daten erzeugt und die Anwendungen benötigt werden.(Bild:  frei lizenziert /  Pixabay)
Hinter Edge Computing steckt eine verteilte Architektur, mit der Rechenleistung, Speicher und Netzwerkfunktionen in die Nähe der Orte gebracht werden, an denen die Daten erzeugt und die Anwendungen benötigt werden.
(Bild: frei lizenziert / Pixabay)

Ohne Cloud geht es nicht; die meisten Unternehmen nutzen ihre Vorteile jeden Tag: Rechenleistung und Storage werden mit nur einem Klick bereitgestellt und in die bisherige IT-Infrastruktur integriert. Doch durch die verbrauchsorientierte Abrechnung laufen die Kosten bei einigen Einsatzszenarien sehr schnell aus dem Ruder. Dies gilt vor allem dann, wenn permanent größere Datenmengen in die Cloud verschoben werden.

Ein typisches Anwendungsbeispiel dafür ist die regelmäßige Übertragung von Sensordaten der Industrie. Selbst wenn ein einzelner Sensor lediglich wenige Dutzend Bytes pro Minute überträgt, addiert sich diese geringe Anzahl angesichts tausender Sensoren im Dauerbetrieb bereits nach wenigen Tagen zu einer enormen Datenmenge im Gigabyte-Bereich.

Hierdurch entstehen erhebliche Speicherkosten. Eine Lösung ist ein Filter am Rande des Netzwerks, oft auf Englisch als Edge bezeichnet. Dieser Filter betreibt so genanntes Edge Computing. Er sortiert die Daten vor und sendet nur solche an die Cloud weiter, deren Bearbeitung sich auch lohnt. So ist es bei vielen Sensoren sinnvoll, lediglich Wertänderungen in die Cloud zu senden – dass über Stunden das Gleiche gemessen wird, ist wenig interessant.

Hinter Edge Computing steckt eine verteilte Architektur, mit der Rechenleistung, Speicher und Netzwerkfunktionen in die Nähe der Orte gebracht werden, an denen die Daten erzeugt und die Anwendungen benötigt werden. Im vereinfachten Beispiel vom Anfang könnte Edge Computing also beispielsweise neben der Filterfunktion auch die Alarmierung und Abschaltung bei plötzlich auftretenden Höchsttemperaturen übernehmen. Eine solche lokale autonome Datenverarbeitung vermeidet den umständlichen Weg über die Cloud mit ihren hohen Latenzen und spart Zeit, Bandbreite und Kosten.

Starke Dezentralisierung der Datenverarbeitung

Völlig allein ist dieser Ansatz des Edge Computing allerdings nicht. In den letzten Jahren hat der Netzwerkausrüster Cisco parallel einen ähnlichen Ansatz entwickelt, das so genannte Fog Computing. Die Metapher bezieht sich auf die Cloud, denn in Bodennähe wirken Wolken üblicherweise wie Nebel (engl. fog). Der dahinterliegende Grundsatz ist derselbe wie beim Edge Computing: Die Rechenleistung wird nicht in der Cloud selbst, doch an ihrem Rand bereitgestellt. Der zentrale Unterschied bei beiden Konzepten: Edge Computing verlagert die Datenverarbeitung auf Endgeräte und hausinterne Server, die sich im Netzwerk befinden.

  • Fog Computing setzt auf zahlreiche Minirechenzentren, die sich um die Datenvorverarbeitung, Sortierung und andere Aufgaben kümmern.
  • Edge Computing bewirkt eine stärkere Dezentralisierung der Verarbeitung von Daten, während Fog Computing die Cloud näher an die interne IT-Infrastruktur bringt.

Beide Ansätze haben jedoch eines gemeinsam: Sie schonen Cloudressourcen, indem sie den ausgehenden Netzwerkverkehr durch Vorsortierung und Priorisierung verringern. Obwohl beide Verfahren ebenfalls Investitionen und laufende Kosten haben, ist eine deutliche Kostensenkung bei der Cloud möglich.

Trotz der Vorteile des Edge Computing gibt es auch Risiken. Datenmanagement, Cybersecurity und die Skalierung der Rechenleistung sind bei verteilten Geräten und Servern deutlich schwieriger als in der Cloud, da die Geräte vor Ort selbst betrieben werden. Deshalb müssen Unternehmen darauf achten, die richtige Warnung zwischen zentralen und dezentralen Anwendungen und Surfern zu finden. Nur dann können sie damit einhergehende Vorteile ausschöpfen und Risiken senken.

Vielfältige Einsatzszenarien für Edge Computing

Viele Unternehmen haben ihre Entscheidung bereits getroffen und nutzen Edge Computing in unterschiedlichen Einsatzszenarien. So funktioniert beispielsweise die Sprachverarbeitung von digitalen Assistenten nach diesem Prinzip. Nach der Spracheingabe sortiert ein Spracherkennungsprogramm die Daten, die in die Cloud gesendet werden sollen. Auf diese Weise lassen sich sowohl der Datenverkehr in die Cloud als auch die Latenzen verringern.

In der Industrie finden sich zahlreiche weitere Anwendungsmöglichkeiten. Moderne Produktionsmaschinen sammeln mit ihren Sensoren zahlreiche Daten, die für die Analyse an Cloud-Lösungen weitergeleitet werden. Das kann die Zustandsüberwachung sein, aber auch Daten für die Ersatzteilbestellung oder zur vorausschauenden Instandhaltung. Die Vielfalt der Daten und Sensoren würde die Netzverbindung überlasten und eine zu hohe Bandbreite belegen. Auch hier übernimmt die Edge die Priorisierung der Daten, die an die Cloud gehen sollen.

KI-Anwendungen profitieren besonders stark von Edge Computing. So gibt es bei diesen Lösungen häufig eine Zweiteilung der Aufgaben: Die Machine-Learning-Modelle werden in der Cloud trainiert, da hier große Datenmengen besonders schnell und effizient verarbeitet werden können. Die daraus entstehenden Anwendungen benötigen die Trainingsdaten nicht mehr und sind deshalb vergleichsweise klein. Sie können auf herkömmlichen Servern ausgeführt werden. Deshalb hat es sich eingebürgert, KI-Lösungen auf Edge-Servern laufen zu lassen. Sie sind für diesen Zweck optimiert und können bei Bedarf leicht skaliert werden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Netzwerktechnik, IP-Kommunikation und UCC

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Der Edge-Markt wächst

Die meisten Unternehmen haben erkannt, dass an der Cloud kein Weg mehr vorbeiführt. Allerdings ist sie allein nicht die Lösung, da der bei Skalierung der Anwendungen entstehende Datenverkehr ein Risiko darstellt. Deshalb sollte bei allen Projekten und Anwendungen in den Bereichen Industrial IoT, Data Analytics und Künstliche Intelligenz direkt auch an Edge Computing gedacht werden. Zwar funktionieren Pilot-Lösungen für die Anbindung von Maschinen an die Cloud im kleinen Rahmen sehr gut. Doch Bandbreitenprobleme entstehen sofort, wenn der Pilot auf eine größere Anzahl von Benutzern oder Maschinen ausgeweitet wird.

Allerdings ist Edge-Technologie komplex. Bei der Umsetzung muss ein Unternehmen eine Vielzahl von Akteuren koordinieren, darunter Hardwarehersteller, Telekommunikationsanbieter, Netzwerkausrüster und andere. Dies sorgte in der Vergangenheit für Schwierigkeiten bei der Anwendung. Inzwischen scheint sich der Markt aber zu konsolidieren, unter anderem wegen des großen Engagements zahlreicher Cloud-Anbieter.

Vor allem die Hyperscaler haben hier einen Markt gesehen. Gartner schätzt, dass bis Ende 2023 etwa 20 Prozent der großen Edge-Plattformen von den bekannten Hyperscalern bereitgestellt werden. 2020 waren es gerade mal ein Prozent. Neben Branchengrößen wie Amazon (AWS) und Microsoft (Azure) bauen aber auch zahlreiche europäische Cloudprovider gemeinsam mit Hardware-Herstellern und Telekommunikationsunternehmen ihre Edge-Angebote aus. Diese bieten gerade für deutsche Kunden den großen Vorteil, Daten in deutschen und europäischen Rechenzentren zu hosten.

Unternehmen müssen sich mit dem Edge-Markt auseinandersetzen, allein schon aus Effizienz- und Kostengründen. Wenn sie dabei auf die richtige Balance zwischen zentralem und dezentralem Betrieb achten, profitieren sie von den Vorteilen und minimieren gleichzeitig die Risiken. Wichtig ist dabei, auf einen erfahrenen Umsetzungspartner mit dem richtigen Marktüberblick zurückgreifen zu können.

Dieser Beitrag stammt von unserem Schwesterportal Industry of Things.

(ID:49328963)