Mobile-Menu

Definition Was ist Edge Computing?

Aktualisiert am 01.07.2025 Von Dipl.-Ing. (FH) Stefan Luber und Berk Kutsal 5 min Lesedauer

Edge Computing beschreibt einen IT-Ansatz, bei dem Daten nicht zentral in einer Cloud oder einem Rechenzentrum verarbeitet werden, sondern dezentral an der Peripherie des Netzwerks – dort, wo sie entstehen. Ziel ist es, Latenzzeiten zu reduzieren, Bandbreite effizient zu nutzen und die Echtzeitverarbeitung zu ermöglichen. Dieses Paradigma ist besonders relevant für zeitkritische Anwendungen und das Internet der Dinge (IoT).

Edge Computing verlagert Rechenleistung an den Netzwerkrand. 5G, IoT und KI-Technologien treiben diese Entwicklung maßgeblich voran und verändern die Anforderungen an moderne IT-Infrastrukturen.(Bild:  KI-generiert)
Edge Computing verlagert Rechenleistung an den Netzwerkrand. 5G, IoT und KI-Technologien treiben diese Entwicklung maßgeblich voran und verändern die Anforderungen an moderne IT-Infrastrukturen.
(Bild: KI-generiert)

Edge Computing ist ein Design-Ansatz der Datenverarbeitung, bei dem die Ressourcen am Rand (Edge) des Netzwerks bereitgestellt werden. Im Vergleich zu herkömmlichen zentralen Datenverarbeitungskonzepten müssen die Daten dabei nicht zu zentralen Rechenzentren oder Cloud-Data-Centern übertragen werden, sondern ihre Prozessierung findet möglichst nah an ihrem Entstehungsort statt – häufig direkt auf dem Gerät oder in sogenannten Micro-Data-Centern.

Edge Computing gilt zunehmend nicht mehr als Alternative, sondern als komplementärer Bestandteil zu zentralem Cloud Computing. Anwendungen wie das Internet der Dinge (IoT), automatisierte Prozesse der Industrie 4.0, KI-Inferenz oder autonome Fahrzeuge profitieren von der geringen Latenz und Echtzeitfähigkeit. Große Datenmengen lassen sich lokal verarbeiten, bevor sie selektiv an zentrale Systeme weitergegeben werden. Die Ressourcen des Netzwerks werden so effizienter genutzt.

Moderne Edge-Architekturen kombinieren Echtzeitverarbeitung mit intelligenter Datenvorverarbeitung. Edge Devices oder Gateways übernehmen die Aufgabe, relevante Daten lokal auszuwerten und nur ausgewählte Informationen – etwa für langfristige Analysen oder Archivierung – an Cloud-Rechenzentren weiterzuleiten.

Funktionsweise des Edge Computings

Grundsätzlich besagt das Prinzip des Edge Computings, dass die Datenverarbeitung am Rand des Netzwerks stattfindet. Welches Gerät letztendlich für die Prozessierung der Daten zuständig ist, kann sich abhängig von der Anwendung und der Umsetzung des Konzepts unterscheiden.

So kann die Auswertung der Daten beispielsweise direkt von den Sensoren oder eingebetteten KI-Chips geleistet werden, die die Daten erheben. In anderen Szenarien übernehmen Edge Gateways oder lokale Rechner die Verarbeitung, bevor sie ausgewählte Daten über private oder öffentliche Netzwerke in übergeordnete Systeme weiterleiten.

Begriffe, die im Rahmen des Edge Computings häufig fallen, sind Edge Device und Edge Gateway. Ein Edge Device ist ein Gerät an der Netzwerkperipherie, das Daten generiert, selbst verarbeitet oder weiterleitet. Beispiele für Edge Devices sind Smartphones, autonome Fahrzeuge, Sensoren, Kameras oder IoT-Geräte wie intelligente Stromzähler oder Brandmelder.

Ein Edge Gateway ist zwischen dem Edge Device und dem Netzwerk installiert. Es nimmt Daten von Edge Devices entgegen, prozessiert bestimmte Daten lokal oder selektiert und verschickt die Daten an andere Services oder zentrale Rechenzentren, die nicht in Echtzeit verarbeitet werden müssen oder für zentrale Dienste wie die langfristige Speicherung vorgesehen sind. Moderne Gateways unterstützen heute auch AI-Modelle direkt am Netzwerkrand (Edge AI).

Neue Technologien treiben Edge Computing voran

5G & MEC (Multi-Access Edge Computing): Mit 5G-Netzen sinken die Latenzzeiten deutlich unter 10 ms. MEC bringt Rechenleistung direkt an Mobilfunk-Basisstationen und ermöglicht datenintensive Anwendungen wie Augmented Reality, autonome Fahrzeuge oder industrielle Steuerungssysteme.

Edge-KI & Mikrocontroller: Fortschritte bei KI-Inferenz auf Edge-Geräten – etwa durch spezialisierte Mikrocontroller – ermöglichen Bild- und Audioverarbeitung direkt im Gerät.

Vorteile des Edge Computings

Das Konzept des Edge Computings bietet gegenüber zentralisierten Computing-Modellen einige Vorteile. Dadurch, dass die Verarbeitung der Daten in der Nähe der Datenquelle stattfindet, sind Übertragungszeiten und Antwortzeiten minimiert. Die Kommunikation ist nahezu in Echtzeit möglich. Gleichzeitig reduzieren sich der Datendurchsatz und die Bandbreitebelegung im Netz, da nur bestimmte, nicht lokal zu prozessierende Daten an zentrale Data Center übertragen werden. Engpässe auf dem Weg zum Data Center werden vermieden.

Viele Funktionen lassen sich zudem auch dann noch aufrechterhalten, wenn das Netzwerk oder Teile des Netzwerks ausfallen. Ein weiterer Vorteil ist, dass sensible Daten nicht über Netzwerke versendet werden müssen, sondern lokal verbleiben. Edge Computing kann damit auch regulatorische Anforderungen an Datenschutz und Souveränität unterstützen.

Die Performance des Edge Computings ist flexibel skalierbar, indem mehr intelligente Geräte an der Netzwerkperipherie bereitgestellt werden. Fortschritte in der Chiptechnologie und der Einzug von RISC-V- oder KI-spezifischen Prozessoren auf Edge-Geräten steigern die Effizienz zusätzlich.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Netzwerktechnik, IP-Kommunikation und UCC

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Nachteile des Edge Computings

Das Konzept der dezentralen Datenverarbeitung bietet neben den Vorteilen auch einige Nachteile. Durch die vielen teilnehmenden Geräte und die verteilte Struktur erhöht sich die Komplexität der Architektur. Die Computing-Umgebung setzt sich aus vielen unterschiedlichen Geräten verschiedener Hersteller zusammen. Es können Probleme mit Schnittstellen oder mit der Kompatibilität von Protokollen auftreten.

Im Gegensatz zum zentralisierten Cloud Computing mit der hochperformanten Soft- und Hardware in professionell betriebenen Data Centern benötigt Edge Computing viele lokal zu installierende Geräte und Anwendungen. Die Wartung, die Administration und der Betrieb der lokalen Umgebungen kann deutlich aufwendiger sein.

Zwar bietet das Edge Computing durch die lokal begrenzte Datenhaltung ein mehr an Sicherheit, doch ist dies nur der Fall, wenn entsprechende Sicherheitskonzepte für die dezentralen Geräte vorhanden sind. Durch die Heterogenität und die Vielzahl verschiedener Geräte steigt der Aufwand zur Umsetzung der Sicherheitskonzepte. Zudem erhöht die physische Zugänglichkeit der Geräte das Risiko von Manipulationen.

Abgrenzung der Begriffe Edge Computing und Fog Computing

Edge Computing und Fog Computing sind beides dezentrale Datenverarbeitungskonzepte. Die Konzepte lassen sich jedoch voneinander abgrenzen. Das Edge Computing versucht die IT-Ressourcen so nah wie möglich an den Entstehungsort der Daten zu bringen. Dies kann soweit reichen, dass die Daten direkt auf den generierenden Sensoren prozessiert werden.

Fog Computing fügt zwischen den Edge Devices und der Cloud einen weiteren Layer mit den sogenannten Fog Nodes ein. Dabei handelt es sich um kleine, lokale Rechenzentren in den Zugangsbereichen der Cloud. Diese Fog Nodes sammeln die Daten der Edge Devices. Sie selektieren die lokal oder dezentral zu prozessierenden Daten und leiten sie zu zentralen Servern weiter oder verarbeiten sie direkt selbst. Oft sind die Konzepte des Cloud, Edge und Fog Computings miteinander kombiniert, um von den jeweiligen Vorteilen zu profitieren.

Anwendungsbereiche des Edge Computings

Edge Computing bietet ideale Bedingungen für Anwendungen mit großen zu generierenden Datenmengen, die in Echtzeit mit minimalen Latenzzeiten verarbeitet werden müssen. Typische Anwendungsbereiche sind beispielsweise:

  • das Internet der Dinge (Internet of Things, IoT)
  • die automatisierten Prozesse der Industrie 4.0
  • das autonome Fahren
  • das Management von Energienetzen
  • Anwendungen der Künstlichen Intelligenz (KI) und des maschinellen Lernens
  • vernetzte Gesundheitsanwendungen (z. B. Patienten-Monitoring)
  • Smart Cities und Verkehrssteuerung

Für viele dieser Anwendungen wie das autonome Fahren oder die adaptive Verkehrslenkung ist Edge Computing eine Voraussetzung zur Realisierung. Die großen Datenmengen, die die Sensoren erheben, sind binnen kürzester Zeit zu verarbeiten, um schnell und angemessen auf die verschiedenen Situationen zu reagieren.

Die Übertragung zu zentralen Servern erzeugt zu hohe Latenzzeiten. Zudem wäre die Sicherheit der Fahrzeuge, Maschinen oder Menschen von der Verfügbarkeit zentraler Dienste abhängig. Edge Computing erlaubt die direkte Kommunikation und die lokale Reaktion. Die weniger zeitkritischen Daten lassen sich dennoch zentral verwalten.

Ein weiteres Anwendungsbeispiel ist das Management von modernen Stromnetzen. Die Masse der dezentralen Stromerzeuger nutzt verteiltes Computing, um die Energieeinspeisung an die Leistungsschwankungen im Netz in Echtzeit anzupassen und die Netze stabil zu halten.

Marktpotenzial

Laut IDC könnte bis 2028 der Edge-Computing-Markt auf etwa 378 Milliarden US-Dollar wachsen – getrieben durch IoT, 5G, autonome Systeme und dezentrale Datenverarbeitung. Für Unternehmen bedeutet das: Wer zukunftsfähig bleiben will, kommt an Edge Computing kaum vorbei.

(ID:45884421)