Wenn der Platz eng wird: Datenprozessoren Hardware-Optimierung am Edge
Anbieter zum Thema
IT-Geräte sollen gleichzeitig immer schneller und kleiner werden – insbesondere am Edge. Doch die Entwicklung kommt zunehmend an den Rand des technisch Machbaren. Hürden zu überwinden, gelingt hier nur durch Hardware-Optimierung, etwa mit DPUs.

Ob Smartphone, Fitness-Armband oder Türsensor: Selbst kleine vernetzte Geräte können heute viele Daten in hoher Geschwindigkeit verarbeiten. Doch gerade am Edge erfordern moderne IoT-Anwendungen eine immer stärkere Rechenleistung, ohne dass die Devices größer werden dürfen. Aufgrund der Platzbeschränkung steht in dieser Umgebung vergleichsweise wenig Rechenleistung für Automatisierungs-, Datenverarbeitungs- und Kommunikationsprozesse zur Verfügung.
Obwohl die Grenzen des technisch Machbaren immer weiter hinausgeschoben werden, lässt sich letztlich nur eine bestimmte Anzahl von Transistoren in einem Quadratzentimeter unterbringen. So kann es nur eine begrenzte Anzahl von Komponenten in einem Telefon und eine maximale Rechenleistung in einem Mobilfunkmast geben.
Daher benötigt der Edge-Bereich eine Möglichkeit, die verfügbare Rechenleistung zu erhöhen, ohne dass gleichzeitig Größe und Platzbedarf steigen. Dies gilt für alle Geräte, Endpunkte und Rechenknoten vor Ort. Dieser Bedarf ist der Grund für die Renaissance der Infrastruktur. Sie konzentriert sich auf die Nutzung spezialisierter und optimierter Rechenleistung, um die Gesamtkapazität dieser eingeschränkten Umgebungen effektiv zu erhöhen.
Hardware-optimierte Datenverarbeitung
Die Lösung liegt hier in der Regel bei einer Hardware-optimierten Datenverarbeitung. Diese Entwicklung begann vor langer Zeit mit speziellen Beschleunigungskarten für die Kryptografie und führte über die Grafikprozessoren (GPU) jetzt zu Datenprozessoren (Data Processing Unit, DPU).
Eine DPU ist ein spezieller, programmierbarer elektronischer Schaltkreis mit Hardwarebeschleunigung für die Datenverarbeitung. Die Daten werden als Multiplex-Informationspakete zur und von der Komponente übertragen. Eine DPU enthält in der Regel eine CPU, eine Netzwerkkarte und programmierbare Module zur Datenbeschleunigung. Dadurch vereint sie die allgemeine Programmierbarkeit von CPUs mit der effizienten Bearbeitung von Netzwerkpaketen, Speicher- oder Analyseanfragen.
Der Unterschied zu einer CPU ist der höhere Grad an Parallelität, der zur Verarbeitung vieler Anfragen erforderlich ist. Im Gegensatz zu einer GPU mit SIMD-Architektur (Single Instruction Multiple Data) nutzt ein Datenprozessor die MIMD-Architektur (Multiple Instruction Multiple Data). Schließlich erfordert jede Anfrage andere Entscheidungen und muss einen anderen Weg durch den Chip nehmen. DPUs können ASIC-, FPGA- oder SoC-basiert sein. Eingesetzt werden sie derzeit vorwiegend in Rechenzentren und Supercomputern. Als unabhängige Infrastrukturendpunkte eignen sie sich jedoch grundsätzlich auch für eine Nutzung am Edge.
Ausgelagerte Rechenaufgaben
Bei jedem Entwicklungsschritt der Hardware-optimierten Datenverarbeitung wurden bestimmte Rechenaufgaben extrahiert, die im wahrsten Sinne des Wortes in Silizium fest kodiert wurden. Dies schaffte exponentiell mehr Kapazität für eine schnellere und effizientere Datenverarbeitung. Das galt schon für die Kryptographie-Beschleunigungskarten Mitte der 2000er Jahre. Sie förderten die Einführung von SSL Everywhere, indem sie die Leistung der Ver- und Entschlüsselung deutlich verbesserten.
Ähnliche Fortschritte gab es bei der Geschwindigkeitserhöhung für Speicherprozesse. Die TCP Offline Engine (TOE) ist zum Beispiel ein Netzwerkgerät, das TCP/IP-Protokolle auf einer Hardwarekarte implementiert. Sie bietet eine Schnittstelle zur 1- oder 10-GbE-Infrastruktur. Die 10-GbE-PCIe-TOE-Karte unterstützt dabei NFS-, CIFS- und iSCSI-TCP-Anwendungen.
Jedes Mal, wenn die Kapazität in eingeschränkten Umgebungen verbessert wurde, lag das an der Einführung optimierter Hardwarekomponenten. Heute führt die DPU diese Tradition fort. Sie wird zunehmend für KI- und ML-Anwendungen eingesetzt und kann dabei aktuelle physische Beschränkungen bei der Datenverarbeitung überwinden.
Die DPU in Edge-Umgebungen
Gerade die im Platz beschränkten Umgebungen am Edge benötigen den Leistungsschub, der durch Hardware-optimierte Datenverarbeitung entsteht. Dies gilt zum Beispiel für den Einsatz in der Fertigung, wo Industrie 4.0 die Echtzeitverarbeitung von Daten mit extrem niedriger Latenz von weniger als 20 Millisekunden erfordert. Aber auch im Gesundheitswesen, wo die Geschwindigkeit der Datenverarbeitung über Leben und Tod entscheiden kann, ist Hardware-optimierte Datenverarbeitung erforderlich.
Das bedeutet, dass jede anwendungszentrierte Plattform für Edge Computing Hardware-optimierte Datenverarbeitung als zentrale Funktion enthalten muss. Die DPU ermöglicht dabei einen breiten Einsatz dieser Technologie. In Kombination mit dem richtigen Software-Stack und basierend auf der richtigen Plattform wird der Edge-Bereich für einen Großteil der Unternehmen die gleiche Effizienz und die gleichen Vorteile bieten, wie sie derzeit nur für große Hyperscale-Anbieter zur Verfügung stehen.
Obwohl Software alle Umgebungen durchdringt – auch den Edge-Bereich – ist es immer noch die Hardware, die alles antreibt. Und ihre Leistung kann gesteigert werden, ohne dass mehr Platz dafür nötig ist, indem man die Vorteile der Hardware-Optimierung nutzt.
Fazit
Insbesondere bei IoT-basierten Anwendungen stehen Unternehmen häufig vor dem Problem, dass sie ohne ausreichende Rechenleistung die möglichen Vorteile von Edge Computing nicht voll ausschöpfen können. Mangelnder Platz für den Ausbau von Hardware erschwert jedoch die Erhöhung der Performance. So kann nur Hardware-Optimierung die herkömmlichen Grenzen der Datenverarbeitung überwinden. Mit Hilfe von Datenprozessoren (DPUs) gelingt der nächste Leistungsschub am Edge.
Über die Autorin
Lori MacVittie ist Principal Technical Evangelist im Büro des CTO von F5 Networks. Ihr Schwerpunkt sind neu entstehende Architekturen und Technologien wie Cloud und Edge Computing, Netzwerkautomatisierung und -orchestrierung, Microservices und Container. MacVittie ist bereits seit über 25 Jahren in der Branche tätig. Bevor sie zu F5 kam, war sie eine preisgekrönte Tech-Redakteurin beim Network Computing Magazine. Sie hat einen M.S. in Informatik von der Nova Southeastern Universität. Darüber hinaus ist sie Mitglied des Leitungsrats für das DevOps Institut und CloudNOW und wurde zu einer der einflussreichsten Frauen in DevOps ernannt.
(ID:47886473)