Mobile-Menu

Low Latency Networks im Überblick, Teil 2 Aufbau und Betrieb von Netzen mit geringer Latenz – konzeptionelle Grundlagen

Autor / Redakteur: Dr. Franz-Joachim Kauffels / Dipl.-Ing. (FH) Andreas Donner

Die Konstruktion latenzarmer Netze gleicht prinzipiell der eines Rennsportwagens. Es reicht nicht, hier und da Detailverbesserungen durchzuführen, sondern entlang eines Masterplans muss zunächst eine geeignete Grundstrukturierung gewählt und dann alle Komponenten sorgfältig und harmonisch eingepasst werden. Die neuen Strukturierungsansätze kann man jedoch besser verstehen, wenn man die Komponenten kennt, also beginnen wir mit diesen.

Anbieter zum Thema

Anwendungs- oder systemorientierte Lasten, die auf einer verteilten Systemarchitektur bewältigt werden sollen, sind grundsätzlich empfindlich gegenüber zu hoher Latenz. Jede Transaktion einer solchen Workload spannt eine große Anzahl von Interaktionen zwischen den Stellen auf, an denen die Leistung erbracht wird. Im Extremfall können das Hunderte von VMs und Speicherkomponenten sein. Einige Beispiele:

  • Beim elektronischen Börsenhandel übernehmen Maschinen Marktdaten von anderen Maschinen, treffen aufgrund ihrer Algorithmen Kauf- oder Verkaufsentscheidungen und lassen diese von wieder anderen Maschinen ausführen. Selbst etwas vergleichsweise Langsames, wie der Goldpreis schafft es, innerhalb einer Sekunde um mehr als 10 US-$ pro Feinunze zu springen. Beim Einkauf einer Tonne können Bruchteile dieser Sekunde den Gegenwert eines Einfamilienhauses bedeuten.
  • In HPC Systemen werden Tausende Server geclustert, um komplexe Berechnungen und Simulationen durchführen zu können.
  • In Web-basierten Cloud Anwendungen (oder sogar bei schlichten Suchvorgängen) können Workloads auf Tausenden dynamischer geclusterter Server laufen und mehrstufige Verarbeitungsmechanismen implementieren, die sich durch PetaBytes von Daten wühlen.

Manche werden jetzt sagen, dass sie das nicht interessiert, weil im eigenen Unternehmen keine Anwendungen seien, auf die das zutrifft. Gut, für ein holzverarbeitendes Unternehmen mit Schwerpunkt Katzenkratzbäume mag das so sein, aber viele Unternehmen sind heute schon Bestandteil solcher Szenarien.

Wenn Sie Online-Brokerage machen, arbeitet das System Ihrer Bank oder Sparkasse direkt mit einem elektronischen Börsenhandelssystem zusammen. Moderne Unternehmen sind vielfach mit dem Web und Dienstleistungen dort verwoben. Es ist ganz schlecht für den Netzwerker, wenn man ihm nachweisen kann, dass unerträgliche Antwortzeiten genau in dem durch ihn zu verantwortenden Netz entstehen.

Um die systemweite Antwortzeit zu verbessern, müssen Berechnungszeit und Netzlatenz minimiert werden. Bei üblichen Servern sind die Einflussmöglichkeiten aber eher gering. Hat man einen Server mit dichter und schneller Multicore-Architektur, dazu passenden Speichern und Caches sowie entsprechende periphere Kommunikationsmöglichkeiten, unterstützt er eben eine bestimmte Anzahl von VMs und Transaktionen bis zu einer gewissen Grenze. War er von Anfang an optimal konfiguriert, kann man diese Grenze nur unwesentlich beeinflussen und neue Hardware muss her. Der diskrete Charme der Virtualisierung ist aber, dass man die Leistung der – nennen wir es einmal – lokalen Cloud durch Hinzufügung neuer Hardware (Server und Speicher) praktisch beliebig steigern kann. Also liegt der „schwarze Peter“ wieder beim Netz.

„Fabric-weite“ Latenzminimierung

Um eine „Fabric-weite“ Latenzminimierung durchzuführen, muss die Latenz im Grunde genommen entlang folgender vier Achsen minimiert werden:

  • Reduktion der Latenz jedes einzelnen Knotens im Netz
  • Reduktion der Anzahl von Knoten, die zwischen Quelle und Ziel durchlaufen werden müssen
  • Eliminierung von Congestion
  • Reduktion der Latenz von Transportprotokollen

Diese vier Achsen dienen uns jetzt zur weiteren systematischen Vertiefung.

weiter mit: Reduktion der Latenz jedes einzelnen Knotens im Netz

Artikelfiles und Artikellinks

(ID:2048916)