Mobile-Menu

Low Latency Networks im Überblick, Teil 1 Latenz – dominanter Leistungsfaktor moderner Netze

Autor / Redakteur: Dr. Franz-Joachim Kauffels / Dipl.-Ing. (FH) Andreas Donner

Die Latenz ist ein dominanter Leistungsfaktor moderner Netze. Es gibt verschiedene Anwendungsbereiche für Netze mit extrem geringer Latenz, bspw. Netze zur Unterstützung des elektronischen Handels. Aber auch für Kundenbetreuung im großen Stil, die Unterstützung moderner Web-Architekturen oder die Transaktionsverarbeitung ist geringe Latenz wünschenswert. Kurz: Low Latency ist überall dort Pflicht, wo das Netz als Verbindungsglied zwischen virtualisierten Servern und schnellem, masselosen Speicher die Rolle eines Systembusses übernimmt.

Anbieter zum Thema

In 2010 konnte durch mehrere Methoden nachgewiesen werden, dass die produktbedingte Switch-Latenz der dominante Faktor für die Gesamtlatenz eines Netzes ist und nicht die reine Bandbreite.

Im Klartext bedeutet dieses Ergebnis, dass die Aufrüstung eines konventionell strukturierten 10-GbE-Netzes auf 100-GbE-Verbindungen nur Verbesserungen im einstelligen Prozentbereich bringt. Tauscht man jedoch ältere Switches mit einer Latenz von ca. 20 µs gegen solche mit einer Latenz von ca. 3 bis 5 µs aus, kann das Netz hinsichtlich seiner Reaktionsfähigkeit um den Faktor drei bis fünf gesteigert werden. Weitere Verbesserungen ergeben sich dann durch strukturelle Änderungen.

Die spannende Frage ist demnach: wo sind die Untergrenzen der Latenz heute?

Blade Networks Technologies (gehört jetzt zu IBM) und Citrix haben ein komplettes, funktional vollständiges skalierbares Netz mit einer Ende-zu-Ende Latenz von 26 Mikrosekunden gezeigt. Arista, IBM, HP und Juniper haben 24 X 10 GbE-Switches mit einer Latenz von 300 oder 700 Nanosekunden im Programm. Voltaire, ein Spezialist für IB-Switches, bietet jetzt auch Ethernet-Switches an, die IB-Qualitäten (IB = InfiniBand) haben. Und auch Cisco hat mit den Baureihen Nexus 2000 und 5500 erheblich nachgelegt.

Eine Frage, die sich sofort aufdrängt, ist natürlich, ob auch ein Corporate RZ-Netz mit mehr herkömmlichen Aufgabenstellungen von derartigen Entwicklungen profitieren kann. Die Kosten lieferbarer Produkte bewegen sich nämlich schon jetzt in einem Rahmen, der ein näheres Hinschauen lohnt.

Generell ist es so, dass die Latenzfrage insgesamt vielfach etwas unsystematisch betrachtet wird. Vor der Erklärung der neuen Komponenten und Verfahren wollen wir daher die Einflussfaktoren für Latenz in einem Netzwerk entlang von konkreten Anwendungsfällen systematisch zusammenstellen. Dabei wird schnell klar, an welchen Stellen ein Netz mit eigentlich „normalen“ Anforderungen von Latenzminimierung profitieren kann. Die Darstellung ist mehr generell, jeder kann danach aber die Latenzen in seinem Corporate DC-Network selbst bestimmen.

Latenz, Antwortzeiten & Co.

Es ist mir aufgefallen, dass der Begriff „Latenz“ im Zusammenhang mit Netzen sehr unterschiedlich benutzt wird. Man muss hier z.B. sehr aufpassen, was Hersteller grade meinen, wenn sie von „der Latenz“ sprechen. Außerdem gibt es noch ein hübsches Durcheinander zwischen den Begriffen „Latenz“ und „Antwortzeit“. Bitte verzeihen Sie mir, dass ich hier so penibel bin, aber wenn wir in diesen absoluten Grenzbereich vorstoßen, werden Dinge wesentlich, über die man früher überhaupt nicht nachgedacht hat.

Das Wort kommt von „latens“, lateinisch für „verborgen“, beschreibt philosophisch das Vorhandensein einer noch nicht sichtbaren Sache, ist aber allgemein definiert als die Zeit zwischen Reiz und Reaktion oder zwischen Ursache und Wirkung. In übertragenem Sinne ist es ein Synonym für Reaktions- oder Verzögerungszeit. In einem technischen System beschreibt es die Laufzeit eines Signals. Und hier entsteht genau die Verwirrung, weil es viele Darstellungen gibt, die sich nicht auf ein Signal, sondern auf eine Paketlaufzeit beziehen.

Wir rechnen heute meist in Gbit/s. Dies bezieht sich auf die Übertragungsgeschwindigkeit. 1 Gbit/s bedeutet, dass 1.000 Millionen Bits pro Sekunde z.B. über einen Port verschickt werden können. Das entspricht einer Million Pakete pro Sekunde, wenn die Pakete 1.000 Bit lang sind. Die Übertragung eines 1.000 Bit-Paketes dauert also genau 1 µs vom ersten bis zum letzten Bit, und zwar genau am Ausgangsort betrachtet. Exakt bezeichnet ist das die „Paketdauer“.

Nehmen wir es jetzt ernst mit der Latenz, interessiert uns zunächst einzig und alleine das Schicksal eines einzelnen Bits repräsentiert durch sein physikalisches Signal.

Die Problematik der Latenz wird übrigens nicht nur bei räumlich kompakten Netzen diskutiert, wie bspw. einem RZ-Netz, bei dem die Latenz durch die Signallaufzeit auf den Kabeln (nach allgemeinem, falschem Verständnis) keine Rolle spielt, sondern auch bei Fernverbindungen. Signale breiten sich auf einem Lichtwellenleiter mit ca. 2/3 der Lichtgeschwindigkeit im Vakuum aus. Der für einen Lichtwellenleiter exakte spezifische Wert richtet sich primär nach seinem Brechungsindex. Die allgemein bekannten Dämpfungseffekte wirken nicht wesentlich auf die Ausbreitungsgeschwindigkeit, sondern auf die Signalstärke.

Die Ausbreitungsgeschwindigkeit beträgt also grob 200.000 km/s. 200 km Kabel fügen also 1 ms Latenz hinzu. Zwischenverstärker für Lichtwellenleiter, vor allem EDFAs, lassen sich fast latenzfrei bauen. Anders gesprochen: hat ein Switch eine produktbedingte Latenz von 5 ms, verschwendet er genau die Zeit, in der das Signal 1.000 km weit käme. Deshalb ist auch in diesen Bereichen die Minimierung der Knotenlatenz sehr wichtig.

Die Verbindungen in RZ-Netzen sind meist kürzer als 100 m. Das sind zwar „nur“ 0,5 µsek. für die Laufzeit, aber bei einem sehr strengen Design muss das auch berücksichtigt werden.

Jetzt sehen wir auch, warum das gerne durcheinandergeht: hinsichtlich der Nachrichtentechnik liegen diese Werte eben eng beieinander, aber:

  • die Latenz einer 100 m langen Leitung ist 0,5 µs (für ein einzelnes Bit)
  • die Paketdauer für ein 1.000-Bit-Paket bei 10 Gbps ist 1 µs
  • die Übertragungsdauer (Paketdauer + Latenz) für ein 1.000 Bit Paket über eine 100 m lange Leitung ist demnach 1,5 µs

Das sagt jetzt natürlich noch nichts darüber aus, wie lange es dauert, bis das Paket von einem Hauptspeicher zum anderen benötigt, denn es muss ja gepackt werden, eine FCS erhalten, den Transceiver durchlaufen und vice versa. Es ist unpraktisch, für alle diese unterschiedlichen Teilstrecken und Elemente wieder neue Begriffe zu kreieren. Deshalb bezeichnet man das allgemein als Antwortzeit, die eben die Summe der einzelnen Bearbeitungszeiten, Latenzen und Dauern darstellt, bezogen auf einen Quell- und einen Zielpunkt.

Jetzt können Sie natürlich sagen, wieso das denn im Detail alles so wichtig wäre.

Nun, es gibt Hersteller von sagen wir mal 24 Port 10 GbE-Switches, die sagen, dass ihre Switches nur eine Latenz 300 oder 700 ns haben. Das bedeutet in diesem Fall wirklich Latenz im strengen Sinne: zwischen der Ankunft eines individuellen Bits als Bestandteil eines Datenpakets an einem Port bis zum Abgang genau dieses Bits an einem anderen Port des Switches vergehen eben nur 300 oder 700 ns.

Die Paketdauer für ein 1.000 Bit-Paket variiert jedoch nach Arbeitsweise des Switches. Bearbeitet er das Paket als Ganzes, dauert es 1 µs bis das Paket ganz in den Switch gelaufen ist und dann 0,3 µs, bis das erste Bit wieder am Ausgang ankommt und dann noch mal eine ganze Mikrosekunde, bis das Paket ganz aus dem Switch heraus ist. Das ist aber eine unfaire Betrachtungsweise, denn während das letzte Bit noch bearbeitet wird, ist das erste Bit ja schon längst auf der Leitung unterwegs. Im Allgemeinen wird die Paketdauer daher ohne das Herauslaufen betrachtet, beträgt hier also 1,3 µs.

Schneller mit Cut Through Switching

Schneller geht es mit Cut Through Switching, weil hier nur ein Teil des Paketes ausgewertet wird. Damit könnte man die Paketzeit in diesem Beispiel wieder unter 1 µs drücken.

Wir betrachten jetzt die Übertragungsdauer eines 1.000-Bit-Paketes in einem 10-GbE-Netz zwischen einem Startpunkt (Port einer Adapterkarte) über eine 100 m lange Leitung zu einem latenzarmen Switch und von diesem zurück über eine 100 m lange Leitung zu einem Zielpunkt:

  • 0,5 µs (Leitungslatenz Startpunkt zu Switch) + 1,3 µs (Paketdauer im Switch) + 0,5 µs (Leitungslatenz Switch zu Zielpunkt) + 1,0 µs (Paketdauer) = 3,3 µs.

Was passiert eigentlich in einer solchen Umgebung, wenn wir die Übertragungsgeschwindigkeit erhöhen, sagen wir von 10 auf 100 Gbps. Na ja, es wird deutlich schneller, bei ansonsten gleichen Voraussetzungen „dauert“ das 1.000-Bit-Paket ja nur noch 0,1 µs. Es ergibt sich also:

  • 0,5 µs (Leitungslatenz) + 0,4 µs (Paketdauer im Switch) + 0,5 µs (Leitungslatenz) + 0,1 µs (Paketdauer) = 1,5 µs.

Noch schneller wird es natürlich, wenn wir die Leitungen kürzen, sagen wir von 100 m auf 10 m. Dann dauert die Übertragung bei 10 Gbps nur noch 2,4 µs und bei 100 Gbps sogar nur noch 0,6 µs.

weiter mit: Kritikalität von Antwortzeiten

Artikelfiles und Artikellinks

(ID:2048886)