Mobile-Menu

Low Latency Networks im Überblick, Teil 3

Latenzarme Switches und Adapterkarten

Seite: 2/2

Anbieter zum Thema

Latenzarme Adapterkarten

Aber auch die schönsten schnellen Switches nützen natürlich nichts, wenn die Adapter nicht ebenfalls an der technologischen Grenze arbeiten.

Das Maß für die Bewertung einer Adapterkarte ist ihre Reaktionszeit. Allgemein gibt es zwei Ausprägungen, nämlich die zwischen dem Auftreten einer Nachricht auf dem Port und der Ankunft in einem Protokoll-Stack (Wire to Application Socket) und natürlich die in der Gegenrichtung zwischen dem Abgang aus einem Protokollstack und der Ankunft auf dem Port (Application Socket Call to Wire). Die Hersteller sprechen gerne von „Wire“. Das ist i.A. bei 10 GbE die SFP+-Schnittstelle. Ein auf diese Schnittstelle aufgesteckter optischer Transceiver fügt noch etwas Latenz hinzu – so im Bereich von 100 ns.

Zum Zeitpunkt der Manuskripterstellung ist die Fa. Solarflare unangefochtene Nummer Eins bei den ultraschnellen 10 GbE-Adapterkarten, dicht gefolgt von Mellanox. Es kann jetzt wieder sein, dass die Namen kaum bekannt sind. Solarflare war aber 2004 der erste Hersteller, der eine 10 GBASE-T-Karte demonstrieren konnte und ist vor allem in der Chipentwicklung führend. Mellanox ist seit Jahren führender Hersteller von InfiniBand-Karten und arbeitet noch nicht so lange im Ethernet-Umfeld. Wenn Mellanox aber sein IB-Knowledge jetzt in die Entwicklung von Ethernet-NICs einbringt, wird es richtig spannend.

Die 10 GbE Adapter von Solarflare schaffen:

  • < 2 µs Wire to Application Socket UDP Receive und
  • < 2,5 µs Application Socket Call to Wire TCP

Interessant ist aber vor allem die OpenOnload Funktion. Denn der beste Adapter nutzt nur wenig, wenn er sich bei plötzlich auftretenden Überlastsituationen nicht zu helfen weiß. Umgebungen mit hoher Nachrichtenrate können tiefe Warteschlangen erzeugen, die zur Überlastung von Anwendungen oder gar zum Verlust von Paketen führen können.

Normalerweise würde man sagen, dass das den Adapter wenig angeht und er die Last an den Kartentreiber weitergeben soll, der dann sehen muss, was er damit macht. Das funktioniert natürlich, in einer Ultra Low Latency Umgebung aber viel zu langsam. Beim plötzlichen Auftreten einer solchen Situation kann die Latenz recht plötzlich um den Faktor Hundert oder mehr springen. Ein Prozessor kann dadurch derart überlastet werden, dass er zeitweise nichts anderes mehr machen kann.

OpenOnload ist ein Konzept, derartige Situationen direkt auf der Adapterkarte abzufangen. Dabei werden der gesamte TCP/IP-Stack und die normalen Treiber übersprungen. Natürlich werden deren Funktionen aber durch OpenOnload nachgebildet.

An der Bezeichnung VNIC in Abbildung 4 kann man sehen, dass OpenOnload eine konsequente, tiefer greifende Nutzung der Möglichkeiten von SR-IOV ist. Man kann es auch als Hardware-Unterstützung eines virtualisierten TCP/IP ansehen.

Das Ergebnis ist jedenfalls beeindruckend: mit OpenOnload hält der Adapter Überlastsituationen wesentlich länger mit geringer Latenz stand als ohne dieses Verfahren, siehe Abbildung 5.

Eine weitere wichtige Funktion von OpenOnload ist die Entlastung der Prozessoren. Der Hersteller gibt dazu nur an, dass „bei der Verwendung von zwei Adaptern im Vollduplex bei einer Übertragungsgeschwindigkeit von 40 Gbps die Prozessoren nur mäßig belastet werden“.

Belassen wir es zunächst dabei. Aber man stelle sich jetzt einmal vor, wie die Leistung von iSCSI aussehen könnte, wenn hier mit vergleichbaren Konzepten gearbeitet würde.

Die Leistung der Mellanox-Karten sowie das Konzept des RDMA über Converged Ethernet (RoCE) wurden ja bereits in dem oben zitierten „Melanox-Voltaire“-Artikel dargestellt.