Mobile-Menu

Mellanox kauft Voltaire – die Bedeutung für die Netzwerke im Überblick

Low-Latency-Adapter und schnellste Switches aus einer Hand

Seite: 2/4

Der Vantag 8500 IB-Switch im Detail

Konstruktiv und von seinem Geiste her gesehen ist der Vantage 8500 ein IB-Switch mit Ethernet-Schnittstellen. Dadurch ergibt sich ein wirklich beeindruckendes Leistungsspektrum.

Eine aggregate Gesamtleistung von 11,52 Tbps sorgt für die Unterstützung von bis zu 288 Full Duplex Non Blocking 10-GbE-Ports. 12 Slots fassen sogar Line-Boards mit jeweils bis zu 24 10-GbE-Schnittstellen oder Fabric Boards, von denen es bis zu vier geben kann.

Bildergalerie

An Protokollen und Verfahren unterstützt dieser Core-Switch beispielsweise:

  • Schnittstellen SR, LR, LRM, Twinax
  • L2: 4K 802.1Q VLANs, 9K Jumbo, IGMP, 802.1p QoS, STP, RSTP, MSTP, LLDP, 802.3ad LAG, 802.3x
  • DCB: Qbb PFC, Qau QCN, Qaz ETS, VEB
  • L2, L3, L4 ACLs

Mit diesen Grundfunktionen unterstützt der Switch FCoE, Ethernet Muli-Pathing, I/O-Virtualisierung sowie Fabric-weite Congestion Control und Management.

Die Latenz liegt dabei zwischen 600 und 1.200 ns.

Ein voll ausgebauter Core-Switch verbraucht bis zu 3 kW, insgesamt kann man also sagen, grob 10 W pro 10 GbE-Schnittstelle.

Der Hersteller legt Wert auf die hohe Kooperationsfähigkeit seiner Geräte mit Standard-Switches anderer Hersteller (wobei implizit vorausgesetzt wird, dass diese zur besseren Zusammenarbeit DCB unterstützen sollten.

Doch auch die schönsten schnellen Switches nützen natürlich nichts, wenn die Adapter nicht ebenfalls an der technologischen Grenze arbeiten.

Bewertungskriterien für Adapterkarten

Das Maß für die Bewertung einer Adapterkarte ist die Reaktionszeit. Allgemein gibt es zwei Ausprägungen, nämlich die zwischen dem Auftreten einer Nachricht auf dem Port und der Ankunft in einem Protokollstack (wire to application socket) und natürlich die in der Gegenrichtung zwischen dem Abgang aus einem Protokollstack und der Ankunft auf dem Port (application socket call to wire).

Die Hersteller sprechen gerne von „wire“. Das ist im Allgemeinen bei 10 GbE die „SFP+“-Schnittstelle. Ein auf diese Schnittstelle aufgesteckter optischer Transceiver fügt noch etwas Latenz hinzu – etwa im Bereich von 150 ns.

Doch um die Leistung der Mellanox-Karten würdigen zu können, muss ich Ihnen erst „Rocky“ vorstellen.

Konvergenzfunktionen: DCB, FCoE, RDMA, RoCE

Die DCB-Funktionen sind wie schon dargestellt in zweierlei Hinsicht elementar. Sie sind die Grundlage dafür, dass ULL-Switches überhaupt sinnvoll funktionieren können. Aber es ist auch ganz wesentlich, nicht zu vergessen, dass die DCB-Funktionen eine notwendige Voraussetzung dafür sind, in einem RZ-Netz Komponenten unterschiedlicher Latenzfähigkeit kooperieren zu lassen. Das bedeutet, dass im Hinblick auf die flexible Wachstumsfähigkeit eines RZ-Netzes die DCB-Funktionen für alle Switches unabdingbar sind.

FCoE diskutieren wir schon seit Jahren. Mit den ULL-Switches scheint es wirklich dazu zu kommen, dass man FCoE auch ohne ernst zu nehmende Leistungsverluste implementieren und benutzen kann. Die durch den Standard FC-BB_E gegebenen funktionalen Einschränkungen wie z.B. auf die FC-Klassen 2 und 3 bleiben dabei natürlich bestehen. Dennoch entsteht durch die Verwendung einer konvergierten Anbindung für Server, die gleichermaßen auf Ethernet- und FC-Ressourcen zugreifen müssen, ein erheblicher Kosten- und Management-Vorteil. Es wäre also zu begrüßen, wenn das wirklich so funktioniert.

Es gibt aber noch etwas anderes: die Inter-Process-Kommunikation, IPC. Für hochperformante Umgebungen hat sich hier RDMA (Remote Direct Memory Access) über InfiniBand IB als Standard etabliert.

Wir sprechen zurzeit viel über die I/O virtualisierter Systeme. Dabei gibt es ja ein weites Spektrum von leistungszerstörendem Unfug wie virtuelle Switches, die den Hypervisor so belasten, dass er sonst fast nichts mehr tun kann, über stark diskussionsfördernde Standards wie VEPA bis hin zu sehr schnellen Hardware-unterstützten Lösungen wie SR-IOV, wo man einen Durchsatz von 30 Gbps oder mehr erzielen kann.

SR-IOV ist schon sehr schnell und man kann es auch sehr latenzarm implementieren, aber RDMA ist noch schneller. Da einige Leser hier vielleicht nicht umfassend informiert sind, werde ich die Arbeitsweise von RDMA kurz erläutern.

weiter mit: Die Funktionsweise von RDMA

Artikelfiles und Artikellinks

(ID:2048813)