Suchen

Die (R)Evolution der Rechenzentren; Teil 20 Techniken für konvergente Netze – ein Überblick über DCB

| Autor / Redakteur: Dr. Franz-Joachim Kauffels / Dipl.-Ing. (FH) Andreas Donner

Ergänzt man 10 Gigabit Ethernet um neue Fähigkeiten mit entsprechend hochleistungsfähigen Switches kann ein fast paketverlustfreies und reihenfolgetreues Ethernet-System aufgebaut werden – das so genannte lossless Ethernet. Für den Transport von Fibre-Channel-Daten über fremde Netzstrukturen gibt es den neuen Standard FC-BB-5. Er umfasst auch den Transport von FC-Daten über ein lossless Ethernet mittels Fibre Channel over Ethernet, kurz FCoE. Dies führt zu einer wesentliche Vereinfachung und Restrukturierung leistungsfähiger RZ-Netze sowohl im Corporate- als auch im Providerbereich.

Firmen zum Thema

Priorisierungs-Funktionen im Switch regeln den Verkehr in konvergierten Netzen; Bild: Dr. Franz-Joachim Kauffels
Priorisierungs-Funktionen im Switch regeln den Verkehr in konvergierten Netzen; Bild: Dr. Franz-Joachim Kauffels
( Archiv: Vogel Business Media )

Diese Entwicklung gibt es etwa seit 2007/2008. In den ersten Jahren ging es vordringlich um die Frage der Integration von Fibre-Channel-basiertem Speicherverkehr in die neu entstehenden konvergierten Netze.

Mittlerweile hat sich aber durch entsprechende eingehende Analysen gezeigt, dass eine Reihe der Protokolle, die in diesem Zusammenhang entwickelt wurden, eine sehr hohe Bedeutung für das Netz haben, auch wenn man FCoE gar nicht benutzt.

Bildergalerie

Diese Protokolle führen zu einer erheblichen Verbesserung der Grundqualität eines Netzes. Und das ist nicht nur auf RZ-Netze beschränkt, sondern gilt z.B. auch für Corporate Campus-Netze.

Deshalb trennen wir hier die Betrachtung. Die allgemeinen Techniken für konvergente Netze werden in diesem Kapitel behandelt, die Protokolle für die Einbindung von FC-Datenströmen in späteren Folgen.

DCE (Data Center Ethernet) und CEE (Converged Enhanced Ethernet)

Um es direkt zu sagen: DCE (Data Center Ethernet) und CEE (Converged Enhanced Ethernet) sind lediglich Werbeschlagworte interessierter Hersteller. Sie haben in der Anfangszeit dazu gedient, bestimmte, meist proprietäre Funktionalitäten begrifflich zu transportieren.

Wir wissen aber aus Erfahrung, dass nur standardisierte Lösungen zu einem dauerhaften Erfolg führen. Alle diese Hersteller arbeiten bei IEEE 802.1 und 802.3 an entsprechenden Projekten. Das wichtigste Konzept im Zusammenhang mit RZ-Netzen hierbei ist DCB Data Center Bridges.

Bevor wir Einzelheiten diskutieren, möchte ich einen kurzen Gesamtüberblick über die DCB-Funktionen voranstellen.

IEEE DCB (Data Center Bridges)

Die DCB-Funktionen umfassen Staubenachrichtigung und rückwärts gerichtete Staubehebung, prioritäts-basierte Flusskontrolle, erweiterte Verkehrssteuerung und ein System zum Informationsaustausch der beteiligten Switches hinsichtlich der von ihnen unterstützten Funktionen

Die Funktionen wurden definiert, um der Idealvorstellung eines „lossless Ethernet“ möglichst nahe zu kommen. Diese zusätzliche Eigenschaft eines Ethernets wird dann benötigt, wenn man FCoE mittels FC-BB-5/FC-BB_E implementieren möchte.

Insgesamt sind die Funktionen aber auch sehr nützlich, wenn man gar kein FCoE benutzt. Sie führen letztlich zu einem Netz ganz neuer Qualität.

DCB Congestion Notification und Congestion Control

Konventionelle Ethernet-Switches haben die unangenehme Eigenschaft, Pakete zu verwerfen, wenn die Eingangswarteschlangen in ihrer Summe so lang werden, dass der Switch annehmen muss, diese Warteschlangen nicht mehr sinnvoll abarbeiten zu können.

DCB Congestion Control arbeitet so, dass im Falle des bald zu erwartenden Auftretens einer Stausituation von den betroffenen Eingangsports (meist ist dies nur einer) eines betroffenen Switches eine Congestion Notification an den Auslöser der Überlast geschickt wird. Dieser senkt dann seine Datenrate. Die Hoffnung ist, dass sich die Stausituation dadurch auflöst.

Dabei ist zu bemerken, dass Congestion Control nur dann funktionieren kann, wenn die NIC des zu viel Verkehr erzeugenden Gerätes auch die entsprechenden Funktionen zur Senkung der Datenrate besitzt. Generell ist das vergleichbar mit der Senkung der Datenrate bei WLANs, wenn sich die Umgebungsbedingungen verschlechtern.

Praktisch ist DCB Congestion Control also auf die Endsysteme beschränkt, die das unterstützen. Das sind z.Zt. nur ganz moderne Server mit entsprechend eingerichteter Virtualisierungssoftware und einer I/O-Implementierung, die die Einschränkungen differenziert an die virtuellen Maschinen weitergibt.

Allerdings haben Simulationen gezeigt, dass ein Verlust von Paketen durch die Congestion Control nicht völlig vermeidbar ist. Das Verfahren ist überdies nicht deterministisch.

Aufgrund der Erfahrung und der zukünftigen Anforderungen wird man ein neues Netz daher direkt so designen, dass man auf Überbuchung verzichtet und es insgesamt blockierungsfrei auslegt.

Wird ein neues Netz mit neuen RZ-Core- bzw. Campus-Switches so konstruiert, dass es frei von Überbuchungen ist und blockierungsfrei arbeitet, ist die DCB Congestion Control völlig überflüssig.

DCB Priority Based Flow Control (PBFC)

Ein weiterer Mechanismus, um Staupunkte möglichst im Vorfeld zu vermeiden, ist die Priority-based Flow Control. Das ist im Grunde genommen eine Erweiterung von 802.1p mit der Möglichkeit der Differenzierung der Prioritätensteuerung auf die einzelnen Elemente eines zusammengesetzten Verkehrsstroms.

Bevor wir dies weiter analysieren, blicken wir einmal darauf, wie sich herkömmliche Priorisierung und PBFC im Switch konstruktiv unterscheiden. In Abb. 1 sehen wir zunächst einmal ein Modell für einen einfachen Switch ohne Priorisierung.

Pakete, die weitervermittelt werden sollen, kommen in den Eingangswarteschlangen an, werden von der Switchmatrix verarbeitet und an die Ausgangswarteschlangen weitergeleitet. In bestimmten Situationen kann es notwendig werden, Pakete in einem Puffer zwischenzuspeichern.

Eine einfache, undifferenzierte Priorisierung wird technisch so realisiert, dass Pakete hoher Priorität von einer Komponente, die wir „Priorisierer“ nennen und die entsprechend im Switch implementiert wird, einfach in den Eingangswarteschlangen nach vorne gesetzt und somit vor Paketen niedriger Priorität bearbeitet werden; siehe Abbildung 2.

In einem konvergenten Netz kommen auf einer Leitung hoher Leistung unterschiedliche Datenströme auf einen Switchport zu. Diese Datenströme sind mittels ETS organisiert und haben definierte Anteile an der Gesamt-Übertragungsleistung einer Leitung. Möchte man diese Organisation im Switch nicht verlieren, sondern die definierten Qualitäten auch über mehrere Switches und Verbindungen hinweg schützen und aufrechterhalten, reicht die Bearbeitung mit einfacher Priorisierung nicht aus. Im konvergierten Fall benötigt man Eingangswarteschlangen für jeden definierten Verkehrsstrom. Das sind nicht unendlich viele, sondern höchstens acht, in der Praxis eher drei bis vier; siehe Abbildung 3.

Diese Warteschlangen müssen dann durch einen Scheduler nach den Vorgaben durch ETS entleert werden.

Man sieht hier ganz deutlich, welche Aufgaben auf die Hersteller zukommen, wenn sie PBFC in ihren Switches implementieren wollen – und dass dies auch nicht durch ein einfaches Software- oder Firmware-Upgrade zu leisten ist.

Um die mögliche Wirkung zu untersuchen, greifen wir auf eine Warteschlangenanalyse zurück. Die Ergebnisse dieser Analyse sind:

  • PBFC ist ein wertvolles Instrument zur Beherrschung von Lastspitzen. Es sorgt dafür, dass ein System über einen größeren Lastbereich funktionsfähig und steuerbar bleibt. Die Einschränkungen, die im unteren Lastbereich durch PBFC entstehen, liegen unter 10% Zuschlag gegenüber einem ungesteuerten System und tragen demnach nicht messbar zu einer Erhöhung der durchschnittlichen Latenz bei.
  • Allerdings sehen wir auch, dass eine Last von über 80% zu einem unbeherrschbaren System führt. Es ist also beim generellen Netzdesign darauf zu achten, dass diese Last nie auftreten bzw. überschritten werden kann.

weiter mit: DCB-ETS und DCBX

Artikelfiles und Artikellinks

(ID:2050621)