Suchen

Grundlagen moderner Netzwerktechnologien im Überblick – Teil 27

Moderne LAN-Technologien: Quality of Service, QoS

Seite: 4/4

Warteschlangenhäufung

All das kann man durchaus implementieren, allerdings zeigt sich hier eine schwere konstruktive Schwäche. Bei größeren Switches können die Definitionen zu mehreren Hundert Warteschlangen führen. Diese Schlangen müssen alle verwaltet werden. Die Elemente der Schlangen sind IEEE 802.x-Nachrichten, die zwar eine feste Obergrenze haben, aber ansonsten dynamische Längen aufweisen.

Im Zweifelsfall muss man immer mit der Obergrenze kalkulieren. Die Arbeitsgruppe geht davon aus, dass die Switching Fabric ein Betriebsmittel ist, welches die Warteschlangen in etwa in dem Maße entleert, wie sie sich füllen. Manchmal ist die Switching Fabric jedoch schneller, manchmal langsamer als die Menge der Anforderungen.

Bildergalerie

Die zusätzliche Belastung der Switches mit der Verwaltung unterschiedlich priorisierter Warteschlangen muss irgendwo geleistet werden. Ein Software-basierter Switch wird dies mit seiner CPU machen müssen. Die Leistung, die die CPU mit dem Verwalten der Schlangen verbrät, fehlt dann beim Switching.

Hardware-basierte Switches mit einer Switching Matrix müssen diese Leistung von dem Prozessor abziehen, der die Sonderfälle verarbeitet, die nicht mit Cut-Trough erledigt werden können, wie fehlerhafte Pakete, zu konvertierende Pakete, Pakete mit unbekannten Adressen usw. Auch dieser wird davon nicht schneller.

Natürlich ist es kein großes Problem, immer mehr Rechenleistung in die Switches zu packen, aber das Einfügen einer Warteschlangenverwaltung macht einen Switch generell tendenziell langsamer, alleine wegen der notwendigen Vorsortieroperationen, die ja völlig unabhängig von der tatsächlichen Auslastung durchgeführt werden müssen.

Man hat sich in Anlehnung an Arbeiten von IETF bislang nur zu zwei Dienstklassen durchringen können: Controlled Load und Guaranteed Service. Controlled Load ist „so gut es geht“ und die untere der zwei Stufen, bei der gegenüber der normalen LLC-Abarbeitung lediglich eine grundsätzliche mittlere Verzögerungszeit angegeben wird.

Guaranteed Service definiert eine obere Grenze für die Verzögerungszeit des Paketes, was sinnvoll sein kann. Beschränkt man sich auf diese zwei Klassen, dann ist der Effekt einfach der, dass im Falle einer recht hohen Auslastung des Switches die Pakete der besseren Dienstklasse bevorzugt behandelt werden.

IEEE 802.1D/p ist allerdings damit nicht zufrieden und definiert acht Dienstklassen, und zwar benutzerorientiert, also von Ende zu Ende. Die Priorisierung ist statisch und kann pro Port gesetzt werden. Bezogen auf die logischen Verbindungen sollte die Priorisierung auf den Zugriff auf das Übertragungsmedium abgebildet werden können.

Die Priorität 1 (BK) ist die schlechteste Stufe und bedeutet Background. Hierhin kann man alle Verkehrswünsche abstufen, die in den höheren Stufen nicht berücksichtigt werden konnten. Die Priorität 2 ist nicht weiter definiert. Die Priorität 0 (BE) liegt logischerweise über 2, bedeutet „Best Effort“ und ist der Default. Nach 0 kommt dann die Stufe 3 EE, „Excellent Effort“, die wiederum etwas besser ist. Die Prioritätsklassen 0 bis 3 dienen dem „normalen“ Verkehr. Die Klasse 4 CL „Controlled Load“ läutet die zeitkritischeren Anforderungen ein, muss aber parametriert werden.

Die Klasse 5 VI ist für Video und lässt Latenz und Jitter von höchstens 100 Millisekunden zu. Die Klasse 6 VO, „Voice“, ist dann noch strenger und beschränkt Latenz und Jitter auf höchstens 10 Millisekunden. Damit kommt man schon auf eine sehr hohe Qualität, allerdings schaffen das nur wenige Switches.

Die Klasse 7 NC, „Network Control“ ist dann für Kontroll-Pakete definiert. Sieht man einmal von einer gewissen Orientierungslosigkeit auf den unteren Prioritätsstufen ab, so ist die Definition durchaus realistisch, wenn man an eine vollständige Integration von Sprache und Bewegtbildern denkt.

So kann man sich letztlich die Nutzung eines so genannten integrierten Dienstes wie folgt vorstellen: eine Endstation mit vollständigem Protokollstack stellt eine Anfrage an die so genannte Admission Control der ISSLL der Schicht 2: Kann ich für Datenverkehr einer bestimmten Charakteristik mit bestimmten Leistungsanforderungen von dieser Quelle zu jenem Ziel eine Reservierung vornehmen und mit welchem Label muss ich dann die Datenpakete versehen? Z.B. Data Link mit 25 Mbit/s und maximalem Delay 5 Sekunden von IP-Adresse zu IP-Adresse oder Video mit 10 Mbit/s und maximalem Delay 100 Millisekunden von IP-Adresse zu Multicast-Teilnehmern usw.

Danach bemüht sich das Netz in verschiedenen Komponenten, dem Wunsch stattzugeben und Betriebsmittel vorauszureservieren. Je nachdem, ob dies gelingt, fällt die Antwort aus.

Fazit

Wie wir gesehen haben, gibt es durchaus Möglichkeiten zur Priorisierung von Datenströmen in einem modernen LAN. Neben den Standards bieten die Hersteller dazu auch noch eigene Verfahren. All dies darf aber nicht darüber hinwegtäuschen, dass man mit einer Priorisierung die zur Verfügung stehende Gesamtleistung lediglich anders verwaltet, aber in keinem Fall erhöht.

Die Warteschlangentheorie zeigt, dass bei einem System zur Priorisierung (in weitem Bereich unabhängig von dessen spezieller Arbeitsweise) die höchste Prioritätsklasse einen Gewinn gegenüber einem ungeregelten Verkehr hat, die zweite und dritte ungefähr so bedient werden wie im ungeregelten Fall, alle anderen Klassen aber gegenüber einer ungeregelten Lösung fürchterlich untergebuttert werden.

Hersteller ziehen die Priorisierung immer dann aus dem Hut, wenn sie an einen Leistungsengpass geraten, den sie anders nicht abstellen können. Das ist dann aber meistens mehr ein Hilferuf und keine Lösung. Es gibt dafür immer wieder Beispiele.

Letztlich kann man sagen: auf die Dauer hilft nur Power!