Mobile-Menu

Grundlagen moderner Netzwerktechnologien im Überblick – Teil 26 Moderne LAN-Technologien: Zukunftssicheres LAN-Design

Autor / Redakteur: Dr. Franz-Joachim Kauffels / Dipl.-Ing. (FH) Andreas Donner

Geswitchte Netze mit Gigabit Ethernet stellen eine ausgesprochen leistungsfähige Systembasis dar. Doch die Anforderungen steigen laufend. Beispielsweise Video, Sprache und andere Dienste stellen erhöhte Anforderungen an die Qualität des Übertragungsdienstes. Dies macht entsprechende Instrumente für diesen Problemkreis nötig. Doch noch viel wichtiger ist eine solide Grundkonstruktion.

Heutige Netzwerke müssen dynamisch skalierbar sein; Bild: Dr. Franz-Joachim Kauffels
Heutige Netzwerke müssen dynamisch skalierbar sein; Bild: Dr. Franz-Joachim Kauffels
( Archiv: Vogel Business Media )

Durch Anwendungen aus den Bereichen Voice und Video entsteht ein der Bedarf nach stufenweise skalierbarer Netzwerkleistung mit wählbarer Dienstgüte. Von der klassischen Anwendungsseite her sind vor allem verteilte Datenbank- und Video-Anwendungen als kritisch zu betrachten.

Verteilte Datenbankanwendungen erzeugen ein Lastprofil mit ganz vielen kleinen Paketen. Sie sind der Schrecken aller Switch-Anbieter, da alle diese Pakete einzeln vermittelt werden müssen. Da das Antwortzeitverhalten maßgeblich die Netzwerk-Verzögerung beeinflusst, ist bei ca. 1.000 Päckchen bereits eine Netzwerk-Verzögerung von weniger als einer Millisekunde für eine Antwortzeit von rund einer Sekunde erforderlich.

Bildergalerie
Bildergalerie mit 5 Bildern

Video on Demand

Video on Demand basiert heute oft noch auf dem Standard MPEG2 (ca. 1,5 Mbit/s). Für die Komprimierung von HDTV gibt es allerdings MPEG3 mit Datenraten von ca. 30 MBit/s. Und ein kleiner Teil der Anwender wird sogar Production Level Video mit ca. 60 Mbit/s benötigen.

Als Standard für Video-Conferencing im LAN ist die Reihe H.3XX zu sehen. Der ist für ein Netz zwar harmlos, mögliche Anwender fanden entsprechende Systeme aber bisher auch nicht besonders spannend, sodass sich der Markt zurzeit teilt – in Systeme auf PC-Basis mit Kollaborationstechnik, welche weiter an das Netz keine allzu hohen Anforderungen stellen, und in Systeme, die einen Konferenzraum sehr realistisch mit sehr großen Bildschirmen nachbilden und eine so hohe Leistungsanforderung haben, dass man ein eigenes Netz (auf dem Fernbereich) dafür benötigt.

Der Einsatz von Video-Technologien hat die Netze insgesamt massiv verändert, da es hier möglich sein muss, ein gezieltes Kapazitäts-Management durchzuführen. Zudem ist ein zwar recht großzügiges (ca. 40 – 50 ms) aber konstantes Delay unbedingt erforderlich.

Wir werden das in späteren Folgen bei Fernnetzen noch genauer unter die Lupe nehmen, aber dennoch sind dieser Stelle die Mechanismen interessant, die es ermöglichen, eine Qualitätsanforderung Ende-zu-Ende durchzuhalten – Mechanismen für QoS im LAN.

weiter mit: Quality of Service (QoS)

Quality of Service (QoS)

Das Thema Voice over IP treibt jedem, der ernsthaft sparen möchte, zunächst ein Glänzen in die Äuglein. Es ist ja irgendwo auch sehr verlockend, gleich zwei Fliegen mit einer Klappe zu schlagen: Senkung der unverschämt hohen Kosten für Ferngespräche und Abschaffung der noch unverschämt teureren eigenen Nebenstellenanlage. Man ist dafür sogar bereit, Qualitätseinbußen hinzunehmen.

An dieser Stelle sollen vor allem zwei Bereiche erwähnt werden, die in der allgemeinen Propaganda kaum Raum einnehmen: Zuverlässigkeit und Paketlaufzeit.

Vielfach ist es immer noch so, dass Unternehmensnetze teilweise sehr lange Wege zwischen Clients und Servern vorsehen. Im Sinne der Zuverlässigkeit ist die Verfügbarkeit eines Weges definiert als das Produkt der Verfügbarkeiten seiner Strecken bzw. Koppelkomponenten, wenn diese hintereinander durchlaufen werden.

Hat also eine jede Strecke bzw. Koppelkomponente die hohe Verfügbarkeit 0,99 und muss ein Weg aus 10 Strecken bzw. Koppelkomponenten zwischen Client und Server durchlaufen werden, ergibt sich nur noch eine Gesamtverfügbarkeit von 0,9. Dies ist ein inakzeptabler Wert: das Netz wäre praktisch einen Monat im Jahr nicht recht nutzbar.

Ein Weg aus 4 Strecken wäre konstruktiv realistisch und führt zu einer Zuverlässigkeit von 0,96 – einem sehr guten Wert für Datennetze. Wegen der Verkopplung vieler Komponenten können Datennetze alleine ohne weitere Hilfsmittel und besondere Maßnahmen niemals so zuverlässig sein wie z.B. zentrale TK-Anlagen.

Für die Planung eines Netzes im Hinblick auf möglichst hohe Verfügbarkeit ist es zudem wichtig zu wissen, welche Verkehrsströme in welcher Intensität auftreten und wo diese entlanglaufen. Erst dann kann man das Netz optimiert designen und die Server richtig platzieren.

Bei der Laufzeit kann man das gleiche Szenario anwenden, allerdings werden hier die Verzögerungen lediglich addiert, was zu weniger dramatischen Ergebnissen führt. Allerdings muss man sich darüber klar sein, dass hohe Verzögerungen einzelner Komponenten, wie Brücken und Router konventioneller Bauart, in bestimmten Umgebungen nicht mehr tragbar sind.

Ein weiterer Bereich ist die inadäquate Leistung für den Server-zu-Server-Verkehr. Obwohl es sich hier um relativ wenige Anschlüsse handelt, wird an dieser Stelle oft unnütz gegeizt.

Schwachstellen

Besonders bedauerlich ist zudem, dass man auch mit dem fehlerhaften Einsatz einer hochwertigen Komponente – dem LAN-Switch – ebenfalls grauenvolle Fehler machen kann. Stellt man nämlich den LAN-Switch mitten ins Netz, wird dieser schnell zum Single Point of Failure, der das Netz besonders angreifbar macht.

Damit aber nicht genug. Weitere Schwachstellen sind etwa zu viele Benutzer in einem Segment. Viele Planer haben immer noch nicht begriffen, dass es zunächst nur um nackte Leistung geht, ohne Firlefanz, ohne Delays, ohne komplizierte Software.

In die gleiche Problem-Kategorie fallen auch die Trennungen in Haupt- und Unternetze – Primär-, Sekundär- und Tertiärbereiche. Immer dann, wenn Pakete herumgereicht werden müssen, wird es potentiell langsam. Doch der Software-Unfug zur Strukturierung von Netzen ist längst noch nicht ausgestanden.

Man darf auch nicht vergessen, dass man im Switch um jede Mikrosekunde feilscht und andererseits bestimmte Berechnungen, die für den Nachrichtentransport ebenfalls nötig sind, einem gemütlichen Prozessor am Rande überlässt.

weiter mit: Ein universeller Planungsansatz

Ein universeller Planungsansatz

Angesichts der schwierigen Situation durch sich permanent ändernde Randbedingungen und in Anbetracht des Zwangs, irgendwann auch einmal mit der Planung fertig zu werden, muss man versuchen, einen universellen Ansatz zu finden und diesen dann geeignet durchzusetzen. An dieser Stelle wird der Plan für ein Netzwerk skizziert, welches den oben genannten Anforderungen Rechnung tragen kann.

Im Gegensatz zur vielfach geäußerten Client/Server-Dichotomie ist der Autor aufgrund seiner Erfahrung der Meinung, dass es künftig eine mindestens dreistufige Ausprägung der C/S-Technologie geben wird.

In der ersten Stufe stehen die Clients und in der dritten spezialisierte Server für Transaktionen, DBMS-Systeme, Anwendungen oder Web-Services. Diese Maschinen sind „hochgezüchtet“ und spezialisiert. Sie arbeiten auf verteilten Objekten, die dann, wenn sie benötigt werden, über Mechanismen wie CORBA2 zusammengesetzt werden.

Der unmittelbare Zugriff von Clients auf derartige Server ist allerdings eher unerwünscht, weil man die hochspezialisierten Geräte der dritten Stufe in einer Server-Farm anordnet und schützt. Also tritt sozusagen ein Vermittlungsserver hinzu, der von sich aus einfache Dinge wie E-Mail oder File-Services abwickeln kann und des weiteren über TP-Monitore, DB-Router, Name Services und Web-Caching verfügt.

Wir nennen diesen Server „Home-Server“, weil er auf den Bedarf der ihn unmittelbar benutzenden Gruppe eingestellt ist. Wir nennen ihn nicht Abteilungsrechner, weil dieser Begriff bereits für ältere Geräte benutzt wird. Der Home-Server steht also zwischen den Clients und den Spezialgeräten. Er braucht nicht endlos leistungsfähig zu sein, vielmehr wird diese Konstruktion vielen NetWare-Servern eine neue Aufgabe zukommen lassen und die Investitionen in gute Server-Maschinen schützen.

Beispiele

In den Abbildungen zeigen wir eine sinnvolle Beispielstruktur. Sie verfügt über ein skalierbares Backbone mit in diesem Fall fünf Switches. Fällt einer dieser Switches aus, kann man die hinter diesem liegenden Rechner bzw. Subnetze nicht mehr erreichen.

Leitungsausfälle zwischen den Switches können jedoch automatisch behoben werden; wenn wichtige Rechner an mehrere Switches angeschlossen werden, können diese zudem Re-Routen. Die Clients sind noch an relativ einfache Netze angeschlossen, die jeweils einen Zugang zu den Switches haben.

Das Backbone ist vollständig skalierbar und kann auch in größeren Geländen/Campussen aufgebaut werden. Zwischen den Switches können unterschiedliche Übertragungswege benutzt werden, in der Regel wird man aber Fiber-Optic-Verbindungen vorsehen. Wenig Spielraum herrscht allerdings bei den Client-Anschlüssen, die ja mit einem einfachen Netz ausgeführt sind und somit kaum verändert werden können.

Manche IT-Abteilungen konnten wirklich leistungsfähige Systeme installieren, die eine weit über das aktuelle Tagesgeschäft hinausreichende Kapazität bereitstellen. Von da an war in den meisten Fällen einfach Ruhe und im Sinne einer Vollkostenrechnung ist gerade bei kleineren Mannschaften eine technisch teure, aber dann betreuungsarme Lösung vorzuziehen. Organisationen, in denen immer noch die Einkaufsabteilungen Büroklammern und LANs kaufen, sieht die Sache schlechter aus, weil hier der reine Komponentenpreis über allem steht.

Dabei ist es mit LANs wie mit Fahrrädern: wenn man für 150 Euro Neoschrott kauft, die Gabel bricht und man wochenlang im Krankenhaus liegt, hat man auch viel verdient!

In den nächsten Folgen kommen wir zu Konkretisierungen, die uns letztlich dabei helfen, die gewünschte Struktur zu implementieren.