Mobile-Menu

Back to the Roots: die Mainframe-Architektur lebt im Rechenzetrum neu auf Shortest Path Bridging: radikal neue Konzepte auf bekannter Basis

Autor / Redakteur: René Princz-Schelter / Dipl.-Ing. (FH) Andreas Donner

Das Zauberwort für die Konsolidierung moderner Rechnerarchitekturen lautet Virtualisierung. Doch diese Virtualisierung steigert den Inter-Server-Traffic rasant und benötigt daher völlig neue, speziell dafür ausgelegte Netzwerkarchitekturen. Die Stichworte hierzu lauten: Single-Hop-Netzwerk und Shortest Path Bridging (SPB).

Firma zum Thema

Der durch die Virtualisierung wachsende Ost-West-Traffic im Rechenzentrum erfordert neue Netzwerkarchitekturen
Der durch die Virtualisierung wachsende Ost-West-Traffic im Rechenzentrum erfordert neue Netzwerkarchitekturen

Um die Energieeffizienz im Rechenzentrum zu steigern, setzen die Betreiber seit einigen Jahren sehr stark auf Konsolidierung: Mit möglichst wenig Komponenten soll möglichst hohe Leistung erzielt werden. Dieser bereits in Mainframe-Tagen geübte Ansatz war mit der Einführung von Client-Server-Architekturen mehr und mehr verloren gegangen und muss jetzt quasi neu erfunden werden.

Ein erster Schritt in diese Richtung war die Zusammenfassung von Servern, Speichern und weiteren Komponenten wieder an einem zentralen Ort – eben dem Rechenzentrum. Je nach Anforderungen in den Unternehmen kann es auch mehrere Rechenzentren an unterschiedlichen Orten geben und ihre Leistung mag bedarfsweise durch Anmietung externer Kapazitäten ergänzt werden – Stichwort Cloud. Egal wie die Konstellation aussieht – immer geht es darum, alle Ressourcen möglichst konzentriert und kompakt vorzuhalten.

Konsolidierung in Client-Server-Architekturen funktioniert jedoch nur sehr bedingt, wenn es allein bei der räumlichen Konzentration von Ressourcen bleibt. Das Zauberwort für die Konsolidierung moderner Rechnerarchitekturen lautet Virtualisierung. Die Einführung einer abstrakten Rechnerebene hebt den Konsolidierungsfaktor nicht nur auf mindesten gleiche Ebene die wie bei Mainframes, sie bietet zugleich ein mit Mainframes niemals umsetzbares Maß an Flexibilität und – in Sachen Energieeffizienz der entscheidende Punkt, eine mit Mainframes niemals erreichbare der Ressourcenverwaltung.

In einer virtualisierten Umgebung suchen sich Arbeitsprozesse automatisch und dynamisch den jeweils am besten geeigneten Server. Auf diese Weise ist die Auslastung der Ressourcen nicht mehr unberechenbare Glücksache, sondern sehr genau steuer- und damit optimierbar. Ein gängiger Richtwert besagt, dass die rund um die Uhr laufenden Server in Rechenzentren ohne Virtualisierung nur zu durchschnittlich zehn Prozent ausgelastet sind. Zugleich können sie bei Spitzenlasten dennoch überfordert sein. Mit Virtualisierung lässt sich der Grad der Auslastung von Seiten des Rechenzentrumbetreibers vorgeben (temporär nicht benötigte Ressourcen werden abgeschaltet) und Überlastung ist durch die automatische Verteilung der Prozesse abgewendet.

Virtualisierung ist nicht notwendiger Weisee an ein einziges Rechenzentrum gebunden, sie lässt sich auch in einem Verbund mehrerer Rechenzentren sehr gut einsetzen, auch wenn diese global verteilt sind. Die Verbindung zwischen diesen Rechenzentren fordert das Netzwerk allerdings in besonderem Maße.

Herausforderungen für die Netzwerk Infrastruktur

So berechenbar die Ressourcenauslastung durch die Virtualisierung ist, so unberechenbar wird dadurch der Netzwerkverkehr. Ohne Virtualisierung ist es einfach zu ermitteln, wo welche Prozesse laufen und welche Netzwerkressourcen dafür nötig sind. Der Verkehr verläuft dabei auch fast ausschließlich auf der Achse zwischen Servern und Anwendern („Nord-Süd-Verkehr“).

In einer virtualisierten Umgebung, in der Prozesse laufend automatisiert auf Wanderschaft gehen, ist eine Vorausplanung der Netzwerkkapazitäten schlicht unmöglich. Zudem erzeugt der Ortswechsel der Prozesse eine immense Verkehrslast zwischen den Servern („Ost-West-Verkehr“) – bis dato planungstechnisch praktisch irrelevant.

Weitreichende Herausforderungen

Für die Lieferanten der Netzwerkinfrastruktur ergeben sich durch diese Situation zwei weitreichende Herausforderungen. Die erste besteht darin, den Prozessen an der gerade eingenommenen Stelle die erforderlichen Kapazitäten bereitzustellen. Dazu muss der Faktor Netzwerk zusammen mit den anderen Parametern, die einen Prozess vor Wanderschaftsaufbruch analysieren, mit untersucht werden. Natürlich machen sich die virtuellen Maschinen nicht im Blindflug auf den Weg – vielmehr werden geeignete Ziele zuvor hinsichtlich ihrer Ressourcen identifiziert.

Setzt sich ein Prozess schließlich in neuen Zielservern nieder, muss die Virtualisierungsebene, der sogenannten Hypervisor, dafür sorgen, dass dort die zum störungsfreien Ablauf nötigen Parametersätze konfiguriert werden können. In Sachen Kommunikation betrifft das beispielsweise Bandbreiten, Priorisierungsstufen, Verkehrsflusssteuerung etc., damit die vereinbarten Service Level Agreements eingehalten werden können.

Für das Netzwerkmanagement bedeutet das, dass es sich laufend mit der Virtualisierungsplattform, beispielsweise VMware, Microsoft Hyper-V, XEN, KVM etc., austauschen muss, um Informationen darüber zu erlangen, wo gerade welcher Prozess mit welchem Kommunikationsressourcenbedarf abgesetzt werden soll. Anhand dieser Infos muss es schließlich automatisch und dynamisch die Umprogrammierung der Parameter am Zielserver vornehmen. In der Praxis läuft das meist über Kommunikationsprofile, die für jede Anwendung mit hinterlegt werden.

Rasant gestiegener Ost-West-Verkehr

Die zweite Herausforderung ist im Wesentlichen eine Konsequenz aus dem von Null auf ziemlich heftig gestiegenen Ost-West-Verkehr, also dem Inter-Server-Traffic innerhalb des Rechenzentrums. Um dieses Phänomen aufzufangen, ist letztlich die Einführung völlig neuer, speziell dafür ausgelegter Netzwerkarchitekturen unerlässlich. Das Stichwort hier lautet: Single-Hop-Netzwerk – also ein möglichst einfaches und flaches Netzwerk mit möglichst kurzen Wegen zwischen den virtualisierten Server-Prozessen.

Mit den klassischen Architekturen stößt man schnell an die Grenzen, weil die Kommunikationswege über den Umweg der Nord-Süd-Achse abgebildet werden müssen, von daher sehr lang und mit großen Verzögerungen verbunden sind. Gibt es aber große Verzögerungen, wird ein reibungsloses Arbeiten unmöglich, und das gesamte Konzept der Virtualisierung führt sich schnell ad absurdum. Zudem liegen in klassischen Netzwerk-Konzepten häufig redundante Wege brach und können für die Praxis nicht genutzt werden (Spanning Tree).

Single-Hop im Rechenzentrum

Um ein Single-Hop-Netzwerk für die Verbindung von Servern in einem Rechenzentrum zu realisieren, war die Entwicklung einer Reihe neuer Technologien und Übertragungsverfahren notwendig. Bei den Technologien, die zusammen die neue Architektur bilden, gehen die einschlägigen Hersteller jeweils zumindest in Teilen eigene Wege – und auf ihren Wegen zum Ziel sind sie unterschiedlich weit vorangekommen.

Nur wenige haben das Werk bereits vollendet. Einer davon ist Alcatel-Lucent, deren Pod- und Mesh-Architektur bereits im Praxiseinsatz seinen Dienst tut und mit einer Verzögerung von zwei Mikrosekunden im Pod (Server-zu-Server-Netzwerk) beziehungsweise fünf Mikrosekunden im Mesh (Pod-Verbund) hervorragende Ergebnisse abliefert. Im Mesh entsteht eine Switch-Matrix mit einer Kapazität von derzeit bis zu 169 Terabit pro Sekunde. Die Architektur basiert auf 40-Gigabit-Ethernet und ist auch bereits für künftige 100-Gigabit-Ethernet-Verfahren ausgelegt.

Spanning Tree (STP) vs. Shortest Path Bridging (SPB)

Beim Übertragungsverfahren erwies sich das klassische Spanning-Tree-Protokoll als Bestandteil des Ethernets als völlig ungeeignet. Das neue Protokoll, welches ideal für Single-Hop-Netze ausgelegt ist, nennt sich Shortest Path Bridging (SPB).

Dabei handelt es sich um ein international genormtes Standard-Protokoll (IEEE 802.1aq), wodurch Single-Hop-Netze unterschiedlicher Hersteller in der Lage sind, zusammenzuarbeiten. Natürlich gibt es dazu auch Gegenentwürfe – etwa das maßgeblich von Cisco vorangetriebene TRILL, welches in Konsequenz in die Abhängigkeit von einem einzelnen Hersteller führt.

802.1aq revolutioniert die Netzwerktechnologie indem es im Wesentlichen auf die Vereinfachung bei der Installation und den Betrieb von Carrier- und Enterprise- Netzwerken sowie von Cloud-Diensten abzielt. Die Technologie bietet logische Ethernet Netzwerke auf der Basis von nativen Ethernet-Strukturen. Dafür wird ein Linkstate-Protokoll verwendet, um die Netzwerklogik, die Größe und Abhängigkeiten zu übermitteln. Dabei werden die eigentlichen Ethernet-Pakete (Nutzdaten) in SPB eingekapselt und zwischen den verschiedenen Knoten innerhalb des Rechenzentrums aber auch zwischen mehreren Rechenzentren hin und her transportiert. Alle verfügbaren physikalischen Verbindungen können dabei ausgenutzt werden. Das Netzwerk konfiguriert sie quasi von selbst und bietet zudem noch eine Schnittstelle zur Qualitätsüberwachung. Mit Ethernet OAM (IEEE 802.3ah, 802.1ag und ITU-T Y.1731) wird die Überwachung von Service Level Agreements (SLA’s) zu einem Kinderspiel.

weiter mit: Desktop-Virtualisierung

Desktop-Virtualisierung

Der Einsatz von Virtualisierungstechnologien zur besseren Ressourcenauslastung und damit Senkung des Energiebedarfs beschränkt sich indes nicht auf die Rechenzentren. Thin Clients bieten hier eine gute Möglichkeit. Diese bilden ein schickes Front-End für den Nutzer und seine Ein- und Ausgaben. Die eigentlichen Arbeitsprozesse werden wiederum als virtuelle Maschine auf Servern abgebildet.

Individuelle Nutzerprofile mit exakt auf die Aufgaben und Anforderungen abgestimmten Konfigurationssätzen werden bei Netzwerkanmeldung von der Desktop-Virtualisierung, beispielsweise Citrix, auf den entsprechenden Client-Prozess im Back-End-Server übertragen. Der Desktop wandert also letztlich auf die Server, wo wiederum die Rechenzentrumsvirtualisierung greift, die für optimale Ressourcennutzung sorgt.

Die Konsequenzen für das Netzwerk gestalten sich ähnlich denen bei der Server-Virtualisierung: Das Netzwerkmanagement muss hier eben entsprechend mit der Desktop-Virtualisierung zusammenarbeiten, um die Infos für Lage und Art der Desktop-Prozesse auf den Servern zu erhalten – die Anforderungen an die Netzwerkarchitektur sind dieselben wie bei der Server-Virtualisierung, denn auch die Server für die Desktop-Virtualisierung liegen ja im Rechenzentrum.

Möglichst wenige und möglichst energieeffiziente Komponenten

Eine generelle Strategie für die Senkung des Stromverbrauchs in der IT ist es, mit möglichst wenigen aktiven Komponenten auszukommen und die Energieeffizienz dieser Komponenten so weit als möglich zu optimieren. Bei modernen Switches gilt derzeit ein Verbrauch von 3,5 Watt pro 10-Gigabit-Ethernet-Port als vorbildlich.

Dieser noch vor wenigen Jahren unvorstellbar günstige Wert lässt sich zum einen durch die hohen Port-Dichten erzielen, die Switch-Boards heute bieten. Zum anderen verwenden die Top-Player heute sehr stromsparende elektrische Bauteile sowie Netzteile mit einem Wirkungsgrad von 95 Prozent und besser. Dadurch sinkt nicht nur der Verbrauch, es gibt auch deutlich weniger Leistungsverluste, die sich bekanntlich bevorzugt in Form von Wärme manifestieren.

Weniger Wärme bedeutet wiederum weniger Kühlungsbedarf – und damit auch weniger Energieverbrauch für die Klimatisierung. Und wenn eine Komponente weniger Strom verbraucht, können auch die USV-Systeme zum Abfangen von Stromausfällen entsprechend geringer dimensioniert werden. USV-Systeme, speziell solche mit Doppelwandler für höchste Ausfallsicherheit („Online-USVs“), sind systembedingt ziemliche Stromfresser. Jedes eingesparte Watt für den Betrieb wird damit durch Folgeeinsparungen bei Klimatisierung und USV „vergoldet“.

Konsolidierung der Netzwerkinfrastrukturen

In Sachen Reduktion der aktiven Komponenten insgesamt bietet sich eine Vereinfachung und Konsolidierung der Netzwerkinfrastrukturen an. In den vergangenen Jahren wanderten bereits Sprach- und Videonetzwerke auf das Datennetz und künftig werden sicher mehr und mehr auch die Speichernetze (Storage Area Networks – kurz SANs) im gemeinsamen Datennetz aufgelöst.

Aktuell werden SANs noch in großer Mehrzahl in getrennten Fibre-Channel-Infrastrukturen realisiert, die nicht nur komplex zu bauen und aufwendig zu warten sind, sondern auch eine Vielzahl neuer aktiver Komponenten einführen, die Mengen an Strom ziehen. Mit Technologien wie Fibre-Channel-over-Ethernet (FCoE), iSCSI oder auch NFS gibt es heute genügend Ansätze, um SANs in einem IP-Netzwerk abzubilden.

Dabei müssen natürlich auch die speziellen Anforderungen von SANs wie etwa extrem kurze Latenzzeiten und verlustlose Verbindungen entsprechend umgesetzt werden. Letzteres wiederspricht den Konzepten von TCP und dem Ur-Ethernet, die beide als verlusttolerant bezeichnet werden können. Natürlich geht auch hier im Grunde nichts verloren, aber das Nichtankommen eines Pakets muss erst einmal bemerkt und eine Neuübertragung angestoßen werden. In Speichernetzen würden solche Verfahren zu unakzeptablen Antwortzeiten führen.

Konsolidierte LAN-/SAN-Infrastruktur

Eine konsolidierte LAN-/SAN-Infrastruktur muss also in der Lage sein, Pakete aus Speichergeräten mit einer Priorität zu übertragen, die noch weit über der von Sprache und Video liegt und dafür Sorge tragen, dass solche Pakete an keiner Stelle des Kommunikationswegs verworfen werden.

Letzteres lässt sich beispielsweise durch eine angemessene Dimensionierung der Ausgangspuffer eines Switches realisieren. Hersteller wie Alcatel-Lucent unterstützen das physikalische Buffering zusätzlich durch Virtual Output Queueing, einem Mechanismus, der bereits am Eingangsport greift und Pakete nicht herein lässt, von denen klar ist, dass sie am Ausgangsport ohnehin nicht verarbeitet werden könnten. Die einzigen Pakete, die immer herein dürfen, sind eben Storage-Pakete. Der Vorteil dabei ist, dass sich der Switch erst gar nicht mit gefährdeten Paketen beschäftigen muss, was Rechenleistung und damit nicht zuletzt wiederum Energie einspart.

Moderne Netzwerk-Konzepte zielen also auf die sich verändernden Anforderungen in Rechenzentren ab. Server- und Desktop-Virtualisierung, die damit verbundenen Veränderungen bei den Verkehrsströmen (Nord/Süd vs. Ost/West), der Einzug von Storage in das LAN (iSCSI, FCoE, NFS) und nicht zuletzt der Green-IT-Gedanke (mehr erreichen mit weniger Blech, weniger Platz) sind hier als wichtigste Gründe zu nennen.

Alcatel-Lucent führt mit Shortest Path Bridging (SPB) eine revolutionäre Netzwerktechnologie in Enterprise-Netzwerke ein, welche die konsequente Weiterentwicklung von Carrier-Know-how in private Netzwerke darstellt.

Über den Autor

René Princz-Schelter ist Director Presales und Product Marketing bei Alcatel-Lucent Enterprise

(ID:32891280)