Suchen

Rechenzentrumsvirtualisierung – Das Netzwerk im Fokus Scale out oder Scale up – im RZ muss ein neues Netzkonzept her

Autor / Redakteur: Ragu Kondapalli / Dipl.-Ing. (FH) Andreas Donner

Mit der Virtualisierung von Rechenzentren verlagert sich der Traffic von einstigen Nord-Süd-Strömen zu massiver Ost-West-Ausprägung. Diesen Anforderungen sind herkömmliche RZ-Netzwerkdesigns nicht gewachsen. Was in Sachen Netzwerktechnik im Rechenzentrum daher jetzt getan werden muss, zeigt dieser Beitrag.

Firma zum Thema

Ragu Kondapalli, Director of Technology bei LSI beschreibt die Probleme und Lösungen bei der Virtualisierung von Rechenzentren
Ragu Kondapalli, Director of Technology bei LSI beschreibt die Probleme und Lösungen bei der Virtualisierung von Rechenzentren
(Bild: LSI)

Die Internet-, eCommerce- und Social-Media-Anwendungen von heute erfordern eine umgehende und zuverlässige Verfügbarkeit riesiger Datenmengen, und das jeden Tag. Dies hat zu einem noch nie dagewesenen Bedarf an Transport, Verarbeitung und Speicherung von Terabytes von Daten geführt.

Die anhaltende Migration hin zu Cloud-Computing in der Geschäfts-, Finanz- und Consumer-Welt kündigt die universelle Einführung des rechenzentrumsbasierten Geschäftsmodells in der IT-Branche an. Rechenzentren müssen kosteneffektiv, energieeffizient, skalierbar und flexibel sein, um die kontinuierliche Nachfrage nach Datenzugriff zufriedenstellend bedienen zu können. Dies ist der Impuls für den Übergang des Rechenzentrums von der physischen Welt hin zur virtuellen.

Bildergalerie

Die Rechenzentrums-Virtualisierung begann mit der Server-Virtualisierung – Technologien, wie z.B. Multicore-Prozessorsysteme und Multithread-Betriebssysteme ermöglichten den Beginn der Server-Virtualisierung. Als immense Datenmengen auf effiziente Weise gespeichert und verwaltet werden mussten, folgte die Virtualisierung von Storage Area Networks (SAN) und Network Attached Storage (NAS). Da Rechenzentren jedoch eine maximale Investitionsrentabilität (ROI) anstreben, ist auch ein effizienter Datentransport von großer Bedeutung – und dies ist die Triebfeder für die Virtualisierung der Rechenzentrumsnetzwerke.

Der vorliegende Beitrag beschäftigt sich mit den Bedarfsursachen und den aktuellen Lösungen für die Virtualisierung von Rechenzentrumsnetzwerken. Dabei werden die wichtigsten technischen Herausforderungen besprochen, um RZ-Netze für die neuen Bedarfe fit zu machen. Zudem wird erläutert, auf welche Weise die Control-Plane-Skalierung eine wichtige Rolle bei der gesamten Virtualisierung von Rechenzentrumsnetzwerken spielt.

Rechenzentrums-Virtualisierung – eine Bedarfs- und Lösungsanalyse

Der Bedarf an sofortiger und zuverlässiger Verfügbarkeit von Daten in allen Bereichen der vernetzten Welt von heute verschiebt die Grenzen der Rechenzentrums-Virtualisierung. Das Phänomen des Cloud-Computings mit seiner Skalierbarkeit, seiner Differenzierungsfähigkeit und den niedrigeren Gesamtbetriebskosten (TCO) macht die Virtualisierung bei allen Komponenten des Rechenzentrums notwendig.

Cloud-basierte Enterprise-Webservices, wie die Elastic Compute Cloud (EC2) von Amazon, Online-Dienste von Microsoft oder Enduser-Anwendungen, wie die iCloud von Apple und Web2.0, treiben die Virtualisierung und hier insbesondere die Mandantenfähigkeit im Rechenzentrum steil voran.

Server innerhalb von Rechenzentren wurden durch die Implementierung von Virtual Machines (VMs) virtualisiert. Softwareseitig erzeugten Hypervisoren eine Abstraktion zwischen physischen und virtuellen Maschinen und bildeten viele der Konnektivitäts-, Verwaltungs- und Skalierungsaspekte ab. Der Open-Source-Hypervisor Xen und Produkte wie Microsoft Hyper-V Server ermöglichten die Verteilung von Arbeitslasten vom physischen Server auf mehrere VMs. Hypervisor-basierte Serverplattformen wurden zur vorherrschenden Lösung für die Virtualisierung und Skalierbarkeit von Rechenzentren. Allerdings sind softwarebasierte Hypervisoren nicht in der Lage, mit den Performanceansprüchen der steigenden Kapazitäten von Rechenzentren mitzuhalten. Mitte der 2000er implementierten Marktführer im Prozessorbereich Hardware-Erweiterungen, um die x86-Prozessorvirtualisierung zu unterstützen. Ein Beispiel hierfür ist die AMD-V-Technologie. Diese sorgte für die Hardwarebeschleunigung, die zur Unterstützung der Virtualisierung benötigt wurde, und ermöglichte, dass sich mehrere Betriebssysteme Prozessorressourcen teilen konnten.

Die Auswirkungen auf das Thema Storage

Die Server-Virtualisierung wirkte sich schnell auch auf die Datenspeicher eines Rechenzentrums aus, die sich normalerweise in einem SAN befinden. Sie werden initialisiert, nachdem VM-Images in den Serverspeicher geladen wurden, d.h. das SAN benötigt zusätzlichen Speicher, um die VM-Images auf dynamische Weise zu replizieren und zu sichern.

Die Anfangsphasen der Speicherumwandlung führten zu SANs und Speicher-Hypervisoren. Dadurch konnte der Speicheradministrator die Backup-, Archivierungs- und Wiederherstellungsaufgaben einfacher und in kürzerer Zeit durchführen, indem die eigentliche Komplexität des SAN verdeckt wurde. Doch diese Techniken waren für sich genommen nicht in der Lage, mit den Speicheranforderungen von Rechenzentren Schritt zu halten – es war eine Hardwarebeschleunigung vonnöten, um die SAN-Performance zu steigern und die Speichervirtualisierung zu nutzen.

Bis vor kurzem richteten sich die Bemühungen bei der Rechenzentrums-Virtualisierung auf die Server- und Speichersegmente. Die Netzwerk-Virtualisierung war adhoc und wurde als Add-on-Modul in herkömmliche rechenzentrischen Hypervisoren implementiert. Netzwerkspezifische Erweiterungen bei Hypervisoren führten das grundlegende Konnektivitäts- und Fehlermanagement durch und konnten die Performanceanforderungen kleiner Rechenzentren mit begrenzten VMs pro Serverplattform erfüllen.

Ein neues Netzkonzept muss her!

Bei der aktuellen Generation der Serverfarmen werden jedoch tausende Server und viele VMs pro Server implementiert. Die Anwendungsarbeitslasten, die auf mehrere VMs verteilt werden, steigern die VM-zu-VM-Kommunikation (Ost-West-Verkehr). Andere Faktoren, wie z.B. die VM-Migration und Speicheranwendungen (z.B. Datenreplizierung) haben den Ost-West-Verkehr zusätzlich wachsen lassen. Nun muss das Rechenzentrumsnetzwerk, das für Server-zu-Client-Verkehr (Nord-Süd-Traffic) optimiert ist, umgewandelt werden, um die Vorteile einer Virtualisierung des Rechenzentrums voll ausschöpfen zu können.

Derzeit gibt es mehrere Lösungen zur Verbesserung der Rechenzentrumsnetzwerks. Auf Netzwerkarchitektur-Ebene ist die Entkopplung der Control-Plane-Funktionen von der Data-Plane und deren Virtualisierung ein zunehmender Trend. Dazu gehört die Verbesserung der Effizienz der vorhandenen Netzwerkinfrastrukturen anhand einfacher Upgrades. Horizontale und vertikale Skalierung sind zwei dieser Techniken, die in der Branche in Betracht gezogen werden.

Horizontale Skalierung (Scale out)

Beim Ansatz der horizontalen Skalierung werden Control-Plane-Funktionen getrennt und auf ein Servernetzwerk aufgeteilt. In Abbildung 1 ist die horizontale Skalierung zu sehen. Hier läuft die Control-Plane auf einem separaten Server, der sich in der Serverfarm befindet oder virtualisiert wurde und daher in einer Cloud läuft. Google ist ein Beispiel für ein Mega-Rechenzentrum, das das Modell der horizontalen Skalierung umgesetzt hat.

Vertikale Skalierung (Scale up)

Beim Ansatz der vertikalen Skalierung wird die Rechenleistung des Servers erhöht, indem zusätzliche Rechenressourcen (z.B. x86-Prozessoren) zu vorhandenen Netzwerksystemen hinzugefügt werden (siehe Abbildung 2). Diese Vorgehensweise wird häufig bei traditionellen Rechenzentrumsnetzwerken (z.B. bei Finanzinstituten) implementiert.

Sowohl bei der horizontalen als auch bei der vertikalen Architektur wird die Performance zusätzlich durch die Bereitstellung einer funktionsspezifischen Hardwarebeschleunigung verbessert.

weiter mit Software Defined Networking, Virtualisierungs-Overheads und Service Level Agreements

Software Defined Networking

Ein weiterer Trend, der hauptsächlich von der akademischen Forschung vorangetrieben wird, ist das Software Defined Networking (SDN). Hierbei handelt es sich um ein neues Netzwerkdesign-Konzept, das die Software, die den Verkehr leitet, von der physischen Netzwerkinfrastruktur abkoppelt.

Mittels SDN-Abstraktion bekommen die Netzwerk-Anwendungsstacks eine virtuelle Ansicht des Netzwerks anstatt die physische Topologie präsentiert. Dies ermöglicht eine schnellere Durchführung von Netzwerkereignissen, wie z.B. VM-Migrationen in virtualisierten Netzwerken. SDN erlaubt die Virtualisierung und Verteilung der Control-Plane-Aufgaben in einem Netzwerk und wird über ein Protokoll, wie z.B. OpenFlow, implementiert.

OpenFlow

OpenFlow ist ein programmierbares Netzwerkprotokoll, das von der Open Networking Foundation (ONF) entwickelt und standardisiert wird, um den Datenverkehr zwischen Switches von unterschiedlichen Anbietern zu verwalten. Es regt dazu an, Control-Plane-Funktionen (z.B. Routing) von Data-Plane-Funktionen (z.B. Forwarding) zu trennen und eine voneinander unabhängige Ausführung auf unterschiedlichen Geräten zu ermöglichen.

Servervirtualisierungs-Overheads

Servervirtualisierung hat Hunderte von VMs pro Bladeserver in einem Rechenzentrum ermöglicht, in dem Mehrkern-Prozessortechnologie zum Einsatz kommt. Aus diesem Grund haben Paketverarbeitungsfunktionen, wie z.B. Paketklassifizierung, Routing-Entscheidungen, Verschlüsselung/Entschlüsselung und Sicherheitsentscheidungen exponentiell zugenommen.

Diskrete Geräte können nicht entsprechend skaliert werden, um diese Anforderungen zu erfüllen, und sie müssen in virtuelle Plattformen aufgeteilt werden. Derartige Paketverarbeitungsfunktionen (in Software als Netzwerkhypervisoren implementiert) sind nicht effizient, da die x86-Server nicht für die Netzwerkverarbeitungsfunktionen optimiert sind. Die Control-Plane muss daher durch Hinzufügen von Prozessoren skaliert werden, die die Aufgabe haben, Netzwerksteuerungsaufgaben auszuführen. Sie benötigt ebenfalls Hardwareunterstützung von den funktionsspezifischen Control-Plane-Beschleunigern.

In der Tabelle aus Abbildung 3 werden die Paketverarbeitungs-Overheads zwischen einem herkömmlichen, physischen Rechenzentrum und einem Rechenzentrum mit Servervirtualisierung verglichen. Durch Zuordnung eines physischen Servers zu vier VMs und unter der Annahme von 1% Traffic-Management-Overhead mit 25% Ost-West-Verkehr nimmt der Netzwerkmanagement-Overhead bei einem virtualisierten Rechenzentrum um das 32fache zu.

VM-Migration

Die Unterstützung von VM-Migration zwischen Servern, entweder innerhalb eines Serverclusters oder clusterübergreifend, ist eine weitere wichtige Herausforderung für Netzwerkmanager. Ein IT-Administrator kann sich aus einer Vielzahl von Gründen wie z.B. Ressourcenverfügbarkeit, Quality of Experience (QoE), Wartung und aufgrund von Hardware/Software- oder Netzwerkausfällen dazu entschließen, eine VM von einem Server zu einem anderen zu verlegen.

Der Hypervisor handhabt diese VM-Migrationsszenarien, indem er zuerst eine VM auf dem Zielserver reserviert, dann die VM zum Ziel verschiebt und zum Schluss die Ursprungs-VM beseitigt. Hypervisoren können jedoch keine zeitnahe Generierung von ARP-Broadcasts durchführen, um die VM-Verlegungen mitzuteilen, insbesondere in riesigen VM-Netzwerken. Situationen wie Überlastungen (bei denen ARP-Nachrichten nicht zeitnah durch das Netzwerk gelangen) und Netzwerkneukonfiguration während einer VM-Migration können zu riesigen Steuer-Overheads führen. Und die Control-Plane muss zudem das sich auf dynamische Weise verändernde Netzwerkverhalten verwalten.

Mandantenfähigkeit und Sicherheit

Aufgrund der hohen Kosten, die mit dem Erstellen und Betreiben eines Rechenzentrums einhergehen, gehen IT-Unternehmen zum Rechenzentrumsmodell mit Mandantenfähigkeit über – hier nutzen verschiedene Unternehmen oder Abteilungen die gleiche Infrastruktur und virtuellen Ressourcen. Bei einem mandantenfähigen Rechenzentrum spielen Datensicherheit und -isolierung eine entscheidende Rolle.

Mandantenfähigkeit erfordert die logische Isolierung von Ressourcen, ohne jedem Kunden physische Ressourcen zuzuweisen. Die Netzwerksteuerung muss zudem kundenspezifische Richtlinien und QoS-Definitionen implementieren. Die Control-Plane muss sicheren Zugriff auf Rechenzentrumsressourcen bereitstellen und auf dynamische Weise die Sicherheitsrichtlinien basierend auf VM-Migration ändern.

Service Level Agreements (SLA) und Ressourcenmessung

Die Ressourcenmessung anhand der Sammlung von Netzwerkstatistiken ist für IT-Unternehmen unabdingbar – sie wird für die Rechenzentrums-ROI-Berechnung, Infrastruktur-Upgrades und Entscheidungen über Erweiterungen genutzt. Derzeit sind die Netzwerküberwachungsaufgaben auf den Hypervisor, veraltete Verwaltungstools und neuere Infrastrukturüberwachungstools aufgeteilt. Es ist entscheidend, dass die Control-Plane die Verwaltungsdaten erfasst und konsolidiert.

weiter mit: Control-Plane-Lösungen für virtualisierte Rechenzentren

Control-Plane-Lösungen für virtualisierte Rechenzentren – Scale up

Bei dieser Methode werden die vorhandenen Netzwerksteuerungsplattformen durch zusätzliche oder leistungsstärkere Computing-Engines ergänzt, um die Ausführung des Netzwerk-Control-Stack zu unterstützen. In Abbildung 2 war eine Beispielkonfiguration zu sehen.

Diese Methode setzt Sever-Prozessorzyklen frei, was zu einer allgemeinen Verbesserung bei der Netzwerkperformance führt. Da jedoch Allzweckprozessoren nicht für die Netzwerkaufgaben optimiert sind, stellen sie keine ideale Lösung dar. Bei starkem oder stoßweise auftretendem Datenverkehr kommt es im Netzwerk zu einem deutlichen Performance-Einbruch. Dieses Defizit wird gelöst, indem der Steuerkarte ein funktionsspezifischer, protokollsensibler Control-Plane-Prozessor hinzugefügt wird.

Die Lösung kann in einer älteren Infrastruktur als Add-on-Beschleunigungskarte oder bei neuen Plattformen als Beschleunigungs-SoC (System-on-a-Chip) implementiert werden. Eine weitere Methode zur vertikalen Skalierung der Control-Plane besteht darin, einen Steuerungs-Coprozessor hinzuzufügen, damit die Routineaufgaben der Control-Plane auf die Daten-Linecard selbst verlagert werden. In diesem Fall wird die zentrale Steuerkarte für speziellere Aufgaben wie z.B. Routing-Entscheidungen verwendet. Die Nutzung der zentralen Control-Plane-Karte mit beschleunigten SoCs kann die Turnaround-Latenzen reduzieren und zudem die Systemzuverlässigkeit erhöhen.

Lösung für horizontale Skalierung der Control-Plane – Scale out

Bei der Architektur der horizontalen Skalierung wird die Basisplattform mit generischen Prozessoren implementiert und mit separaten funktionsspezifischen Engines wie einem Netzwerk-Control-Plane-Prozessor erweitert.

Die Aufgaben der Control-Plane werden in Teilkomponenten wie Erkennung, Verbreitung und Wiederherstellung untergeteilt und diese Komponenten werden rechenzentrumsübergreifend virtualisiert (s. Beschreibung des SDN-Ansatzes). In Abbildung 1 ist die horizontale Skalierung zu sehen.

Solch eine Control-Plane kann auf jedem Server im Netzwerk oder in der Cloud ausgeführt werden. Sie kommuniziert mittels APIs, die auf dem Netzwerkprotokoll basieren (bspw. OpenFlow), mit den Data-Planes. Abhängig von den Netzwerkverkehrsanforderungen werden spezifische Control-Plane-Aufgaben beschleunigt.

Beispiel: Wenn von der IT-Abteilung geplante Netzwerkverlagerungen vorliegen, werden die Erkennungs- und Verbreitungskomponenten entsprechend skaliert, um die Verarbeitungsanforderungen zu erfüllen. Zu den Vorteilen gehören eine einfache Skalierung der Steuerungs-Engine und die Isolierung der Netzwerkverwaltung, ohne dass Control-Plane-Overheads anfallen. Eine stabile Kommunikation zwischen der Control-Plane und den Data-Planes ist eine Voraussetzung. Zudem ist eine Hardwarebeschleunigung erforderlich, um die Control-Plane-Serverperformance zu steigern.

Funktionsspezifische Kommunikationsprozessoren sind dafür konzipiert, spezifische Control-Plane-Aufgaben wie ARP-Offload, OAM-Offload, Sicherheit, Netzwerkstatistiken, QoS und die Bereitstellung von Hardwarebeschleunigung zu handhaben. Die LSI Axxia Communication Processor-Produktfamilie ist hier ein Beispiel für protokollsensible Kommunikationsprozessoren. Sie bietet die Beschleunigung einer Reihe von Netzwerkverwaltungsfunktionen, wie z.B. Paketanalyse und -Routing, Sicherheit, Control-Plane-ARP, IGMP-Nachrichten, Netzwerkstatistiken, anwendungssensible Firewall und QoS. Ihre flexible Data-Plane-Verarbeitung ermöglicht die Unterstützung neuer Anwendungen wie OpenFlow und SDN.

Hardwarebeschleunigung ist unabdingbar bei der Implementierung von Architekturen für die vertikale und horizontale Control-Plane-Skalierung für eine optimale Netzwerknutzung.

Fazit

Rechenzentren durchlaufen einen Wandel, um mit dem explosionsartigen Wachstum bei den Datenverarbeitungs-, Speicher- und Transportanforderungen Schritt zu halten. Server- und Speichervirtualisierung, cloudbasierte Serviceanwendungsmodelle und Betriebskostenaspekte haben zu höheren VM-Serverdichten, VM-zu-VM-Kommunikation, VM-Migration und Mandantenfähigkeit geführt.

Server- und Speichervirtualisierungstechnologien, die als Mischung aus softwarebasierten Hypervisoren und Hardwarebeschleunigern implementiert werden, haben die Nutzung von Rechenzentren deutlich erhöht. Um jedoch eine maximale Investitionsrentabilität bei einem Rechenzentrum zu erreichen, muss eine Änderung bei dessen aktueller Netzwerkinfrastruktur vollzogen werden.

Netzwerkvirtualisierungsmethoden auf Grundlage von Hypervisoren stellen keine optimale Lösung dar, um mit dem wachsenden Netzwerkdatenverkehr zurechtzukommen. Die Control-Plane-Architektur muss umstrukturiert werden, um die aktuellen Netzwerkunzulänglichkeiten zu lösen.

Zu den Lösungen gehören Methoden zur vertikalen und horizontalen Skalierung – die vertikale Skalierung basiert auf dem Hinzufügen weiterer Ressourcen zur vorhandenen Netzwerkinfrastruktur; die horizontale Skalierung basiert auf der Virtualisierung und Auslagerung von Control-Plane-Funktionen zu virtualisierten Computing-Engines.

Neuere Netzwerkdesignkonzepte wie SDN zusammen mit dem OpenFlow-Protokoll unterstützen diese Control-Plane-Virtualisierungsmethoden. Die Control-Plane-Skalierungstechnologien, die von den Control-Plane-Kommunikationsprozessor-SoCs ermöglicht werden, stellen effiziente Lösungen für eine maximale Nutzung eines Rechenzentrumsnetzwerks dar.

Über den Autor

Ragu Kondapalli ist Director of Technology bei der LSI Corporation

(ID:36681510)