Suchen

Sicherheit für virtualisierte Server durch garantierte und isolierte Bandbreiten Virtueller I/O verbessert Performance und Management des virtualisierten Rechenzentrums

Redakteur: Ulrich Roderer

Virtualisierung des I/Os ist die notwendige Konsequenz, um die Flexibilität der Server- und Speichervirtualisierung vollständig ausnutzen zu können und ein modernes und flexibles Rechenzentrum zu gestalten.

Virtueller I/O ist die ideale Ergänzung zu vritualisierten Servern. Virtuellen Maschinen lassen sich virtuelle NICs bzw. HBAs zuweisen.
Virtueller I/O ist die ideale Ergänzung zu vritualisierten Servern. Virtuellen Maschinen lassen sich virtuelle NICs bzw. HBAs zuweisen.
( Archiv: Vogel Business Media )

Jedes moderne Rechenzentrum nutzt heute Virtualisierung sowohl der Server, des Speichers und der Netzwerkressourcen. Doch trotzt dieser modernen und flexiblen Infrastruktur haben sich die Server-Verbindungen nicht wesentlich verändert, im Rechenzentrum befindet sich ein komplexes Labyrinth aus Kabeln, Karten und LAN und SAN Switches/Routern.

Abhilfe schafft hier die Virtualisierung des I/O, bei der die Netzkarten durch virtuelle I/O-Ressourcen ersetzt werden. Die konsolidierte I/O-Infrastruktur hat den Vorteil, dass sich Änderungen in Minuten durchführen lassen. Die Kosten reduzieren sich um bis 50 Prozent, da deutlich weniger Kabel und vor allem nur noch wenige Netzkarten und entsprechende LAN und SAN Ports benötigt werden.

Bildergalerie

In Folge sinken dadurch auch die Stromkosten. Der amerikanische Hersteller Xsiego hat als einer der ersten eine Lösung für größere Infrastrukturen entwickelt, die die Vorteile des virtualisierten I/Os voll ausnutzt. Mit Xsigo können 1 HE Server verwendet werden, so dass geringerer Platzbedarf entsteht. Auch für den neuen Trend des Cloud Computings ist Xsigo ein nützlicher Baustein, da das Booten von San möglich ist.

Heutige I/O-Engpässe

Server-I/O ist meist ein Hinderniss, um Server effektiv zu virtualisierten. Gerade diese benötigen nicht nur mehr Bandbreite, sondern eine größere Anzahl an Verbindungen zu Netzwerken und Speicher, weil sie viele unterschiedliche Anwendungen in virtuellen Maschinen hosten. VMware empfiehlt deshalb dedizierte Verbindungen für geschäftskritische VMs und Management-Netzwerke. Nach Untersuchungen hat ein typischer virtualisierter Server sieben oder mehr Netzwerkkarten mit bis zu 16 Verbindungen pro Server. Diese brauchen Platz, sowohl rein physisch als auch die Anschlüsse, so dass deswegen nur 4U Server anstatt 1U Server notwendig sind. Darüber hinaus benötigt der Server häufiger eine Rekonfiguration des I/O.

Ein weiteres Problem besteht in Puncto Performance und Sicherheit. Wie lässt sich bei gemeinsam genutzten I/O sicherstellen, dass eine Anwendung die benötigte Bandbreite und Sicherheit erhält. In traditionellen Drei-Tier-Architekturen erhält beispielsweise der Datenbankserver nur eine Verbindung zum SAN und zur Applikationsebene. Dabei handelt es sich um physikalisch getrennte Netze, die die Verfügbarkeit und Sicherheit vor unerlaubten Zugriffen garantieren.

Virtualisierte Server

Durch Virtualisierung konsolidierte Server stellen ganz andere I/O-Anforderungen. Um denn Vorteil des flexiblen Einsatzes von Servern zu ermöglichen, benötigen diese Konnektivität zu allen Netzwerken. Um die Isolation der Anwendungen sicherzustellen, müssen viele Anwender separate Verbindungen zu diesen Netzen haben.

Zusätzlich erhöht sich die Last durch das Management der VMs, so empfiehlt VMware beispielsweise eine dedizierte Verbindung für das VMotion-Netzwerk. Durch die hohe Auslastung der virtualisierten Server wird zudem der Bandbreitenbedarf zusätzlich größer.

Der Ansatz mit traditionellen I/O diese Probleme lösen zu wollen ist begrenzt. Zwar lassen sich Server mit mehreren NICs (Network Interface Card) oder HBAs (Host Bus Adapter) aufrüsten, die von virtuellen Maschinen gemeinsam genutzt werden, dennoch kann es in Spitzenzeiten, beispielsweise während eines Backups von VMs, zu Engpässen kommen. Entweder müssen dann noch mehr Karten installiert werden oder die Workload eines Servers verändert. Unternehmen, die ein SAN im Einsatz haben, müssen in jedem Server eine oder zwei Fibre Channel-Karte (HBA) einbauen.

(ID:2017787)