Suchen

Netzwerk-Grundlagen – Rechenzentrumsnetze im Umbruch, Teil 2 Virtualisierung – Motivation und Grundbegriffe

Autor / Redakteur: Dr. Franz-Joachim Kauffels / Dipl.-Ing. (FH) Andreas Donner

Corporate Networks stehen immer wieder vor neuen Herausforderungen. Ein wesentlicher Bereich ist die in Rechenzentren stattfindende Virtualisierung, die zum einen de facto die gewohnte Abteilungsrechnerebene völlig verschwinden lässt und zum anderen dabei natürlich die gewohnten Datenströme massiv ändert. In der Virtualisierung liegen aber dennoch so große Chancen und Optimierungspotentiale, dass sie neben der schon seit längerem statt findenden Rezentralisierung in schon jetzt ein nicht umkehrbarer Trend ist.

Firmen zum Thema

Virtualisierung ist erst dann sinnvoll, wenn sie von der zugrundeliegenden (Netz-)Technik unterstützt wird bspw. über Multi-Core-Architekturen
Virtualisierung ist erst dann sinnvoll, wenn sie von der zugrundeliegenden (Netz-)Technik unterstützt wird bspw. über Multi-Core-Architekturen
( Archiv: Vogel Business Media )

Seit Mitte 2007 ist die Virtualisierung in aller Munde. Eigentlich ist der Netzwerker es nicht so sehr gewohnt, sich mit Betriebssystem- und Anwendungskonzepten auseinanderzusetzen. Vielmehr war es ja das Bestreben der letzten Jahrzehnte, ein möglichst universelles Netz zu schaffen, mit dem man einerseits alles verbinden konnte, was man verbinden wollte, und welches man andererseits durch entsprechende Konzepte skaliert hat, wenn es einmal eng wurde.

Natürlich wird sich an diesen Grundfesten nicht wirklich etwas ändern. Im Bereich eines RZ-Netzes kann die Virtualisierung aber dennoch weitreichende Konsequenzen haben, auf die man vorbereitet sein muss. Gleichzeitig wird bewusst, dass Virtualisierung und I/O-Konsolidierung eng miteinander verknüpft sind. I/O-Konsolidierung ist für die Virtualisierung daher nicht bloß „nice to have“, sondern bei weitergehenden Konzepten unabdingbar.

Bildergalerie

Damit kommen wir sofort in den Bereich der Speicherproblematik. Wir werden das noch weiter vertiefen, aber die Virtualisierung setzt letztlich voraus, dass Speicherressourcen ebenfalls virtualisiert sind (und zwar weit über das normale Verständnis eines schon lange so genannten virtuellen Speichers hinaus) und dass man auf sie freizügig zugreifen kann.

Das ist aber technisch wiederum nicht so einfach, weil sich in der Vergangenheit universelle Datennetze und spezialisierte Speichernetze unterschiedlich entwickelt haben.

Zwei Dinge fallen dem externen Betrachter sofort auf: Netzwerker entscheiden normalerweise nicht über die Einführung einer Virtualisierungslösung, sondern Systembetreiber. Die Systembetreiber verlangen aber dann, dass das Netz auch weiterhin so problemlos funktioniert wie bisher. Dem steht nun krass entgegen, dass die Netzwerker sich nicht viel mit der Virtualisierung beschäftigen mussten.

Nun ja, man könnte also sagen, dass sie es sich einfach ansehen sollen. Dem steht aber wieder gegenüber, dass die Thematik nicht trivial ist. Also könnten wir diese Serie auch „Virtualisierung für Netzwerker“ nennen, denn ich will versuchen, es so aufzuarbeiten, dass man die wesentlichen Dinge versteht und dann auch klar wird, wie weit und wie tief ihr Einfluss auf zukünftige Netze sein wird.

Wir kümmern uns daher in dieser Serie um

  • Grundkonzepte
  • Grundideen, Vorzüge, Anforderungen (Überblick)
  • Prozesse im klassischen Betriebssystem
  • Vom klassischen Betriebssystem zur Virtualisierung
  • Grundsätzliche Konstruktionsalternativen
  • Transaktionsverarbeitung
  • Kommunikation virtueller Maschinen
  • IPC
  • Virtuelle Switches
  • Speicher- und I/O-Konsolidierung
  • Weitere Virtualisierungsthemen
  • Konsequenzen für die Netzwerke

weiter mit: Grundideen und die Ausgangslage

Grundideen und die Ausgangslage

Zunächst betrachten wir die Grundideen und die Ausgangslage. Dabei sehen wir mögliche Vorzüge der Virtualisierung. Es gibt sehr unterschiedliche Virtualisierungsmethoden wie Hosted Virtualization oder das Hypervisor-Konzept. Diese Methoden führen dann wiederum zu unterschiedlichen Konstruktionsalternativen, die in der Praxis auch ggf. kombiniert werden können. Außerdem ist Virtualisierung in der jetzigen Form recht jung, so dass eine Überarbeitung eines Produktes durchaus auch eine andere Konstruktion bedingt.

In den vergangenen Jahrzehnten gab es vorwiegend eine starre Zuordnung zwischen Rechner, Betriebssystem und Anwendungen. Schon in den 80er Jahren wurde versucht, diese starre Zuordnung aufzulösen. Der sicherlich bekannteste Virtualisierungs-Urahn ist das VM (Virtual Machines) Betriebssystem von IBM.

Letztlich möchte man eine flexiblere Möglichkeit haben, Anwendungen auf Rechner und deren Ressourcen zu verteilen. Es geht dabei nicht um Anwendungen, die so rechenintensiv sind, dass sie mehrere Rechner benötigen, um in sinnvoller Zeit fertig zu werden – dafür gibt es gute Lösungen – sondern es geht um Anwendungen, die dergestalt sind, dass mehrere von ihnen auf einem einzelnen Rechner gut laufen.

Außerdem gibt es eine Reihe von Zielen, die man fast schon als traditionell bezeichnen könnte, wie z.B. die Steigerung der Leistung bei Transaktionsverarbeitungen und Datenbankzugriffen, die ja für die allermeisten Anwendungen in modernen Unternehmen und Organisationen wirklich substantiell sind.

Wie schon gesagt könnte uns das eigentlich alles egal sein, aber die Einführung von Virtualisierung kann erhebliche Rückwirkungen auf die Netzwerke haben.

Es gibt eine Reihe von grundsätzlichen Motivationen, die sich anschaulich erklären lassen.

In einer normalen Umgebung ohne Virtualisierung gibt es unterschiedlich ausgelastete Rechner in dürftiger Organisationsstruktur. Das gilt vor allem für die so beliebten Farmen kleinerer Server. Der Einsatz von Virtualisierung eröffnet hier die Möglichkeit, Server besser zu organisieren und optimaler auszulasten. Das hat vor allem den Vorteil, dass man auch ohne zusätzliche Server kaufen zu müssen, eine Redundanz schaffen kann, die man so vorher nicht hatte.

Die Virtualisierung kann damit kurz so charakterisiert werden, dass sie die bisher unflexiblen physikalischen Maschinen mit ihrer normalerweise recht starren Zuordnung zwischen Maschinen und Anwendungen flexibilisiert und ein System schafft, in dem man (virtuelle) Maschinen mit ihren assoziierten Anwendungen relativ freizügig über die physischen Maschinen zuordnen und bewegen kann.

Die Redundanz besteht in ihrer einfachen Form in der Möglichkeit, Anwendungen von einer Maschine, die ein Problem hat, auf eine andere Maschine zu bewegen.

Speichersysteme

Es gibt viele Systeme, bei denen Speichersysteme und Server am gleichen Netz angeschlossen sind, z.B. mit iSCSI (Network Attached Storage, NAS). In diesen Fällen kann man die Speichersysteme einfach in die Virtualisierung einbeziehen und auf ihnen ähnliche Funktionen ausüben, wie sie hinsichtlich der Anwendungen auf den Servern vorgenommen wurden: neu sortieren und optimieren. Auf diese Weise schafft man ebenfalls Redundanz ohne neue Speichersysteme kaufen zu müssen.

Natürlich möchte man das auch mit anderen Speichersystemen machen. Leider stößt man dann aber auf das oben bereits angesprochene Problem, dass sich die Netze für „normale“ Systeme und spezialisierte Speicher in der Vergangenheit sehr unterschiedlich entwickelt haben. Die High-End-Altenative zum NAS ist das Storage Area Network SAN, welches überwiegend in Fibre-Channel-Technologie (FC) ausgeführt wurde. FC hat von der Konstruktion her andere Eigenschaften als das Ethernet und es ist alles andere als trivial, die beiden Konzepte in einer Netzstruktur zusammenzufügen. Auf dieses Thema kommen wir aber später noch ausführlich zurück.

Insgesamt kann man jedoch festhalten, dass Unternehmen und Organisationen viel Geld in FC-SANs gesteckt haben, weil dieses Umfeld eine Reihe zusätzlicher Möglichkeiten, vor allem hinsichtlich Administration, Disaster Recovery und Organisation bietet, auf die man natürlich in Zukunft keineswegs verzichten möchte.

Die Hersteller von Virtualisierungsprodukten wie VMware, Citrix oder Microsoft geben eine Reihe von Versprechungen, die eintreten sollen, wenn man die Virtualsierung sinnvoll implementiert und einsetzt:

  • Senkung der HW-Kosten um 35 – 70 %
  • Halbierung der Betriebskosten
  • Senkung des Platzbedarfs um 35 – 50 %
  • Senkung des Stromverbrauchs um 40 – 60%
  • Dynamische Anpassung an die Betriebsmittel
  • Hochverfügbarkeit
  • Einfaches Backup-Konzept
  • Einfache Desaster-Recovery-Lösung

Das Faszinierende ist nun, dass diejenigen, die das wirklich ausprobiert haben, derartige Ergebnisse tatsächlich bestätigen. Allerdings ist auch klar geworden, dass man zwangsläufig wieder auf eine Reihe neuer Probleme stößt, aber dazu später mehr.

weiter mit: Ist die schlechte Ausgangslage Vater des Erfolgs?

Ist die schlechte Ausgangslage Vater des Erfolgs?

Der Erfolg der Virtualisierungstechnologien ist natürlich auch dadurch zu erklären, dass die Ausgangslage in vielen Fällen so schlecht ist, dass selbst eine weit suboptimale Virtualisierung hier schon Verbesserungen bringt. Generell kann man die Ausgangslage oft folgendermaßen charakterisieren:

  • Viele alleinstehende Server mit lokalem Speicher
  • Viel lokaler Speicher, unkoordinierte Ansammlungen von Network Attached Storage (NAS) und anderen lokalen Speicherformen
  • SANs eher in großen Umgebungen

Das bedeutet:

  • Stark unterschiedlich ausgelastete Server
  • Hohe Kosten für HW, Lizenzen und Pflege
  • 100% Desaster Recovery ist schwierig bis unmöglich
  • Unübersichtlicher Betrieb
  • Abwärme, Stromverbrauch, Platzbedarf
  • Desolate Verkabelungssituation

Technisch gesehen kann man sagen, dass die Virtualisierung erst dann wirklich sinnvoll ist, wenn die zugrundeliegende Technik das unterstützt. Zunächst einmal benötigen wir also eine Multi-Core-Architektur. Das ist aber ja weiter auch nicht problematisch, da die technische Entwicklung stark in diese Richtung geht. Intel hat Mitte 2009 sogar eine 8-Core-Prozessorfamilie für Server vorgestellt, 4-Core-Prozessoren gibt es schon in Notebooks.

Daran kann man aber sofort sehen: für den Anschluss eines entsprechenden Servers an die Außenwelt sollten es schon 10 Gbps sein, Server mit Ein-Gigabit-Schnittstellen gehören der Vergangenheit an.

Am Beispiel Intel können wir das schön zeigen: der Status 2009 ist der Nehalem mit 8 Cores 16-Threads und einer 4x so großen Speicherbandbreite wie sein unmittelbarer Vorgänger. Für die Zukunft heißt das:

  • Moores Law ist für die nächsten 10 Jahre gesichert
  • Die 32nm-Technik ist Realität (Westmere)
  • Mit 8 Sockets werden wir innerhalb der nächsten 3 Jahre bis zu 128 Cores pro Server sehen.

Natürlich gibt es auch Engpässe:

  • I/O allgemein
  • Kupferbasierte Schnittstellen sind auf 40 Gigabit limitiert
  • 128 Cores erfordern bis zu 512 GB RAM

Fazit

Die Rechenleistung pro Server steigt in den nächsten 3 bis 5 Jahren um bis zu Faktor 10 (Core-Verdoppelung, Multithreads, mehr Leistung pro Core). Damit ist es aber noch lange nicht zu Ende. Schon 2008 hatte Intel einen experimentellen 80-Core-Prozessor auf der Größe eines halben Fingernagels. Gehen Sie einfach mal auf www.intel.com, da ist sehr schön dokumentiert, was uns alles noch erwartet.

Also, sehen wir uns in der nächsten Folge einmal an, wie das auf der Seite des Betriebssystems genau funktioniert.

Weiter mit Teil 3

Zurück zu Teil 1