Suchen

Die (R)Evolution der Rechenzentren; Teil 3 Konvergenz und Konzentration – Einflussfaktor Virtualisierung

| Autor / Redakteur: Dr. Franz-Joachim Kauffels / Dipl.-Ing. (FH) Andreas Donner

Seit Mitte 2007 ist die Virtualisierung in aller Munde. Im Bereich eines RZ-Netzes kann die Virtualisierung weitreichende Konsequenzen haben, auf die man vorbereitet sein muss. Gleichzeitig wird bewusst, dass Virtualisierung und I/O-Konsolidierung eng miteinander verknüpft sind.

Firmen zum Thema

Server-Virtualisierung: aus vielen einzelnen physischen Servern werden viele virtuelle Maschinen auf wenigen Hosts
Server-Virtualisierung: aus vielen einzelnen physischen Servern werden viele virtuelle Maschinen auf wenigen Hosts
( Archiv: Vogel Business Media )

I/O-Konsolidierung ist für die Virtualisierung nicht einfach „nice to have“, sondern bei weitergehenden Konzepten unabdingbar. Damit kommen wir sofort in den Bereich der Speicherproblematik. Wir werden das noch weiter vertiefen, aber die Virtualisierung setzt letztlich voraus, dass Speicherressourcen ebenfalls virtualisiert sind (und zwar weit über das normale Verständnis eines schon lange so genannten virtuellen Speichers hinaus) und, dass man darauf freizügig zugreifen kann. Das ist aber technisch wiederum nicht so einfach, weil sich in der Vergangenheit universelle Datennetze und spezialisierte Speichernetze unterschiedlich entwickelt haben.

Zwei Dinge fallen dem externen Betrachter sofort auf: Netzwerker entscheiden normalerweise nicht über die Einführung einer Virtualisierungslösung, sondern Systembetreiber. Die Systembetreiber verlangen aber dann, dass das Netz auch weiterhin so problemlos funktioniert wie bisher. Dem steht nun krass entgegen, dass die Netzwerker sich nicht viel mit der Virtualisierung beschäftigen mussten.

Nun ja, man könnte nun sagen, dass sie es sich einfach ansehen sollen. Dem steht aber wieder gegenüber, dass die Thematik nicht ohne weiteres trivial ist und Leute, die da drin stecken, so darüber reden, dass man nichts mehr versteht. Also, das Thema könnten wir auch „Virtualisierung für Netzwerker“ nennen, ich will versuchen, es so aufzuarbeiten, dass man die wesentlichen Dinge versteht und dann auch klar wird, wie weit und wie tief ihr Einfluss auf zukünftige Netze sein wird.

Wir kümmern uns also hier zusammenfassend um

  • Grundkonzepte
  • Grundideen, Vorzüge, Anforderungen (Überblick)
  • Prozesse im klassischen Betriebssystem
  • Vom klassischen Betriebssystem zur Virtualisierung
  • Grundsätzliche Konstruktionsalternativen
  • Transaktionsverarbeitung
  • Kommunikation Virtueller Maschinen
  • IPC
  • Virtuelle Switches
  • Speicher- und I/O-Konsolidierung
  • Weitere Virtualisierungsthemen
  • Konsequenzen für die Netzwerke

Sinn und Zweck der Virtualisierung

Es gibt sehr unterschiedliche Virtualisierungsmethoden wie Hosted Virtualization oder das Hypervisor-Konzept. Diese Methoden führen dann wiederum zu unterschiedlichen Konstruktionsalternativen, die in der Praxis auch ggf. kombiniert werden können. Außerdem ist Virtualisierung in der jetzigen Form recht jung, sodass eine Überarbeitung eines Produktes durchaus auch eine andere Konstruktion beinhalten kann.

In den vergangenen Jahrzehnten gab es vorwiegend eine starre Zuordnung zwischen Rechner, Betriebssystem und Anwendungen. Schon in den 80er Jahren wurde versucht, diese starre Zuordnung aufzulösen. Der sicherlich bekannteste Virtualisierungs-Urahn ist das VM Betriebssystem (Virtual Machines) von IBM.

Letztlich möchte man eine flexiblere Möglichkeit haben, Anwendungen auf Rechner und deren Ressourcen zu verteilen. Es geht dabei nicht um Anwendungen, die so rechenintensiv sind, dass sie mehrere Rechner benötigen, um in sinnvoller Zeit fertig zu werden, dafür gibt es gute Lösungen, sondern es geht um Anwendungen, die dergestalt sind, dass mehrere von ihnen auf einem einzelnen Rechner gut laufen.

Außerdem gibt es eine Reihe von Zielen, die man fast schon als traditionell bezeichnen könnte, wie z.B. die Steigerung der Leistung bei Transaktionsverarbeitung und Datenbankzugriffen, die ja für die allermeisten Anwendungen in modernen Unternehmen und Organisationen wirklich substantiell sind.

Wie schon gesagt könnte uns das eigentlich alles egal sein, aber die Einführung von Virtualisierung kann erhebliche Rückwirkungen auf die Netzwerke haben.

Es gibt eine Reihe von grundsätzlichen Motivationen, die sich anschaulich erklären lassen.

Grundsätzlichen Motivationen

In einer normalen Umgebung ohne Virtualisierung gibt es unterschiedlich ausgelastete Rechner in dürftiger Organisationsstruktur. Das gilt vor allem für die so beliebten Farmen kleinerer Server. Der Einsatz von Virtualisierung eröffnet die Möglichkeit, Server besser zu organisieren und optimaler auszulasten. Das hat vor allem den Vorteil, dass man auch ohne zusätzliche Server kaufen zu müssen, eine Redundanz schaffen kann, die man so vorher nicht hatte.

Die Virtualisierung kann kurz so charakterisiert werden, dass sie die bisher unflexiblen physikalischen Maschinen mit ihrer normalerweise recht starren Zuordnung zwischen Maschinen und Anwendungen flexibilisiert und ein System schafft, in dem man (virtuelle) Maschinen mit ihren assoziierten Anwendungen relativ freizügig über die physischen Maschinen zuordnen und bewegen kann.

Die Redundanz besteht in ihrer einfachen Form in der Möglichkeit, Anwendungen von einer Maschine, die ein Problem hat, auf eine andere Maschine bewegen zu können.

Es gibt viele Systeme, bei denen Speichersysteme und Server am gleichen Netz angeschlossen sind, z.B. mittels iSCSI (Network Attached Storage, NAS). In diesem Fällen kann man die Speichersysteme einfach in die Virtualisierung einbeziehen und auf ihnen ähnliche Funktionen ausüben, wie sie hinsichtlich der Anwendungen auf den Servern vorgenommen wurden: neu sortieren und optimieren. Auf diese Weise schafft man ebenfalls Redundanz ohne neue Speichersysteme kaufen zu müssen.

Natürlich möchte man das auch mit anderen Speichersystemen machen. Leider stößt man da auf das oben bereits angesprochene Problem, dass sich die Netze für „normale“ Systeme und spezialisierte Speicher in der Vergangenheit sehr unterschiedlich entwickelt haben. Die High-End-Alternative zum NAS ist das Storage Area Network (SAN), welches überwiegend in FC-Technologie (Fibre Channel) ausgeführt wurde.

FC hat von der Konstruktion her andere Eigenschaften als das Ethernet und es ist alles andere als trivial, beides in einer Netzstruktur zusammenzufügen. Auf dieses Thema kommen wir später noch ausführlich zurück. Insgesamt kann man aber festhalten, dass Unternehmen und Organisationen viel Geld in FC-SANs gesteckt haben, weil dieses Umfeld eine Reihe zusätzlicher Möglichkeiten, vor allem hinsichtlich Administration, Disaster Recovery und Organisation bietet, auf die man natürlich in Zukunft keineswegs verzichten möchte.

weiter mit: Die Versprechen der Hersteller

Artikelfiles und Artikellinks

(ID:2049982)