Suchen

Netzwerk-Grundlagen – Rechenzentrumsnetze im Umbruch, Teil 2

Virtualisierung – Motivation und Grundbegriffe

Seite: 2/3

Firmen zum Thema

Grundideen und die Ausgangslage

Zunächst betrachten wir die Grundideen und die Ausgangslage. Dabei sehen wir mögliche Vorzüge der Virtualisierung. Es gibt sehr unterschiedliche Virtualisierungsmethoden wie Hosted Virtualization oder das Hypervisor-Konzept. Diese Methoden führen dann wiederum zu unterschiedlichen Konstruktionsalternativen, die in der Praxis auch ggf. kombiniert werden können. Außerdem ist Virtualisierung in der jetzigen Form recht jung, so dass eine Überarbeitung eines Produktes durchaus auch eine andere Konstruktion bedingt.

In den vergangenen Jahrzehnten gab es vorwiegend eine starre Zuordnung zwischen Rechner, Betriebssystem und Anwendungen. Schon in den 80er Jahren wurde versucht, diese starre Zuordnung aufzulösen. Der sicherlich bekannteste Virtualisierungs-Urahn ist das VM (Virtual Machines) Betriebssystem von IBM.

Bildergalerie

Letztlich möchte man eine flexiblere Möglichkeit haben, Anwendungen auf Rechner und deren Ressourcen zu verteilen. Es geht dabei nicht um Anwendungen, die so rechenintensiv sind, dass sie mehrere Rechner benötigen, um in sinnvoller Zeit fertig zu werden – dafür gibt es gute Lösungen – sondern es geht um Anwendungen, die dergestalt sind, dass mehrere von ihnen auf einem einzelnen Rechner gut laufen.

Außerdem gibt es eine Reihe von Zielen, die man fast schon als traditionell bezeichnen könnte, wie z.B. die Steigerung der Leistung bei Transaktionsverarbeitungen und Datenbankzugriffen, die ja für die allermeisten Anwendungen in modernen Unternehmen und Organisationen wirklich substantiell sind.

Wie schon gesagt könnte uns das eigentlich alles egal sein, aber die Einführung von Virtualisierung kann erhebliche Rückwirkungen auf die Netzwerke haben.

Es gibt eine Reihe von grundsätzlichen Motivationen, die sich anschaulich erklären lassen.

In einer normalen Umgebung ohne Virtualisierung gibt es unterschiedlich ausgelastete Rechner in dürftiger Organisationsstruktur. Das gilt vor allem für die so beliebten Farmen kleinerer Server. Der Einsatz von Virtualisierung eröffnet hier die Möglichkeit, Server besser zu organisieren und optimaler auszulasten. Das hat vor allem den Vorteil, dass man auch ohne zusätzliche Server kaufen zu müssen, eine Redundanz schaffen kann, die man so vorher nicht hatte.

Die Virtualisierung kann damit kurz so charakterisiert werden, dass sie die bisher unflexiblen physikalischen Maschinen mit ihrer normalerweise recht starren Zuordnung zwischen Maschinen und Anwendungen flexibilisiert und ein System schafft, in dem man (virtuelle) Maschinen mit ihren assoziierten Anwendungen relativ freizügig über die physischen Maschinen zuordnen und bewegen kann.

Die Redundanz besteht in ihrer einfachen Form in der Möglichkeit, Anwendungen von einer Maschine, die ein Problem hat, auf eine andere Maschine zu bewegen.

Speichersysteme

Es gibt viele Systeme, bei denen Speichersysteme und Server am gleichen Netz angeschlossen sind, z.B. mit iSCSI (Network Attached Storage, NAS). In diesen Fällen kann man die Speichersysteme einfach in die Virtualisierung einbeziehen und auf ihnen ähnliche Funktionen ausüben, wie sie hinsichtlich der Anwendungen auf den Servern vorgenommen wurden: neu sortieren und optimieren. Auf diese Weise schafft man ebenfalls Redundanz ohne neue Speichersysteme kaufen zu müssen.

Natürlich möchte man das auch mit anderen Speichersystemen machen. Leider stößt man dann aber auf das oben bereits angesprochene Problem, dass sich die Netze für „normale“ Systeme und spezialisierte Speicher in der Vergangenheit sehr unterschiedlich entwickelt haben. Die High-End-Altenative zum NAS ist das Storage Area Network SAN, welches überwiegend in Fibre-Channel-Technologie (FC) ausgeführt wurde. FC hat von der Konstruktion her andere Eigenschaften als das Ethernet und es ist alles andere als trivial, die beiden Konzepte in einer Netzstruktur zusammenzufügen. Auf dieses Thema kommen wir aber später noch ausführlich zurück.

Insgesamt kann man jedoch festhalten, dass Unternehmen und Organisationen viel Geld in FC-SANs gesteckt haben, weil dieses Umfeld eine Reihe zusätzlicher Möglichkeiten, vor allem hinsichtlich Administration, Disaster Recovery und Organisation bietet, auf die man natürlich in Zukunft keineswegs verzichten möchte.

Die Hersteller von Virtualisierungsprodukten wie VMware, Citrix oder Microsoft geben eine Reihe von Versprechungen, die eintreten sollen, wenn man die Virtualsierung sinnvoll implementiert und einsetzt:

  • Senkung der HW-Kosten um 35 – 70 %
  • Halbierung der Betriebskosten
  • Senkung des Platzbedarfs um 35 – 50 %
  • Senkung des Stromverbrauchs um 40 – 60%
  • Dynamische Anpassung an die Betriebsmittel
  • Hochverfügbarkeit
  • Einfaches Backup-Konzept
  • Einfache Desaster-Recovery-Lösung

Das Faszinierende ist nun, dass diejenigen, die das wirklich ausprobiert haben, derartige Ergebnisse tatsächlich bestätigen. Allerdings ist auch klar geworden, dass man zwangsläufig wieder auf eine Reihe neuer Probleme stößt, aber dazu später mehr.

weiter mit: Ist die schlechte Ausgangslage Vater des Erfolgs?

Artikelfiles und Artikellinks

(ID:2045721)