Mobile-Menu

Hintergrund: Was macht die Virtualisierung so wichtig? Der Sinn und Zweck der Virtualisierung im Überblick

Autor / Redakteur: Frank Beckereit / Dipl.-Ing. (FH) Andreas Donner

Das Thema Virtualisierung ist in der IT mittlerweile allgegenwärtig. Kaum ein Hersteller, keine Publikation oder Weiterbildung und erst recht kein Rechenzentrums-Betreiber kann sich heute dem Thema entziehen. Doch woher kommt dieser Hype, worum geht es dabei im Kern und weshalb hat dieses Thema noch so viel Potenzial für die Zukunft?

Firmen zum Thema

Für alle, die nicht wissen, wie sie sich dem Thema Virtualisierung am einfachsten nähern sollen, bietet Dimension Data „Infrastructure Maturity Workshops“ (DCMM) an
Für alle, die nicht wissen, wie sie sich dem Thema Virtualisierung am einfachsten nähern sollen, bietet Dimension Data „Infrastructure Maturity Workshops“ (DCMM) an
( Archiv: Vogel Business Media )

Eine einzelne Anwendung kann im Normalfall die ungeheure Leistungsfähigkeit der heutigen IT-Systeme nicht voll für sich ausnutzen. Oder es werden unterschiedliche Funktionen zu unterschiedlichen Zeiten vom Anwender abgerufen, sodass sich ständig Systeme mehr oder minder im (Beinahe-) Leerlauf befinden. Da ein IT-System auch bei nur fünf Prozent Systemlast eine gewisse Energie benötigt, Abwärme produziert und ohne Arbeitslast schlicht totes Kapital bedeutet, macht es Sinn, die ohnehin vorhandenen Systeme zu jeder Zeit optimal auszulasten.

Können nun auf derselben Hardware mehrere logische Systeme mit unterschiedlichen Lastprofilen zur selben Zeit laufen, kann die betreffende Maschine zu jeder Zeit produktiv sein, wobei gleichzeitig ansonsten überflüssige Hardware entfallen kann. So erreicht man eine Optimierung des eingesetzten Kapitals bei gleichzeitiger Minimierung des Flächen- und Energieverbrauchs sowie eine Reduktion der Abwärme.

Bildergalerie

Dieses Spar-Paradigma war im Wesentlichen der Antrieb für die erste Welle der Virtualisierung, die um das Jahr 2001 begann. Obwohl das Grundkonzept bereits seit den Tagen der Großrechner bekannt war, wurde die technische Umsetzung auf der Intel x86 Plattform im großen Stil erst durch Softwarelösungen wie VMWare ESX möglich. Aber war das schon alles?

War das schon alles?

Mitnichten, denn im Laufe der Zeit wurde klar, dass sich aus der konsequenten Implementierung von virtuellen Maschinen weitere Trends, quasi als Nebeneffekt, ergeben hatten.

Ein einfacheres LifeCycle Management für die virtuellen Instanzen – Da eine virtuelle Maschine aus einer Datei besteht, kann diese einfach kopiert, gesichert oder gelöscht werden. Damit lassen sich Schablonen neuer Systeme (sog. Templates) erstellen, die durch einfaches Kopieren und Starten binnen Minuten einen neuen Server bereitstellen. Mittels ausgeklügelter Managementsysteme und Anwenderportalen kann so der gesamte Bereitstellungs-, Betriebs- und -Entsorgungszyklus, inklusive der Abrechnung von Ressourcen, automatisiert werden.

Darüber hinaus profitieren die virtuellen Systeme von der Konsistenz der innerhalb der virtuellen Maschine präsentierten Hardware. So kann ein installiertes System meist problemlos umgezogen werden – beispielweise vom alten Server mit einem PentiumIV, Intel Pro 100 NIC und BusLogic Host Bus Adapter (HBA), auf eine komplett neue Hardware mit Xeon 5500, Broadcom NIC und LSI HBA –, ohne dabei irgendeinen Treiber innerhalb der virtuellen Maschine austauschen zu müssen. Damit ist der Lebenszyklus einer Serverinstanz nicht mehr an die darunterliegende Hardware gebunden.

weiter mit: Ein erhöhter Managementbedarf

Ein erhöhter Managementbedarf

Die einfache Installation von virtuellen Systemen bzw. das simple Kopieren von so genannten Templates führte allerdings zu einer wahren Schwemme an neuen Maschinen. Oftmals getrieben von Test- oder Entwicklungsanforderungen neigten diese Instanzen dazu, nach Ende ihrer Nutzungsphase einfach weiterzulaufen, ohne dass die nun verwaisten Systeme gelöscht und die zugehörigen Lizenzen freigegeben wurden.

Hier ist also eine aktive Verwaltung solcher Systeme erforderlich, um überflüssige Maschinen geregelt zu entsorgen und die Kapazitäten nicht unnötig aufzublähen – ansonsten wäre der erzielte Einspareffekt durch die Reduktion der Server bald wieder aufgezehrt.

Gesteigerte Verfügbarkeit und kostengünstige Fail-Over-Mechanismen

Da die virtuellen Systeme problemlos kopiert und damit auf alternative Hardware übertragen werden können, lässt sich oftmals der Bedarf nach einem Notfallsystem (Hot- oder Warm-Standby) eliminieren. Bei einem Defekt der Hardware wird die virtuelle Instanz einfach auf einem anderen VM-Host neu gestartet und läuft binnen Minuten wieder weiter.

Dieser Mechanismus lässt sich unter gewissen technischen Bedingungen automatisieren und die Übertragung auf ein anderes System sogar mit laufenden virtuellen Maschinen realisieren. Auf diese Weise werden erhebliche Kosten eingespart und die Verfügbarkeiten solcher Systeme beinahe „nebenbei“ verbessert.

Hardwareunterstützung für die Virtualisierung

Die virtuellen Maschinen unterliegen immer noch gewissen Einschränkungen gegenüber physischen Systemen. So ist die Performance oftmals durch die Virtualisierungsschicht reduziert oder der Zugriff auf spezielle Hardware ist aus einer VM heraus nicht oder nur unter speziellen Umständen möglich (z.B. USB-Ports, Faxkarten, TV-Karten, etc.).

Ebenso führen die optimierten Architekturen moderner Prozessoren bei Virtualisierung manchmal zu unerwünschten Effekten (z.B. Cacheprobleme, Adresskonflikte, etc.). Um diese Einschränkungen zu umgehen bieten aktuelle Prozessoren vermehrt spezielle Funktionen (Register oder Befehle) für die Virtualisierung bzw. zur Optimierung der darauf laufenden Hypervisoren.

Einen Sonderweg gehen hier die Blade-Systeme, speziell das UCS System von Cisco. Hier wird die Virtualisierung als „stateless Computing“, also die Trennung der „Persönlichkeit“ eines Systems von der konkreten Hardware, umgesetzt. Alle Informationen die ein System definieren und die üblicherweise in der Hardware fest verankert sind, also MAC Adresse der Netzwerkkarte (NIC), Firmware-Version der Host Bus Adapter (HBA) oder das BIOS des Mainboards, werden wie bei einer virtuellen Maschine in einem Template gespeichert und können so zu jedem Zeitpunkt einem beliebigen Blade gleicher Bauart zugewiesen werden. Dadurch lassen sich komplett installierte Serversysteme binnen Minutenfrist auf andere physische Server umziehen, ohne die Konfiguration des Betriebssystems anzufassen.

weiter mit: Virtuelle Desktops (VDI)

Virtuelle Desktops (VDI)

Wenn das Ressourcensharing für Serversysteme so viele Vorteile mit sich bringt, weshalb dann nicht das Konzept auf den Desktop ausdehnen? Der Trend zu Thin Clients mit ihren geringen Hardwareanforderungen sowie dem einfachen und kostengünstigen Management ist ungebrochen. Allerdings ist der Windows Terminalserver als technische Plattform nicht mehr zeitgemäß.

Da die Mechanismen der Hypervisoren auch für virtuelle Desktops nutzbar sind, können damit problemlos die Anforderungen an Thin-Client-Umgebungen erfüllt werden. Bei konsequenter Umsetzung derselben Hypervisor-Strategie für Server und Desktops können so die Hardware-Ressourcen für beide Aufgaben genutzt und die Gesamtlast nochmals optimiert werden.

Wie geht es weiter?

Wenn die Idee solcher „Ressourcepools“ konsequent auf das Netz und die Speichersysteme ausgeweitet und diese mittels eines leistungsfähigen Managementsystems unterstützt werden, dann ist das Dynamische Datacenter bereits heute Realität.

Der nächste große Hype sind „Cloud Infrastrukturen“. Dabei geht es im Wesentlichen um die (dynamische) Nutzung von IT Ressourcen sowohl innerhalb der eigenen Rechenzentrumsinfrastruktur(en) als auch übergreifend mit Service Providern und Hosting-Anbietern. Eine der wichtigsten Voraussetzungen dafür ist die Interoperabilität zwischen den daran beteiligten Systemen – Virtualisierung ist dabei derzeit das Mittel der Wahl.

Viele Kunden wissen derzeit nicht, wie sie sich dem Thema am einfachsten nähern sollen. Dimension Data bietet daher standardisierte, strukturierte „Infrastructure Maturity Workshops“ (DCMM) an, in denen sehr schnell die möglichen Quick Wins identifiziert werden können. Damit können der Return-on-Invest sehr schnell ermittelt und damit Handlungsalternativen bewerten werden.

Um eine optimale Zielarchitektur zu ermitteln ist jedoch zunächst eine gründliche Analyse der aktuellen Infrastruktur erforderlich. Dabei werden Server, Anwendungen, Storage, Netzwerk, Security, Backup und Desaster Recovery, Clientumgebung sowie Management Modelle betrachtet und bewertet. Hieraus lassen sich meist sehr schnell Einspar- und Optimierungspotentiale erkennen und Roadmaps für deren schrittweise Realisierung ableiten.

Das DCMM Modell in der Praxis

Die DCMM Methode umfasst drei Phasen, die von erfahrenen Consultants zusammen mit den Kunden durchlaufen werden

  • Discovery: Ca. 4h Workshop mit den Schlüsselpersonen (Stakeholders) aus dem IT Management des Kunden sowie ausgesuchter Technischer Leads. Moderierter Workshop zur ersten Selbsteinschätzung und Sichtung der Bestandsdaten mittels bewährten Interview- und Kreativmethoden.
  • Analysis: Die ermittelten Daten werden zusammengefasst, analysiert und aufbereitet. Daraus werden mögliche Handlungsoptionen für einen Zeitraum von 24 Monaten abgeleitet und dokumentiert.
  • Recommendation: Basierend auf der Analyse wird gemeinsam mit dem Kunden eine konkrete zeitliche und inhaltliche Roadmap erstellt. Diese dient als Basis zur strategischen Planung, zur Ermittlung des ROI einzelner Schritte sowie als Basis zur Ressourcenplanung.

Die dabei erreichbaren Einsparungen sind oftmals positiv überraschend, da herkömmliche Analysen meist die einzelnen Services und Systeme separat betrachten, Virtualisierung aber erst als Gesamtmodell alle Synergieeffekte erzielen kann.

Dimension Data bietet damit das komplette Portfolio für die Optimierung, Rationalisierung und Konsolidierung von Rechenzentren. In seinem Vortrag Accelerate beyond the Cloud am 01.12 um 16:15 Uhr gibt Herbert Bockers, Vorstand der Dimension Data Germany, auf der Cisco Expo 2010 weitere Einblicke in das Thema Virtualisierung und die hierzu passenden Ansätze von Dimension Data.

Über den Autor

Frank Beckereit ist Leadconsultant Datacenter Solutions, Dimension Data Germany

Anmerkung: Der Artikel beschäftigt sich schwerpunktmäßig mit der INTEL x86 Plattform. Die Aussagen im Text treffen daher für die anderen Plattformen wie Sun ULTRASPARC, IBM PowerPC, CMOS oder sonstige Architekturen oftmals in anderer Form zu und sind daher nur bedingt übertragbar

(ID:2048092)