Anbieter zum Thema
Wandernde virtuelle Maschinen und die Konsequenzen
VMware hat vor einiger Zeit den Stein mit vMotion ins Rollen gebracht, die anderen Hersteller sind mit Verzögerung gefolgt. Nun kann die Fähigkeit, eine laufende virtuelle Maschine im Betrieb zu verlagern, als fast normal angesehen werden (wenn man die vielen Einschränkungen in diesem Bereich sorgfältig beachtet).
Nun suchen alle Anbieter, und VMware ist hier besonders aktiv, nach einer weitergehenden Nutzung dieser Fähigkeit der wandernden VMs. Dabei stößt man schon nach kurzer Überlegung auf sehr nahe liegende Anwendungsgebiete:
- Allgemein der gesamte Bereich Disaster Recovery
- Dynamische Verteilung von Lasten (DRS bei VMware)
- Hochverfügbarkeit
- Fault Tolerance
Das sieht auf den ersten Blick begeisternd aus, hat aber erhebliche Folgen für die Infrastrukturen:
- Ohne zentralen Speicher im Sinne eines SAN macht das kaum Sinn
- Wie kann dieser Speicher von mehreren Standorten aus erreicht werden?
- Was muss ein Netzwerk leisten, um Fault-Tolerance ernsthaft abbilden zu können? Immerhin müssen hier CPU-Zyklen zwischen den betroffenen Maschinen synchronisiert werden
- Wie groß dürfen die Unterbrechungen in den betroffenen Anwendungen werden?
Direct-Path-Technologie im Server und Hypervisor: die Zukunft?
Nachdem ComConsult Research schon im letzten Jahr eindringlich vor möglichen Performance-Problemen im Hypervisor gewarnt hat – seiner Zeit noch sehr zur Verwunderung vieler Anwender und Hersteller – ist nun spätestens seit der VMworld Anfang September in San Francisco klar, dass Virtualisierung in der Tat einen wunden Punkt hat.
Dies ist die erreichbare I/O-Leistung gemessen in Transaktionen pro Sekunde, Delay, Jitter und Durchsatz. Zwar versprechen die Werbeaussagen aller Hersteller hier eine immer höhere Leistung bis hin zur 40 Gigabit-Linerate, doch wenn man diese „neutralen“ Messungen einmal näher betrachtet, dann fällt auf, dass in der Regel nur ein Parameter als Ergebnis genannt wird und keine Details zur Messmethode auftauchen.
Im Labor lassen sich mit geschickter Optimierung der virtuellen Maschinen, Paketlängen und Lastverteilungen herausragende Werte erzielen. Dabei werden die vorhandenen CPUs in der Regel allein durch die Kommunikation zu 100 Prozent belastet. Diese Ergebnisse sind in keiner Form auf praxisnahe Szenarien übertragbar.
Der Megatrend der letzten Wochen ist denn auch die Überbrückung des Hypervisors und der Direktzugriff auf die Host Bus Adapter durch die virtuellen Maschinen. Dazu muss der Hypervisor die Verwaltung dieser Kommunikation und zum Teil den Verbindungsaufbau unterstützen.
Auf der anderen Seite werden spezielle HBAs gebraucht, die Virtualisierungs-bewusst sind und jeder VM getrennte Ressourcen zur Verfügung stellen. Cisco hat bereits zur CeBIT einen entsprechenden Adapter angekündigt, VMware hat die dazu notwendige Direct-Path-Technologie im Test.
Damit entstehen sofort folgende Fragen:
- Wie kritisch sind mögliche Performance-Probleme im Hypervisor?
- Wie sehen gute Lösungsansätze aus?
- Wie kann eine zukunftsorientierte und investitionsgeschützte Infrastruktur aufgebaut werden?
weiter mit: Fibre Channel over Ethernet
Artikelfiles und Artikellinks
(ID:2041390)