Mobile-Menu

Netzwerk-Grundlagen – Rechenzentrumsnetze im Umbruch, Teil 5 Der Einfluss der Virtualisierung auf die Speichertechnologie im Überblick

Autor / Redakteur: Dr. Franz-Joachim Kauffels / Dipl.-Ing. (FH) Andreas Donner

Die Virtualisierung hat, wie könnte es auch anders sein, auch erhebliche Auswirkungen auf die Speichertechnologie. Daher müssen wir hier die grundsätzlichen Zusammenhänge darstellen. In Konsequenz haben diese wiederum schwer wiegende Implikationen auf das Design des zugrundeliegenden RZ-Netzes.

Firmen zum Thema

Übersicht der verschiedenen Speicherkonzepte DAS, NAS und SAN – für virtuelle Systeme scheidet Direct Attached Storage aus.
Übersicht der verschiedenen Speicherkonzepte DAS, NAS und SAN – für virtuelle Systeme scheidet Direct Attached Storage aus.
( Archiv: Vogel Business Media )

Genau wie sich die virtuellen Maschinen freizügig über die Server bewegen, müssen sie auch jederzeit einen hochqualitativen Zugang zu den Speicherressourcen haben. Merken Sie etwas? Wenn man das zu Ende denkt, wird das Netzwerk zum Systembus! Wir arbeiten uns erst in die allgemeinen Anforderungen und Zusammenhänge ein und kommen zum Abschluss dieses Teils zu einem weiteren Highlight aus Produktsicht: Wandernde Disk Files mit Storage VMotion.

Die Konvergenz von LAN und SAN im RZ, I/O-Konsolidierung und Begriffe wie NAS, SAN, iSCSI, FCoE, CEE, DEE, DCB, EoFC & Co. hängen damit zusammen, bilden aber einen eigenen so großen Themenblock, dass wir das gesondert und zusammenhängend in weiteren Folgen behandeln werden.

Bildergalerie
Bildergalerie mit 6 Bildern

Wie immer, ist es sinnvoll, zunächst auf die grundsätzlichen Methoden des Speicherzugriffs in einem klassischen Betriebssystem zu blicken.

Anwendungen gehen davon aus, dass sie einen einzigen großen Speicherraum zur Verfügung haben. Dieser ist aufgeteilt in Seiten a X KB. Jede Adresse gibt demnach Seitennummer und Position in der Seite an. Von einem (früher schon als virtuell bezeichneten) Speicherraum der gekennzeichneten Art wird zu einer Zeit immer nur ein kleiner Teil benötigt (Lokalitäts-Prinzip).

Es ist also Unsinn, diesen Speicher in seiner Gänze tatsächlich zur Verfügung zu stellen. In der Praxis liegt der „virtuelle Speicher“ auf der Festplatte. Im RAM wird der aktuell benutzte Anteil in RAM-Seiten (Kacheln) bereitgestellt. Bei der Adressierung verwendet die Anwendung virtuelle Adressen. Ein CPU-nah realisierter Memory Management Unit Process sieht nach, ob die geforderte Seite im RAM vorhanden ist oder nachgeladen werden muss. Das Nachladen geschieht mit einer so genannten Seitenersetzungsstrategie (Demand Paging), die durch einen systemunterstützenden Elementarprozess implementiert wird.

Abbildung 1 stellt die Zusammenhänge dar. In der Abbildung ist der MMU-Prozess auf der gleichen Ebene wie ein Anwendungsprozess realisiert. Das dient eher der Verdeutlichung, weil er auch eine Stufe tiefer implementiert werden kann, um eine größere Nähe zur Hardware aufzuweisen.

In den vergangenen Jahrzehnten wurden sehr viele Verbesserungen eingeführt, um den Prozess der Seitenersetzung zu beschleunigen. Dazu gehört vor allem der weite Bereich der Pre-Caching-Techniken. Hier versucht ein „intelligentes“ Demand-Paging-Verfahren, Seiten vorschauend zu laden, die die Anwendung in naher Zukunft mit hoher Wahrscheinlichkeit benötigen wird. Andere Alternativen ergeben sich aus der Annahme, dass sich die Anwendung relativ kontinuierlich auf dem Speicher bewegt und man daher eine Art „Sliding Window“ für das Nachladen aufbauen kann.

weiter mit: Die Shadow-Tabelle

Die Shadow-Tabelle

In einem Rechner mit Virtualisierung muss für jede virtuelle Maschine eine so genannte Shadow-Tabelle erzeugt werden, die ein virtuelles RAM dieser virtuellen Maschine darstellt und mit einem virtuellen Paging-Algorithmus versehen wird.

Die Erzeugung und Verwaltung dieser Shadow-Tabellen durch den Hypervisor produziert mit die größte Last bzw. den größten Performance-Verlust in virtualisierten Systemen.

Beim Wechsel auf eine andere Virtuelle Maschine muss der Hypervisor die MMU in der physikalischen CPU durch die Shadow-Tabelle dieser VM ersetzen. Wir sehen das in Bild 2.

Ohne HW-Unterstützung ist der Hypervisor mittelfristig verloren. Eine HW-Unterstützung kann so aussehen, dass ein oder mehrere Prozessoren aus dem Multicore dazu genutzt werden, Hardware-nahe Speicherbilder zu erzeugen, die vom Hypervisor wie tatsächliche Hardware angesprochen und benutzt werden können, siehe dazu Bild 3.

Die betroffenen Hersteller (Intel, AMD, …) arbeiten daran. Die Hypervisor-Engpässe können jedoch nur dann gelöst werden, wenn wir von der Software wieder zurück zur Hardware gehen.

Diese Erkenntnis ist extrem wichtig, um die Diskussion auf der Netzwerk-Seite zu verstehen!

Bis hierher hatten wir uns auf die Verhältnisse innerhalb eines einzelnen Servers beschränkt. Erinnern wir uns an die Vision von VMware: hier wurden alle externen Massenspeichersysteme in das Gesamtkonzept eingebunden. Bis das so funktioniert, ist es aber ein weiter Weg. Denn es gibt in der Praxis heute einige unhaltbare Dinge:

  • Verteilung von Speicher auf viele physikalische Instanzen
  • Fehlende Trennung von logischem und physischem Speicher

Virtualisierung und verteilter Speicher passen jedoch nicht zusammen. Glücklicherweise gibt es aber mehrere sich ergänzende Trends, die uns helfen können:

  • Preisverfall von SAN-Lösungen bei gleichzeitig immer besserer Management-SW
  • Trennung von Rechenleistung und Speicher
  • Immer höhere I/O-Raten der Hypervisor-SW

Auch für kleinere Unternehmen wird es deshalb immer attraktiver, zentralen Speicher einzusetzen.

Virtualisierung wird ohne den Aufbau eines zentralen Speichersystems auch in kleineren Umgebungen ihre Vorteile nur teilweise nutzen können. Tatsächlich wird im Rahmen von Virtualisierung lokaler Speicher immer mehr durch zentralen Speicher ersetzt werden. Die dichte Kooperation zwischen z.B. EMC und VMware zeigt, wie nahe diese Technologien zusammenliegen.

Zentral ist also die Frage, wie der Zugriff seitens der virtuellen Maschinen auf „Speicher-Server“ erfolgt. Eine wesentliche Rolle spielt dabei die „Speicher-Konsolidierung“.

Nach wie vor arbeiten Unternehmen meist mit vielen verteilt stehenden Servern und lokalem Plattenspeicher. Das fehlende zentrale Management der lokalen Festplatten und logischen Laufwerke erzeugt erhebliche Kosten und eine ineffiziente Speicher- und Server-Nutzung.

Zentrale Speicher-Lösungen waren in der Vergangenheit häufig teuer aber die Preise für NAS, iSCSI und SAN-Lösungen fallen kontinuierlich und machen diese Technologie auch für kleinere Unternehmen interessant. Es ergeben sich allgemein folgende Vorteile einer erfolgreichen Speicher-Konsolidierung:

  • Einfache Erweiterbarkeit
  • Viele Varianten der Nutzung
  • Einfache Überwachung, schnelle Reaktion auf Fehler
  • Hochverfügbarkeit
  • Backup-Optimierung

Abbildung 4 stellt die Alternativen zur Speicherkonsolidierung schön gegenüber, obwohl Sie das alle schon kennen. Wichtig bei der Darstellung ist die relative Positionierung der Komponenten, besonders des Netzes.

weiter mit: Die Speicherkonzepte NAS und SAN

Die Speicherkonzepte NAS und SAN

Man kann über die Konzepte NAS und SAN lebenslang diskutieren und wird immer wieder Argumente finden, die für das eine oder das andere Konzept sprechen. Das Ergebnis, welche der Alternativen man am Ende nimmt, hängt von sehr vielen Einflussfaktoren ab. Da gibt es mindestens folgende Bereiche

  • File-Zugriff: NAS, SAN oder SAN/NAS-Hybridsysteme
  • Block-Zugriff: iSCSI, Fibre Channel (FC) oder Fibre Channel over Ethernet (FCoE)

Insgesamt bestimmt die Art des Zugangs die Kosten und die Leistung, aber nicht die Funktionalität:

  • Verwaltung und Reporting allgemein
  • Boot from SAN
  • SAN-Virtualisierung
  • SAN-Sharing
  • Hierarchisches Speicher-Management

Letztlich ist es so, dass alle großen Hersteller wie HP oder IBM auch in Zukunft beide Alternativen vollumfänglich unterstützen werden, so dass der Kunde die Wahl hat und die Alternativen sogar mischen kann.

Die Hersteller von Virtualisierungssoftware wollen aber auf jeden Fall das Netzwerk zum Systembus machen, wie Bild 5 zeigt.

Die Software Storage VMotion erlaubt das Wandern von Disk Files virtueller Maschinen über heterogene Speichersysteme. Die zugrundeliegenden Mechanismen sind denen der wandernden virtuellen Maschinen sehr ähnlich, sodass wir das hier nicht weiter ausführen müssen.

Wesentlich ist die Frage, wie wir das jetzt alles auf das Netz bringen können.

So kommt der Speicher ins Netz

In heutigen RZs benutzen Unternehmen üblicherweise Ethernet für die TCP/IP-Netze und Fibre Channel für Storage Area Networks (SAN).

Ethernet-Netzwerke werden üblicherweise dazu aufgebaut, dass Benutzer relativ geringe Datenmengen über LANs oder auch größere Distanzen bekommen können.

Storage Area Networks sind in Unternehmen und Organisationen implementiert, die für Anwendungen wie Booting, Mail Server, File Server oder große Datenbanken den Zugriff auf Block-I/O benötigen. Die Vorteile eines Storage Area Networks sind:

  • zentralisiertes Management
  • hohe Sicherheit
  • sinnfällige Verwaltung der Speicher-Ressourcen
  • einheitliche Darstellung und Implementierung spezieller Storage Services, wie periodische Backups
  • Unterstützung des Betriebs effektiver Benutzungsniveaus der Speicher-Ressourcen

Die Konvergenz von LAN und SAN im RZ bringt eine Reihe möglicher Vorteile. Konvergenz beruht auf der Abbildung von „Speicherverkehr“ auf die Ethernet Switching Fabric mittels iSCSI oder FCoE. iSCSI ist bewährt und problemlos, FCoE klingt zunächst einmal gut, stellt aber zusätzliche Anforderungen an die Ethernet Switching Fabric, die ggf. komplex und kritisch werden können, obwohl sie sich zunächst trivial anhören.

Mit dem Standard FC-BB-5 ist auch FCIP, also FC über IP, wieder in den Focus des Interesses gerückt. FCIP kann wie iSCSI auf einem ganz normalen Ethernet laufen. Beide Systeme wären für Hochleistungs-Anwendungen eigentlich zu langsam und würden einen Prozessor zu stark belasten, können aber durch geeignete Hardware-Unterstützung auf NICs bzw. HBAs wirklich schnell gemacht werden.

Sie sehen schon, das gibt ganz viele Diskussionen, die wir aber erst zu einem späteren Zeitpunkt führen werden.

Weiter mit Teil 6

Zurück zu Teil 4