Anbieter zum Thema
Die unterschätzte Komplexität der konvergierten Netze
Noch eine Zeit lang vor der eigentlichen Virtualisierungswelle kam die Idee auf, diese zwei verschiedenen Netze in ein konvergiertes Netz zu integrieren. Was sich zunächst einfach anhörte, hat sich in der Realität als ausgesprochen kompliziert herausgestellt und die anfängliche Begeisterung hinsichtlich FCoE wurde erheblich gedämpft.
Insgesamt kann man sagen, dass die Idee der Konvergenz sehr gut ist, FCoE dazu aber eine nur wenig geeignete Technologie. Dummerweise hat der Markt bisher auch keine anderen Alternativen für die Integration von Block-orientiertem FC-Verkehr hervorgebracht. Natürlich stehen nach wie vor rein Ethernet-basierte Lösungen für Block- und Datei-orientierten Verkehr zwischen Speichersystemen und Rechnern, wie ISCSI oder NFS zur Verfügung, aber es gibt keine wirkliche Substitutionskonkurrenz.
Durch die Virtualisierungswelle wurde klar, dass sich physikalische Systemgrenzen mehr und mehr auflösen. Die virtuellen Maschinen benötigen eine Laufzeitumgebung, in der sie jederzeit freizügig und vollumfänglich auf die ihnen zustehenden Betriebsmittel zugreifen können. Dadurch, dass die virtuellen Maschinen auch wandern können, überwinden sie physikalische Systemgrenzen. Das erschließt zwar viele neue Möglichkeiten z.B. hinsichtlich eines unterbrechungsfreien Betriebs, hat aber auch schwerwiegende Implikationen auf das Netz. Dieses wird nämlich zum Systembus des virtualisierten Systems.
Das Netzwerk als Systembus
Denkt man das konsequent weiter, kommt man darauf, dass an ein Netz zusätzliche Anforderungen zu stellen sind, wenn es zum Systembus wird, nämlich genau die, die man an einen Systembus schlechthin stellt:
- Transparenz
- Keine Komponente sollte „merken“, dass es ein Netz gibt
- Leistung
- Die Übertragungsrate sollte weit jenseits dessen sein, was eine einzelne Komponente kann
- Delay und Latenz so gering wie technisch überhaupt möglich
- Verlustfreie Übertragung
Diese Anforderungen haben weit reichende Konsequenzen. Dazu nur ein Beispiel. In allen Fällen, wo im RZ noch ein FC-SAN besteht, ist es erforderlich, den virtuellen Maschinen, die so definiert sind, dass sie neben dem Ethernet auch einen Zugriff auf FC-Daten bekommen, diesen Zugang auch tatsächlich zu gewähren.
Nun bekommen wir sofort ein Problem mit der möglichen Wanderung virtueller Maschinen, die ja ihrerseits eine notwendige Voraussetzung für viele im Rahmen der Virtualisierung besonders erwünschter Zusatzfunktionen, z.B. für den unterbrechungsfreien Betrieb, ist. Daher ist es nicht wünschenswert, die Wanderung künstlich zu beschränken. Vielmehr wird es notwendig, den Zugriff auf die FC-SAN-Daten allen Servern zu geben, auf die die betreffenden VMs potentiell wandern können. Momentan heißt die Lösung FCoE und man wird kaum darum herumkommen, es einzuführen.
Die Leistung von 10 GbE ist aber besonders dann, wenn FC-Verkehr zusätzlich mit übertragen werden muss, keineswegs hinreichend für Transparenz. Ein Server bzw. die auf ihm befindlichen Komponenten werden das Netz nicht nur „merken“, sondern schmerzlich erfahren. Dadurch entsteht ein ungesteuertes „Warte“-Universum und letztlich haben wir nicht nur viel zu hohe durchschnittliche Wartezeiten sondern auch eine enorme Delay-Varianz zu befürchten.
Problem: Delay-Varianz
Liegt keine verlustfreie Übertragung vor, müssen permanent Retransmissionen durchgeführt werden. Diese halten den Verkehr aber unnütz auf. Es gibt kein „lossless Ethernet“, wie immer wieder behauptet wird, und FCoE kann auch nur so arbeiten, dass es den Datenfluss jedes Mal anhält, wenn im Ethernet etwas passiert, was im FC nicht passieren würde oder nicht passieren darf. Eine weitere Steigerung der Delay-Varianz ist die Folge.
Die Verlagerung von Plattenspeicher ist ein spannender Vorgang. Im Rahmen der Konsolidierung von Servern durch Virtualisierung wird der bisher existierende Direct Attached Storage (DAS) durch Storage Area Networks (SAN) abgelöst. Der dadurch entstehende Speicher ist kein High End Datenbank Speicher für optimierte Transaktionsverarbeitung sondern Massenspeicher, der eine kostenoptimale Umsetzung erfordert. ComConsult Research hat schon mehrfach darauf hingewiesen, dass iSCSI oder das neue parallele NFS die Systeme sein werden, die eine derartige Umsetzung unterstützen.
Das erzeugt einen erheblichen Bedarf an Bandbreite, wenn man diese Konsolidierung einmal genau durchrechnet. Dazu muss man eigentlich nur die Anzahl der in den nächsten Jahren zu konsolidierenden Server und deren jetziger Plattenspeicher kennen. Es gibt immer wieder das Argument, dass nicht alle virtualisierten Server gleichzeitig auf alle ihre virtualisierten Platten zugreifen werden. Situationen mit Spitzenlast sind dennoch nicht auszuschließen.
Wir werden das noch weiter diskutieren, aber fürs erste kann man auch den Ansatz wählen, dass die Leistung für den Zugriff auf die Platten natürlich von der I/O-Leistung der einzelnen Server, die die VMs implementieren, nach oben hin begrenzt ist. Diese Grenze liegt derzeit bei ca. 10 Gbit/sec und schiebt sich bis 2012 in den Bereich von 20-40 Gbit/sec. Ein Netz, welches im Kern nur 10 GbE kann, ist damit deutlich überfordert.
Über den Autor
Dr. Franz-Joachim Kauffels ist seit über 25 Jahren als unabhängiger Unternehmensberater, Autor und Referent im Bereich Netzwerke selbständig tätig. Mit über 15 Fachbüchern in ca. 60 Auflagen und Ausgaben, über 1.200 Fachartikeln sowie unzähligen Vorträgen ist er ein fester und oftmals unbequemer Bestandteil der deutschsprachigen Netzwerkszene, immer auf der Suche nach dem größten Nutzen neuer Technologien für die Anwender. Sein besonderes Augenmerk galt immer der soliden Grundlagenausbildung.
Artikelfiles und Artikellinks
(ID:2050220)