Anbieter zum Thema
Fibre Channel over Ethernet
Der FCoE-Standard (Fibre Channel over Ethernet) wurde im Juli verabschiedet. Nachdem einst nur Cisco ursprünglich diese Technologie gepuscht hat, ist sie jetzt zum Mainstream geworden.
Die Bestrebungen von IEEE 802.1 DCB konnten nicht alle Probleme lösen – auch wenn man alle teilweise neuen Verfahren zusammen anwendet, können Pakete verloren gehen, was der Fibre Channel nicht verträgt. Erst der ANSI/INCITS Standard FC-BB-5 konnte die Probleme im Sommer systematisch lösen.
Auf der VMworld vor haben sich nun alle wesentlichen Hersteller zu dieser Technologie bekannt, darunter EMC, HP und IBM. 2010 wird das Jahr von FCoE werden. Aber der Standard und die Technologie sind nicht trivial. Ethernet ist nach wie vor keine verlustfreie Technologie, so dass einige Folgefragen entstehen:
- Wie arbeitet FCoE im Detail?
- FC-BB-5 macht deutliche Einschränkungen hinsichtlich der unterstützten FC-Verkehrsklassen und des Gesamtaufbaus. Kann man damit leben?
- Wie weitläufig kann eine Lösung sein, beschränkt auf einen Schrank oder Campus-übergreifend?
- Wo sind mögliche Probleme?
- Was passiert, wenn Pakete verlorengehen?
iSCSI und NFS
Auch wenn der schnelle Siegeszug von FCoE anderes vermuten lässt, so kann zurzeit tatsächlich ein Aufleben von iSCSI und NFS im Rechenzentrum beobachtet werden. Neueste Produktentwicklungen versprechen Line-Rate auf 10 Gigabit-Schnittstellen und mehr (vorausgesetzt, man hat ein dazu passendes Speichersystem).
Damit ist aber – wie sollte e sanders sein – eine Reihe sehr spannender Fragen verbunden:
- Wo sind die Vor- und Nachteile von iSCSI und NFS?
- Wie gut müssen Netzwerke dafür sein?
- Warum reicht das zur Rechenzentrums-Kopplung zwischen Standorten nicht aus?
Große Layer-2-Netzwerke im Rechenzentrum
Die zunehmende Zahl von virtuellen Maschinen (in größeren Unternehmen rechnet man schnell mit mehr als 10.000) lässt den Umfang der Layer-2-Netzwerke in Rechenzentren explodieren. Kombiniert man das mit wandernden virtuellen Maschinen und Hochverfügbarkeit, dann entsteht ein explosives Gemisch.
Dieses explosive Gemisch führt zu folgenden Fragen:
- Welche Form von Redundanz ist hier noch geeignet? Spanning Tree sicher nicht!
- Welche neuen Netzwerk-Standards können hier sinnvoll eingesetzt werden?
- Wie kann die Sicherheit der virtuellen Maschinen in diesem Umfeld erhöht werden?
Rechenzentrums-Kopplungen zwischen Standorten
Mit der Zentralisierung von Rechenleistung und Speicher geht häufig untrennbar der Wunsch einher, Rechenzentren auf mehrere Standorte zu verteilen. Disaster Recovery und Betriebsvorteile solcher Lösungen sind die Motivation für diesen Ansatz. Mit der zunehmenden Verbreitung von Layer-2-Netzwerken in virtualisierten Umgebungen wird nun zur Normalität was in der Vergangenheit als Spezialfall für Cluster galt. Damit entsteht die Aufgabe, eine standortübergreifende Kopplung zu erreichen.
Dies führt zu folgenden Fragen:
- Welche Technologie kommt dafür in Frage?
- Wie weit sind Standard-basierende Lösungen möglich?
- Welche Entfernungen sind abdeckbar?
- Welche Bandbreiten, Delays und Jitter werden erreicht?
- Wie sieht die Nutzung für Datennetze und Speicher aus?
Die Liste der Fragen zeigt, dass das Redesign von Rechenzentren keine einfache Aufgabe ist. Die rasant schnelle Technologie-Entwicklung stellt jeden, der ein tragfähiges und wirtschaftliches Konzept sucht, vor erhebliche Aufgaben. Wir sind nicht in der Position, auf lang etablierte und in ihren Eigenschaften wohl bekannte Technologien aufzusetzen. Gerade die Neuheit der Technologien ist ja auch der Träger der erheblichen Vorteile, die mit dem Einsatz verbunden sind. Hier ein ausgewogenes Verhältnis von Risiko und Ertrag zu finden, ist die Herausforderung.
Das ComConsult Rechenzentrum Redesign Forum 2009, das vom 16. bis 19. November in Königswinter stattfindet diskutiert die zuvor beschriebenen Fragen. Es liefert eine Hilfestellung bei der Evaluierung und Bewertung der neuen Technologien im Rechenzentrum. Das Forum kombiniert Analysen des Teams von ComConsult Research mit aktuellen Projekt-Erfahrungen und Berichten. Ergänzt wird das Ganze um die Diskussion mit führenden Herstellern zu deren Produkten und Strategien.
Neben dem Forum führt ein umfangreicher Report von Dr. Franz-Joachim Kauffels in die Virtualisierung und die sich daraus ergebenden Problemstellungen ein und stellt passende Technologien, Standards, Protokolle und Systeme auf der Netzwerkseite vor.
Über die Autoren

Dr. Franz-Joachim Kauffels ist seit über 25 Jahren als unabhängiger Unternehmensberater, Autor und Referent im Bereich Netzwerke selbständig tätig. Mit über 15 Fachbüchern in ca. 60 Auflagen und Ausgaben, über 1.200 Fachartikeln sowie unzähligen Vorträgen ist er ein fester und oftmals unbequemer Bestandteil der deutschsprachigen Netzwerkszene, immer auf der Suche nach dem größten Nutzen neuer Technologien für die Anwender. Sein besonderes Augenmerk galt immer der soliden Grundlagenausbildung.

Dr. Jürgen Suppan gilt als einer der führenden Berater für Kommunikationstechnik und verteilte Architekturen. Unter seiner Leitung wurden in den letzten 25 Jahren diverse Projekte aller Größenordnungen erfolgreich umgesetzt. Sein Arbeitsschwerpunkt ist die Analyse neuer Technologien und deren Nutzen für Unternehmen. Er leitet das internationale Labor von ComConsult-Research in Christchurch, das die Technologieentwicklung in Asien, Australien, den USA und Europa analysiert und für Kunden bewertet. Gleichzeitig ist er Inhaber der ComConsult Akademie, der ComConsult Technologie Information GmbH und der ComConsult Technology Information Ltd.
Artikelfiles und Artikellinks
(ID:2041390)