Anbieter zum Thema
Die Konsequenzen
Es gibt ja tatsächlich noch Unternehmen, die, nennen wir es einmal „beschäftigungstherapeutische“ Benutzeroberflächen betreiben. Das sind die einzigen, die wir letztlich in dieser Phase ausnehmen können. Alle anderen müssen sich darauf vorbereiten, dass sich in den nächsten Jahren gravierende Änderungen ergeben werden.
Konkret heißt das für die nächste Zeit, dass wir über Rechner (auch Blades) mit 8, 16, 24, 32 bis hin zu 64 Cores reden. Diese benötigen mindestens einen 10 GbE-Anschluss, der gegenüber herkömmlichem Ethernet erheblich angereichert sein muss, um auch die Anforderungen des Speicherverkehrs erfüllen zu können. Dafür gibt es neue Standards wie IEEE 802.1 DCB (Data Center Bridging), ANSI FC-BB-5 oder RoCE für den IPC. In 2010 haben die etablierten Hersteller von Infrastruktur-Switches begonnen, mindestens 40 GbE anbieten, das brauchen wir aber auch.
Auf der ECOC hat man nun weiter gedacht: für 2020 (das sind nur noch 10 Jahre) sieht man folgendes:
- Ein Computer wird 2020 ca. 1.000 Cores enthalten
- Ultra-hochdichte „nanoscale“ Geräte leisten dann 10 TeraFlops
- Um eine im Sinne der Virtualisierung ausgeglichene Architektur besitzen zu können, benötigt der 10 TeraFlop-Rechner eine Bandbreite von 100 Tbit/s für seine Kommunikation. Das ist zwanzig Mal mehr als der gesamte heutige durchschnittliche Internet-Verkehr in den USA (5 Tbit/s)
Wenn Sie das jetzt für vollkommen abgedreht halten, sehen Sie sich bitte die Entwicklung der letzten 10 Jahre an. Abgesehen von der reinen Datenrate ergeben sich architektonische Fragestellungen. Die heutige Kommunikation besteht aus im Grunde genommen zusätzlichen Komponenten für die Kommunikation zwischen Boards und Racks. Wie kann man es schaffen, das enger mit der Ebene der Prozessorchips zu verschmelzen? Einzig und alleine Antworten auf diese Fragen werden uns auch dabei helfen, den Energieverbrauch für die Kommunikation zu senken.
Latenz ist für nichts sinnvoll. Also wird man Komponenten und Netze mit geringer Latenz auch zunehmend dort einsetzen, wo es keine Spezialanwendungen wie Trading gibt, sondern einfach eine sehr leistungsfähige virtuelle Umgebung aufgebaut werden soll.
Verschiedene Hersteller haben mit unterschiedlichen Ansätzen demonstriert, dass es durchaus möglich ist, hinreichend skalierbare, funktional vollständige Netze mit einer Latenz von heute unter 30 µs aufzubauen. Das wird in den nächsten Jahren noch mal etwas besser.
Es gibt einen relativ trivialen Punkt, den man eigentlich für jedes Unternehmen mit einer leistungsfähigen virtualisierten Gesamtlösung ausmachen kann, an dem die Latenz in dieser Größenordnung zur absolut notwendigen Voraussetzung wird: der Anschluss masseloser SSD-Speichersysteme (Silicon Storage Device).
Ausgehend von den simplen Flash-Speichern, die wir heute eigentlich überall besonders bei mobilen Endgeräten haben, hat sich diese Technologie fulminant entwickelt. Hersteller wie FusionIO oder Texas Memory Systems haben Speicher im Angebot, die zwischen 0,5 und 10 TByte Kapazität haben, dabei aber eine Latenz von nur 30 bis 60 µs für den Lesezugriff aufweisen.
Nach Ansicht von IBM wird sich der Speichermarkt in den nächsten Jahren folgendermaßen entwickeln:
- Langzeitspeicher wie Bänder bleiben so wie sie sind.
- Preiswerte, aber langsamere SATA-Platten werden erheblich an Bedeutung zunehmen
- Schnelle Platten können auch aus physikalischen Gründen nicht mehr wesentlich weiter beschleunigt werden und dadurch an Bedeutung verlieren
- SSDs und nichtflüchtige RAMs bilden in Zukunft die Spitze der Speicherhierarchie
3D-SSDs
Dabei spielt natürlich auch ein neuer technologischer Durchbruch eine wesentliche Rolle: die Entwicklung von 3D-SSDs. Es ist gelungen, Standard-VLSI Herstellungsmethoden so zu modifizieren, dass dreidimensionale Strukturen entstehen, im einfachsten Fall durch das Übereinanderlegen von Wafern.
Um diese Speicherformen richtig und wirtschaftlich nutzen zu können, benötigt man letztlich ein auf Regeln basierendes gemeinsames Speichersystem, welches virtuelle LUNs erzeugt und diese gemäß der Regeln auf die unterschiedlichen Stufen der Speicherhierarchie abbildet und ggf. umlagert. Das Speichersystem muss dabei die völlig unterschiedlichen Methoden für den optimierten Zugriff auf die unterschiedlichen Speicher und die dazu gehörigen Mechanismen zur Implementierung geeigneter Redundanz (RAID-Level) beherrschen. IBM hat ein solches Werkzeug im Portfolio, welches in diesem Jahr auch auf SSDs erweitert wurde.
Andere Hersteller bieten sogar netzgestützte Kompressoren an.
Um es kurz zu sagen: wer auf solche Speichersysteme migriert und dann ein lahmes Netz hoher Latenz benutzt, wirft massiv sein Geld zum Fenster heraus.
Natürlich gibt es auch nach wie vor Kriterien für den Einsatz latenzarmer Netze, die sich aus speziellen Anwendungen oder Anwendungsbereichen wie HPC ergeben. Aber ich bin eigentlich froh über diesen Einfluss aus der Storage-Ecke, weil man damit die Diskussion von anwendungsspezifischen Einzelheiten befreien kann.
Strukturell gibt es drei Alternativen für den Aufbau hinreichend skalierbarer Netze und entsprechende Protagonisten:
- Fat Tree (Cisco, Arista)
- Virtual Chassis (Juniper)
- ScaleOut (Blade, HP, IBM, Voltaire)
Man kann sie sogar in einem gewissen Grad mischen. Welche Alternative letztlich zum Einsatz kommen soll, muss jedes Unternehmen selbst entscheiden. Dabei ist entscheidend, ob man sich aus Kostengründen von den fetten Core-Switches verabschiedet.
Die Hersteller von Virtualisierungssoftware hängen dieser Entwicklung noch etwas hinterher. Ich bin aber überzeugt, dass sie ihre Hausaufgaben hier noch machen werden. vSphere 4.1 ist ein überzeugender Schritt in die richtige Richtung.
Ansonsten: es bleibt spannend!
Über den Autor
Dr. Franz-Joachim Kauffels ist seit über 25 Jahren als unabhängiger Unternehmensberater, Autor und Referent im Bereich Netzwerke selbständig tätig. Mit über 15 Fachbüchern in ca. 60 Auflagen und Ausgaben, über 1.200 Fachartikeln sowie unzähligen Vorträgen ist er ein fester und oftmals unbequemer Bestandteil der deutschsprachigen Netzwerkszene, immer auf der Suche nach dem größten Nutzen neuer Technologien für die Anwender. Sein besonderes Augenmerk galt immer der soliden Grundlagenausbildung.
Auch außerhalb seiner Autorentätigkeit für IP-Insider.de beschäftigt sich Kauffels intensiv mit der Aus- und Weiterbildung von IT-Professionals. So stellt Kauffels in Zusammenarbeit mit dem Consulting-Unternehmen ComConsult bspw. Lehr-Videos für alle Bereiche moderner Netzwerktechnik bereit.
Für die Ausgabe 12/2010 des Netzwerk Insiders von ComConsult hat Dr. Kauffels zudem einen umfassenden Low-Lateny-Report verfasst. Der „Netzwerk Insider“ ist das elektronische Informations-Magazin von ComConsult, das jeder Newsletterempfänger ein Mal im Monat kostenlos als PDF per E-Mail erhält. Der ComConsult Netzwerk Insider bietet Experten-Berichte zu Untersuchungsergebnissen, aktuellen Trends und neuesten Entwicklungen aus allen Bereichen der Netzwerktechnologie sowie Informationen zu aktuellen Veranstaltungen des Beratungsunternehmens.
Hier kann der ComConsult-Newsletter abonniert werden, zu dem auch der renommierte monatliche „Netzwerk-Insider“ gehört.
Artikelfiles und Artikellinks
(ID:2049008)