Anbieter zum Thema
Virtualisierung und ihre Anforderung an Infrastrukturen
Der Virtualisierungsmarkt wird im Wesentlichen getrieben von Citrix/Xen, Microsoft und VMware. Ergänzt wird dieses Trio durch AMD und Intel, die immer besser optimierte Prozessoren für dieses Umfeld bereitstellen. So kann mit neuester Technologie eine virtuelle Maschine im Mittel eine Auslastung zwischen 90 und 98 Prozent der nicht virtualisierten Originalmaschine erreichen.
AMD und Intel folgen mit ihren Entwicklungen weiter Moores Law und verdoppeln alle 18 Monate die Zahl der Transistoren in ihren Layouts. Es ist wichtig, die Folgen dieser Entwicklung zu verstehen. Denn im Prinzip muss eine sinnvolle Verwendung für immer mehr Prozessoren gefunden werden. Zum einen werden entsprechend immer mehr Cores pro CPU bereit gestellt, zum anderen wird immer mehr Unterstützung für Virtualisierung integriert. So erwartet man in den nächsten zwei Jahren Blades mit 4 bis 8 CPU-Sockeln, 8 Cores pro CPU und einem RAM-Bereich von mindestens 512 GB.
Damit entsteht eine Reihe wichtiger Fragen:
- Welcher Typ von Anwendung profitiert von diesen Architekturen am meisten?
- Wie hoch werden die konkreten Anforderungen an Netzwerk und Speicher-Bandbreite werden?
- Welche Spitzenlast-Situationen sind zu erwarten, wenn die Anzahl virtueller Maschinen pro Blade immer weiter steigt und damit auch die Zahl virtueller Maschinen pro CPU weiter zunimmt?
10 Gigabit kontra 40 Gigabit-Ethernet
Dieses Thema verwundert vielleicht auf den ersten Blick. 10 Gigabit-Ethernet hat sich gerade erst zur Normalität entwickelt und gilt als das modernste was Netzwerke im LAN zu bieten haben. Hinzu kommt, dass heutige Anwendungen noch nicht in der Lage sind, 10 Gigabit-Verbindungen auszulasten. Massenprodukte für 40 Gigabit-Ethernet werden Ende 2010 auf den Markt kommen. Noch in diesem Jahr kommt aber schon 16 Gb Fibre Channel. Dieser lässt sich via FCoE aber nicht auf 2 X 10 GbE mit Link Aggregation abbilden, da benötigt man dann schon 40 GbE, wenn man systematisch konsolidieren möchte.
Analysen zeigen, dass die Konzentration der gesamten I/O auf eine Technologie seine Tücken hat. Damit entstehen folgenden Fragen:
- Wie viel Bandbreite ist für welche Umgebung erforderlich?
- Wie hoch sollte die erreichbare I/O-Rate sein?
- Gibt es besondere Anforderungen an Delay und Jitter?
- Wo liegen in der Regel die Engpässe, heute und in Zukunft: im Server, im Netzwerk oder im Speicher?
weiter mit: Wandernde virtuelle Maschinen und die Konsequenzen
Artikelfiles und Artikellinks
(ID:2041390)