Suchen

Netzwerk-Grundlagen – Rechenzentrumsnetze im Umbruch, Teil 2

Virtualisierung – Motivation und Grundbegriffe

Seite: 3/3

Firmen zum Thema

Ist die schlechte Ausgangslage Vater des Erfolgs?

Der Erfolg der Virtualisierungstechnologien ist natürlich auch dadurch zu erklären, dass die Ausgangslage in vielen Fällen so schlecht ist, dass selbst eine weit suboptimale Virtualisierung hier schon Verbesserungen bringt. Generell kann man die Ausgangslage oft folgendermaßen charakterisieren:

  • Viele alleinstehende Server mit lokalem Speicher
  • Viel lokaler Speicher, unkoordinierte Ansammlungen von Network Attached Storage (NAS) und anderen lokalen Speicherformen
  • SANs eher in großen Umgebungen

Das bedeutet:

Bildergalerie
  • Stark unterschiedlich ausgelastete Server
  • Hohe Kosten für HW, Lizenzen und Pflege
  • 100% Desaster Recovery ist schwierig bis unmöglich
  • Unübersichtlicher Betrieb
  • Abwärme, Stromverbrauch, Platzbedarf
  • Desolate Verkabelungssituation

Technisch gesehen kann man sagen, dass die Virtualisierung erst dann wirklich sinnvoll ist, wenn die zugrundeliegende Technik das unterstützt. Zunächst einmal benötigen wir also eine Multi-Core-Architektur. Das ist aber ja weiter auch nicht problematisch, da die technische Entwicklung stark in diese Richtung geht. Intel hat Mitte 2009 sogar eine 8-Core-Prozessorfamilie für Server vorgestellt, 4-Core-Prozessoren gibt es schon in Notebooks.

Daran kann man aber sofort sehen: für den Anschluss eines entsprechenden Servers an die Außenwelt sollten es schon 10 Gbps sein, Server mit Ein-Gigabit-Schnittstellen gehören der Vergangenheit an.

Am Beispiel Intel können wir das schön zeigen: der Status 2009 ist der Nehalem mit 8 Cores 16-Threads und einer 4x so großen Speicherbandbreite wie sein unmittelbarer Vorgänger. Für die Zukunft heißt das:

  • Moores Law ist für die nächsten 10 Jahre gesichert
  • Die 32nm-Technik ist Realität (Westmere)
  • Mit 8 Sockets werden wir innerhalb der nächsten 3 Jahre bis zu 128 Cores pro Server sehen.

Natürlich gibt es auch Engpässe:

  • I/O allgemein
  • Kupferbasierte Schnittstellen sind auf 40 Gigabit limitiert
  • 128 Cores erfordern bis zu 512 GB RAM

Fazit

Die Rechenleistung pro Server steigt in den nächsten 3 bis 5 Jahren um bis zu Faktor 10 (Core-Verdoppelung, Multithreads, mehr Leistung pro Core). Damit ist es aber noch lange nicht zu Ende. Schon 2008 hatte Intel einen experimentellen 80-Core-Prozessor auf der Größe eines halben Fingernagels. Gehen Sie einfach mal auf www.intel.com, da ist sehr schön dokumentiert, was uns alles noch erwartet.

Also, sehen wir uns in der nächsten Folge einmal an, wie das auf der Seite des Betriebssystems genau funktioniert.

Weiter mit Teil 3

Zurück zu Teil 1