Anbieter zum Thema
Ist die schlechte Ausgangslage Vater des Erfolgs?
Der Erfolg der Virtualisierungstechnologien ist natürlich auch dadurch zu erklären, dass die Ausgangslage in vielen Fällen so schlecht ist, dass selbst eine weit suboptimale Virtualisierung hier schon Verbesserungen bringt. Generell kann man die Ausgangslage oft folgendermaßen charakterisieren:
- Viele alleinstehende Server mit lokalem Speicher
- Viel lokaler Speicher, unkoordinierte Ansammlungen von Network Attached Storage (NAS) und anderen lokalen Speicherformen
- SANs eher in großen Umgebungen
Das bedeutet:
- Stark unterschiedlich ausgelastete Server
- Hohe Kosten für HW, Lizenzen und Pflege
- 100% Desaster Recovery ist schwierig bis unmöglich
- Unübersichtlicher Betrieb
- Abwärme, Stromverbrauch, Platzbedarf
- Desolate Verkabelungssituation
Technisch gesehen kann man sagen, dass die Virtualisierung erst dann wirklich sinnvoll ist, wenn die zugrundeliegende Technik das unterstützt. Zunächst einmal benötigen wir also eine Multi-Core-Architektur. Das ist aber ja weiter auch nicht problematisch, da die technische Entwicklung stark in diese Richtung geht. Intel hat Mitte 2009 sogar eine 8-Core-Prozessorfamilie für Server vorgestellt, 4-Core-Prozessoren gibt es schon in Notebooks.
Daran kann man aber sofort sehen: für den Anschluss eines entsprechenden Servers an die Außenwelt sollten es schon 10 Gbps sein, Server mit Ein-Gigabit-Schnittstellen gehören der Vergangenheit an.
Am Beispiel Intel können wir das schön zeigen: der Status 2009 ist der Nehalem mit 8 Cores 16-Threads und einer 4x so großen Speicherbandbreite wie sein unmittelbarer Vorgänger. Für die Zukunft heißt das:
- Moores Law ist für die nächsten 10 Jahre gesichert
- Die 32nm-Technik ist Realität (Westmere)
- Mit 8 Sockets werden wir innerhalb der nächsten 3 Jahre bis zu 128 Cores pro Server sehen.
Natürlich gibt es auch Engpässe:
- I/O allgemein
- Kupferbasierte Schnittstellen sind auf 40 Gigabit limitiert
- 128 Cores erfordern bis zu 512 GB RAM
Fazit
Die Rechenleistung pro Server steigt in den nächsten 3 bis 5 Jahren um bis zu Faktor 10 (Core-Verdoppelung, Multithreads, mehr Leistung pro Core). Damit ist es aber noch lange nicht zu Ende. Schon 2008 hatte Intel einen experimentellen 80-Core-Prozessor auf der Größe eines halben Fingernagels. Gehen Sie einfach mal auf www.intel.com, da ist sehr schön dokumentiert, was uns alles noch erwartet.
Also, sehen wir uns in der nächsten Folge einmal an, wie das auf der Seite des Betriebssystems genau funktioniert.
Weiter mit Teil 3
Zurück zu Teil 1
Über den Autor
Dr. Franz-Joachim Kauffels ist seit über 25 Jahren als unabhängiger Unternehmensberater, Autor und Referent im Bereich Netzwerke selbständig tätig. Mit über 15 Fachbüchern in ca. 60 Auflagen und Ausgaben, über 1.200 Fachartikeln sowie unzähligen Vorträgen ist er ein fester und oftmals unbequemer Bestandteil der deutschsprachigen Netzwerkszene, immer auf der Suche nach dem größten Nutzen neuer Technologien für die Anwender. Sein besonderes Augenmerk galt immer der soliden Grundlagenausbildung.
Auch außerhalb seiner Autorentätigkeit für IP-Insider.de beschäftigt sich Kauffels intensiv mit der Aus- und Weiterbildung von IT-Professionals. So stellt Kauffels in Zusammenarbeit mit dem Consulting-Unternehmen ComConsult bspw. Lehr-Videos für alle Bereiche moderner Netzwerktechnik bereit. Neben einigen weiteren hochinteressanten Videos ist auch der rund 13-minütige Webcast „Netzwerk-Technologien der nächsten Jahre“ kostenfrei abrufbar – einzig ein Viewer-Modul muss hierfür auf dem PC installiert werden.

In seinem Video „Netzwerk-Technologien der nächsten Jahre“ stellt Dr. Kauffels seine Prognosen zur Technologie-Entwicklung der nächsten Jahre vor. Unter Berücksichtigung der Zuverlässigkeit seiner Prognosen von über 90 Prozent in den letzten 20 Jahren ist dieses Video ein Muss für jeden Netzwerker.
Artikelfiles und Artikellinks
Link: Übersicht aller Grundlagenbeiträge von Dr. Kauffels
Link: Video "Netzwerk-Technologien der nächsten Jahre"
Link: ComConsult Study.TV
Link: ComConsult-Report "Konsolidierung im Rechenzentrum"
Link: ComConsult-Report "100G und 100G Ethernet: Anwendungen, Technik, Standards, Produkte"
Link: ComConsult-Report "Aktuelle Netzwerkstandards in der Analyse"
Link: ComConsult-Kongress "Rechenzentrum Infrastruktur-Redesign Forum 2010"
(ID:2045721)