Suchen

"Software-definiert" führt zu besseren Business-Services Erst Software-Defined Networking macht SDDCs möglich

| Autor / Redakteur: Gerhard Abeska / Ulrike Ostler

Das Software Defined Data Center (SDDC) bildet den Abschluss der durchgehenden Virtualisierung im Rechenzentrum. Die Idee hinter dem SDDC: Die Kontrolle der Hardware wird von der selbigen getrennt.

Firmen zum Thema

Je mehr im Rechenzentrum virtualisiert ist, desto flexibler wird die Bereitstellung neuer und veränderter IT-Dienste. Deshalb bezieht sich Virtualisierung nicht nur auf Server, sondern auch auf Storage und Datennetze.
Je mehr im Rechenzentrum virtualisiert ist, desto flexibler wird die Bereitstellung neuer und veränderter IT-Dienste. Deshalb bezieht sich Virtualisierung nicht nur auf Server, sondern auch auf Storage und Datennetze.
( Péter Mács - Fotolia)

Im SDDC steuert ein zentraler Controller, der als Software auf einer virtualisierten Maschine läuft, die ebenfalls virtualisierten Netzwerk-, Sicherheits-, Storage- und Verfügbarkeits-Komponenten des Rechenzentrums. Diese Integration der Infrastrukturbausteine erlaubt eine hohe Automatisierung und einfache Orchestrierung der Komponenten, wodurch beispielsweise umfassende Cloud-Computing-Systeme realisiert werden können, die einfach und effizient zu verwalten sind.

Die Leistungsfähigkeit der Controller-Software lässt sich dabei schnell und einfach skalieren. Dies ist ein wichtiger Aspekt angesichts der Tatsache, dass der Netzwerkbereich – getrieben durch die Cloud – in den nächsten Jahren stark wachsen wird.

Die Netzwerktechnologie hat aber in Sachen Virtualisierung noch viel aufzuholen. Erst nach der Realisierung eines durchgängigen Software-Defined Networking (SDN) – also der Virtualisierung des Netzwerks und seiner Integration mit den Computing- und Storage-Komponenten – kann man auch wirklich von einem Software-Defined Datacenter sprechen.

Die Kontrollinstanz in Hardware verbaut? Kompletter Nonsens!

Und dieses bringt ein deutliches Plus an Flexibilität. Ist die Kontrollintelligenz fest in die Hardware-Komponenten eingebaut, ist es schwierig oder sogar unmöglich, ihr neue Fähigkeiten hinzuzufügen. Liegt diese Intelligenz aber in Form von Software auf einem leistungsfähigen Server, kann man sie schnell und einfach mit neuen Funktionen ausstatten und sie auf die gesamte Hardware-Plattform ausrollen.

Durch die Abstraktion der physikalischen Infrastruktur wird außerdem ihre Verwaltung erheblich vereinfacht und gleichzeitig die Nutzung der Ressourcen optimiert. Implementierungsbeispiele dafür gibt es heute bereits, etwa die Integration mit der Netzwerk-Virtualisierungs-Plattform VMware NSX, oder die Cloud-Computing-Plattform Red Hat OpenStack mit integriertem SDN.

All diese Vorteile zusammengenommen ergeben die zentrale Stärke des SDDC, nämlich bessere Business-Services. Ändern sich die Geschäftsanforderungen, können die IT-Abteilungen flexibel und agil reagieren und Infrastrukturänderungen sehr schnell zur Verfügung stellen. Aus diesem Grund wachsen die Hardware-Komponenten immer stärker zu verzahnten Infrastrukturen zusammen.

Der Anteil an konvergenter Hardware steigt

Welche Dynamik dieser Trend hat, zeigt der „Worldwide Converged Systems Forecast 2012 – 2016“ von IDC. 2012, so die Marktforscher, hatten konvergente Infrastrukturen an den weltweiten Ausgaben für Storage, Server, Netzwerk und Software noch einen Anteil von 3,6 Prozent. Für 2016 prognostiziert IDC, dass sich dieser Anteil fast vervierfachen wird.

Ein Beispiel für eine konvergente Infrastruktur ist das „Dell Poweredge-M1000e“-Blade-System. Die Lösung nutzt Komponenten für Server, Storage und Netzwerk gemeinsam in einem kompakten Gehäuse und verwaltet sie ganzheitlich über eine einzige Management-Oberfläche.

Auf dieser Basis kann es einen Pool aus virtuellen oder physischen Ressourcen für den Betrieb von Anwendungen, virtuellen Desktops oder Private Clouds bereitstellen. Eine zentrale Rolle für die effiziente Datenkommunikation spielt dabei der Blade-Switch „MXL“. Darüber hinaus unterstützt er OpenFlow und bietet damit einen Migrationsweg zu SDN. Die Silos herkömmlicher Infrastrukturen, deren Flaschenhälse hohe operative Kosten verursachen und vor allem die Qualität von IT-Services beeinträchtigten, gehören damit der Vergangenheit an.

Eine Standardisierung ist das A und O

Bei der Einführung konvergenter Infrastrukturen gilt es einiges zu beachten. So sollten Unternehmen unbedingt auf eine Plattform mit offenen, standardbasierten Technologien setzen, die sich leicht in vorhandene Umgebungen einbinden und bei Bedarf unkompliziert erweitern lässt. Durch die Unabhängigkeit von proprietären Lösungen lassen sich außerdem Kosten sparen.

Wichtig bei der Wahl des IT-Partners ist, dass er sowohl über umfassendes Technologie-Know-how in allen Einzelbereichen – Server, Storage und Networking – mitbringt, als auch über fundierte Erfahrungen in ihrem Zusammenspiel verfügt. Nur dann wird er in der Lage sein, den nötigen übergreifenden Support auf allen Ebenen zu leisten.

Gerhard Abeska
Gerhard Abeska
(Bild: Dell)

Darüber hinaus sollte er mehrere Möglichkeiten für eine flexible Herangehensweise an das Thema bieten. Möglicherweise verfügt er bereits über ein passgenaues, vorintegriertes System oder eine Referenzarchitektur für die Anforderungen des Unternehmens. Aber auch einen kompletten Do-it-Yourself-Ansatz sollte der Partner unterstützen können.

Über den Autor

Gerhard Abeska ist Networking Business Manager EMEA bei Dell.

(ID:43036365)