Mobile-Menu

Verwaltung und Überwachung von Cloud-Szenarien im Datacenter Deployment und Automatisierung von cloud-basierten Diensten

Autor / Redakteur: Johann Baumeister / Florian Karlstetter

Cloud-Techniken und Virtualisierung läuten einen Paradigmenwechsel in der IT ein. Dies betrifft auch die Rechenzentren. Anstelle des Serverbetriebs der Vergangenheit tritt ein ganzes Bündel an neuen Aufgaben und Abläufen, die es zu bewältigen gilt.

Firmen zum Thema

Cloud-Szenarien erfordern Umdenken bei der Pool-Bildung von Ressourcen und automatisierten Deployment-Prozessen. (© Andrea Danti - Fotolia.com)
Cloud-Szenarien erfordern Umdenken bei der Pool-Bildung von Ressourcen und automatisierten Deployment-Prozessen. (© Andrea Danti - Fotolia.com)

Die Virtualisierung hat gravierende Umwälzungen für die Rechenzentren zur Folge. Dies bleibt nicht ohne Auswirkungen auf die Verwaltungsprozesse und Werkzeuge. Die anstehenden Veränderungen betreffen die Server, die Netzwerke und Infrastruktur des Rechenzentrums gleichermaßen. Ausgehend von der Beschaffung der Geräte, über die Installation, der laufenden Überwachung, der Wartung und Abrechnung der IT-Systeme sind alle Verwaltungsaufgaben von den Änderungen betroffen. Bestehende Prozesse und Werkzeuge werden dabei durch neue Verfahren und Tools abgelöst.

Mit der Virtualisierung ändern sich die Rahmendaten für die Applikationsbereitstellung. Die virtuelle Maschine fasst Betriebssystem und Applikation als Einheit zusammen. Hinsichtlich des Deployments von Cloud-basierten Diensten haben virtuelle Maschinen enorme Vorteile, denn sie bündeln meist ein komplettes Server-Image samt Applikation und Konfiguration in einem Gebilde. Vorteilhaft ist auch die Absicherung für den Fehlerfall. Durch die Bündelung ist die Inbetriebnahme oder der Wiederanlauf sehr schnell durchzuführen.

Bildergalerie
Bildergalerie mit 6 Bildern

Dynamische Bereitstellung von Applikationen durch Templates

Der Nachteil virtueller Szenarien im Vergleich zu physischen Systemen liegt in den geringeren Leistungsreserven für Lastspitzen. Um dennoch auf Laständerungen angemessen reagieren zu können, werden die Applikationen dynamisch bereit gestellt. Hierbei schnürt man die Applikationsdienste in vordefinierte Pakete (Templates). Diese werden dann auf einem auf standardisierten Rechner zur Ausführung gebracht (provisioniert).

Die Templates führen die Konzepte fort, wie sie beispielsweise auch durch das Imaging oder die Virtualisierung bereits etabliert sind. Beide Verfahren sind unschlagbar schnell in der Bereitstellung eines Dienstes. Ähnlich wie die Images oder virtuelle Maschinen wird in den Templates die gesamte Lautzeitumgebung einer Applikation zusammengefasst. Dies umfasst die Codemodule aber auch die Konfiguration und die Voraussetzungen zum Betrieb der Images.

Automatismen zur Provisionierung

Da die Templates die Anforderungen der IT-Dienste an die Infrastruktur abbilden, ermöglichen sie auch eine rechnergestützte Einsatz- oder Kapazitätsplanung. Dazu gehört auch eine grafische Modellierung der Einsatzszenarien. In der Verknüpfung eines Templates und seinen Anforderungen mit einer physischen oder virtuellen Ausführung entstehen dabei völlig neue Möglichkeiten der Applikationsbereitstellung.

Geht man gar einen Schritt weiter in Richtung automatisierter Provisionierung, dann werden die Kapazitäts-Angaben zu den Ressourcen in den Templates geradezu zwingend, denn sonst ist kein Automatismus möglich.

Durch die Nutzung von Templates wird somit das Deployment von Anwendungen revolutioniert. Zu ihrem Lauf benötigen sie aber, wie auch ihre Vorgänger, eine passende Ausführumgebung, also Serversysteme. Doch auch in dieser Hinsicht zeichnen sich bahnbrechende Veränderungen ab.

Deployment auf standardisierter Hardware

Applikationen werden auf Server ausgeführt. Die traditionellen Server sind als Tower-Server, Pizza-Box oder Rack-Einschub verfügbar. Seit wenigen Jahren kommen die Rechner-Blades dazu. Die einzelnen Serverbaugruppen werden durch die Steckkarten, Bussystem und Verkabelung verknüpft. Die Anbindung zu weiteren Servern erfolgt mittels der Netzwerke durch die rückseitige Verkabelung.

Zum Betrieb einer Applikation werden aber immer mehrere Baugruppen, wie etwa der Server und seine Anbindung an die Speichersysteme benötigt. Dies zieht eine relativ umfangreiche Verwaltung nach sich, denn einen Server hinzuzunehmen verlangt dabei immer nach der Verkabelung mit den weiteren IT-Einrichtungen. Standardisierte Rechnersysteme wie etwa Blades helfen, die Situation zu vereinfachen, denn ein Blade-Rechner stellt ein geschlossenes und fertiges System dar, dass zum Betrieb bedeutend weniger externe Unterstützung benötigt. Dies reduziert die Verkabelung und Konfiguration.

In Verbindung mit dem Blade-Gehäuse entsteht somit ein vollwertiges und eigenständig operierendes Gebilde, das weitgehend ohne externe Unterstützung auskommt. Blades benötigen heute aber noch die Anbindung an die weiteren Komponenten wie etwa dem Speichersystem für die Daten und die Verknüpfung untereinander durch die Netzwerke.

Rechnerpools auf die Spitze getrieben

Noch eine Stufe weiter gehen die Konzepte mit den vorbereiten Rechnern in Containern. Dabei werden Server, zusammen mit Speicher, der Netzwerkverkabelung und der Rechenzentrums-Infrastruktur in einen vorbereitet Container gepackt. Die führenden und großen Hersteller von Server, wie etwa IBM und HP bieten hier längst vorbereitet Lösungen an.

Diese Container umfassen gewissermaßen ein Rechenzentrum auf engstem Raum. Die darin verbaute Hardware ist universell nutzbar. Vom Standpunkt der Skalierbarkeit sind diese Rechnerpools unschlagbar.

Bildergalerie
Bildergalerie mit 6 Bildern

Es spielt dabei keine Rolle mehr, ob der physische Server für ein Datenbankmanagementsystem, ein ERP-System oder etwa zur Virtualisierung herangezogen wird. Der Trend geht eindeutig in die letzte Richtung. Der Einsatz von Rechenzentren-Container ändert aber auch den gesamten Wartungs- und Nutzungszyklus. Fällt beispielsweise einer der physischen Server aus, so wird seine Last kurzerhand von einem weiteren und freien Gerät übernommen. Die Übertragung der Last wird dabei durch die Live Migration-Funktionen der Hypervisoren vorgenommen.

Der Transfer des Dateisystems und der Plattenspeicherinhalte wiederum erfolgt durch die, in den Speichersystemen integrierten Replikationsfunktionen. Zur Ausfallsicherung haben VMware und Microsoft Cluster-Funktionen in ihre Systeme integriert. Mittels Storage vMotion (VMware) oder die Clustered Shared Volumes von Microsoft werden die System gegen Ausfälle abgesichert. Defekte Server werden so kurzerhand deaktiviert.

Bildergalerie
Bildergalerie mit 6 Bildern

Ändern werden sich auch Wartung und Service. Da ein defekter Server ohnehin durch einen anderen Server im Container ersetzt wird, muss er auch nicht zeitnah ausgetauscht werden. Dies wäre oftmals auch unverhältnismäßig kostspielig. Anstelle der individuellen Wartung und Reparatur einzelner Systeme tritt dann eine periodische Wartung der gesamten Container als Einheit.

Fazit

Die Verwaltung und Überwachung der Datacenter für Cloud-Szenarien hat mit dem traditionellen Rechenzentrumsbetrieb nur wenig gemeinsam. Die über Jahre praktizierten Arbeitsabläufe, die Techniken und verwendeten Werkzeuge werden sich ändern müssen. Anstelle eines fest vorgegebenen Ablaufs von der Beschaffung, über die Installation und den Betrieb der Geräte treten in Zukunft flexiblere Konzepte. Pool-Bildung der Ressourcen und automatisierte Deployment-Prozesse treten an die Stelle der traditionellen Serververwaltung.

(ID:32714010)