Virtualisiertes Load Balancing im Fokus

Server-Virtualisierung mit virtualisierten Load Balancern optimiert

| Autor / Redakteur: Detlef Lilje / Andreas Donner

Das Beste aus holt man dann aus der Server-Virtualisierung heraus, wenn diese mit virtualisierten Load Balancern kombiniert wird.
Das Beste aus holt man dann aus der Server-Virtualisierung heraus, wenn diese mit virtualisierten Load Balancern kombiniert wird. (Bild: vallepu - Fotolia.com)

Der Trend zur Virtualisierung ist ungebrochen. Meist entsteht dabei eine gemischte Umgebung aus eigener und Cloud-basierter Infrastruktur plus Applikationen. Jetzt müssen die Zugriffe der Anwender auf die virtualisierten Server und Applikationen mithilfe von Load Balancern sinnvoll und flexibel verteilt werden.

Virtualisierte Load Balancer reduzieren weiter die Anzahl physischer Ressourcen, die benötigt werden, um eine Anwendung zu effektiv bereitzustellen. Das wiederum senkt die Hardware- und Betriebskosten. Darüber hinaus sind sie auch flexibler als an Geräte-gebundene Load Balancer (Appliances). Die Leistung virtualisierter Load Balancer und ihre Integration in das Netzwerk können außerdem sehr schnell und mit wenig Aufwand an sich ändernde Anforderungen angepasst werden.

Im Zuge großflächiger Konsolidierungen sollten IT-Leiter also unbedingt auch die bisher verwendeten Konzepte für die anwendungsspezifische Ressourcen-Zuordnung überdenken.

Smarter arbeiten und Kosten senken

Die Konsolidierung betrifft aber auch die IT-Abteilungen selbst, die sich von Kostenstellen hin zu Service-Vermittlern für die Fachabteilungen wandeln. Mit einem geeigneten Berechnungsmodell kann diesen die eigene Nutzung der IT-Ressourcen genau aufgeschlüsselt in Rechnung gestellt werden. Die Ressourcen werden in diesem Modell nicht nur optimal bereitgestellt, sondern auch Hardware-, Software- und Netzwerk-Installationen auf das absolut Nötige reduziert. Statt zu viel Hard- und Software zu kaufen, um zukünftige Trends zu antizipieren, macht ein solches Berechnungsmodell die Nutzung transparent. Zudem hilft es Unternehmen, das Geschäftsmodell an einer optimierten Zuordnung der Ressourcen auszurichten.

Intelligente Load Balancer sind auch als Application Delivery Controller (ADC) bekannt. Sie bieten einen zuverlässigen Mechanismus, der Hochverfügbarkeit bei geschäftskritischen Anwendungen optimal sicherstellt, ohne dass andere Anwendungen auf überlasteten Servern „verhungern“ müssen.

Da in einer hochverfügbaren Anwendungs-Infrastruktur der gesamte Datenverkehr der Anwendung über die ADCs verarbeitet wird, sitzen sie an der richtigen Stelle, um ein Berechnungs-Framework zu unterstützen und Einblicke in die Infrastruktur-Auslastung zu liefern. Bei Verwendung einer mandantenfähigen Lösung können Unternehmen zudem die Steuerung der Applikationsbereitstellung voneinander unabhängig und individuell in die Hände der Fachbereiche verlagern.

Load Balancing und Application Delivery

Load Balancing-Lösungen sind seit fast zwei Jahrzehnten im Einsatz – sie verteilen Zugriffe auf Server-Anwendungen (Balancing), stellen sicher, dass User je nach Anwendung stets zum selben Server gelangen (Persistence), und prüfen ob die Anwendungen auf den Servern auch tatsächlich verfügbar sind (Healthcheck).

ADCs bieten zusätzliche Funktionalität, die den Wirkungsgrad der Anwendung erhöht. Dazu gehört einerseits das Überwachen des Betriebszustandes und der Anwendungslasten direkt auf dem Server, und davon abhängig das Treffen von Entscheidungen zur Lastverteilung. ADCs agieren auf Anwendungsebene (Layer 7) und können damit auf spezifische Anwendungsparameter reagieren. Andererseits analysieren sie die Endanwender-Anforderungen an die Software und leiten Anwendungsanfragen an den für diese Aufgabe am besten geeigneten Server weiter.

Sicherheit inklusive

Diese Analyse der Datenpakete ermöglicht darüber hinaus den Einsatz von Security-Mechanismen. Von der Erkennung und Behandlung von DoS-Attacken, über Intrusion Prevention-Mechanismen bis hin zur immer wichtiger werdenden Web Application Firewall (WAF) stellen ADCs die heute notwendigen Funktionen integriert zur Verfügung. Sie interagieren mit den Anwendern, fragen Login-Informationen ab und steigern mit Single-SignOn-Mechanismen den Nutzungskomfort von Anwendungen – und erhöhen durch die implizite Reverse-Proxy-Funktion gleichzeitig die Sicherheit auf Serverseite bei der Anwendungsbereitstellung außerhalb des Unternehmens-Netzwerks.

Ein bidirektionales Monitoring gibt Auskunft über die Performance und Nutzung der Applikationen. Über APIs fließen diese Daten in unterschiedliche Management- und Monitoring-Lösungen wie z.B. Microsoft System Center oder Nagios ein, um so für eine konsolidierte Ansicht auf die gesamte Anwendungslandschaft zu sorgen. So kann die IT-Abteilung die Anwendungsleistung und Ressourcennutzung verbessern, aber im Bedarfsfall auch neue Server hinzunehmen.

Mit der Konsolidierung der Rechenzentren sollte man auch über den sinnvollsten Ansatz bei der applikationszentrierten Ressourcennutzung nachdenken. Ein führender Finanzdienstleister beschreitet beispielsweise einen neuen Weg. Statt zuerst Infrastrukturen aufzubauen und dann die Anwendungen bereitzustellen, hat er das Verfahren umgedreht. Das Unternehmen, das fast seine gesamte Infrastruktur inklusive aller Anwendungen virtualisiert hat, schreibt erst die Anwendungen und entscheidet danach, welche Infrastrukturen zu deren Unterstützung benötigt werden.

Dem CIO zufolge verschafft dieser „flüssige“ Ansatz der Organisation eine größere Flexibilität während des gesamten Lebenszyklus der Applikation: vom Bereitstellen über das Verlagern bis hin zur Außerbetriebnahme.

Ein weiterer Vorteil ist das bessere Verknüpfen von Anwendungen und Ressourcen. Virtualisierte ADC lassen sich hier ideal integrieren, wenn die Lizensierung einen „pay-as-you-grow“-Ansatz unterstützt – es fallen nur die Kosten für die tatsächlich benötigte Leistung an, diese kann stufenweise und ohne Notwendigkeit der Aufrüstung von proprietärer Hardware erweitert werden.

Fazit

Beim Konsolidieren unternehmensweiter Rechenzentren kommt es darauf an, betriebliche Konsistenz zwischen Ressourcen sicherzustellen, die in die Cloud wandern, und solchen, die vor Ort verbleiben. Dank dieser Konsolidierung können Unternehmen ihre Betriebskosten (TCO) senken sowie flexibler und effizienter werden.

Detlef Lilje
Detlef Lilje (Bild: KEMP Technologies)

Doch noch viel drastischere Kosteneinsparungen stellen sich ein, wenn die Server-Virtualisierung mit virtualisierten Load Balancern kombiniert wird. Virtuelle ADCs erhöhen die Anwendungsleistung, Verfügbarkeit, Skalierbarkeit und geschäftliche Agilität – sowohl in traditionellen Rechenzentren als auch in dynamischen und flexibel anpassbaren Hybrid-Cloud-Umgebungen.

Über den Autor

Detlef Lilje ist Director Central/Eastern Europe and Middle East bei KEMP Technologies EMEA.

Kommentare werden geladen....

Kommentar zu diesem Artikel

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43004771 / Virtualisierung)