Kommentar von Chris James zur Leistungsanalyse von virtualisierten Hybrid-Infrastrukturen Die Hybrid-Cloud stellt Performance-Analyse End-to-End vor Probleme

Autor / Redakteur: Chris James / Rainer Graefen

Das Backup oder Disaster Recovery braucht im Anwendungsfall eine solide Übertragungsstrecke mit ausreichenden Bandbreitenreserven. In einer virtualisierten Hybrid Cloud wird das schnell zum Wunschdenken. Chris James von Virtual Instruments zeigt wie Lösungen aussehen könnten.

Firma zum Thema

Chris James, Director of EMEA Marketing bei Virtual Instruments
Chris James, Director of EMEA Marketing bei Virtual Instruments
(Virtual Instruments)

Die Art, wie etwas verwaltet wird, hat einen direkten Einfluss auf das Ergebnis: ganz gleich, ob es sich um ein Fußballspiel handelt, den Bau eines Gebäudes, oder die Erstellung einer Datensicherungsstrategie. Wenn Schritte übersprungen, Elemente nicht ausreichend überprüft oder Faktoren nicht abgewogen werden, dann kann das Ergebnis nicht alle Erwartungen erfüllen.

Nehmen wir Datensicherung und Disaster Recovery als Beispiel. Beide sollen die wichtigsten Werte eines Unternehmens schützen: Informationen. Und dennoch können sie praktisch nutzlos sein, wenn sie nicht richtig implementiert sind. Heutzutage wollen viele Unternehmen Ihren Mitarbeitern rund um die Uhr Zugriff auf ihre Firmendaten gewähren. Wenn das System nur wenige Minuten lang ausfällt, können schnell Schäden in Millionenhöhe entstehen.

Komplexität rausnehmen

Doch bevor wir überhaupt die Dauer von Ausfällen betrachten, müssen wir die Möglichkeit erwägen, dass Daten überhaupt nicht mehr wiederhergestellt werden können. Einem der weltweit führenden Lieferanten für schnelldrehende Produkte (Fast-moving Consumer Goods, FMCG) wurde gerade noch rechtzeitig bewusst, wie wichtig es ist, seine SAN- und Datensicherungsstrategie immer auf dem neuesten Stand zu halten.

Der Global Enterprise Computing Director einer der weltweit führenden FMCG-Unternehmen bemerkte ganz richtig: „Ohne die richtigen Instrumente kann man keine guten Entscheidungen treffen und Kosten einsparen. Es ist paradox: Je weiter man seine Technik entwickelt, desto komplexer wird das System, wodurch wiederum das Risiko steigt, dass eine Komponente ausfällt.

Wir verfügen über eine Speicherkapazität von 12 Petabyte und knapp 15.000 Fibre ChannelSwitch-Ports. Die Multipath-Ausfallsicherung arbeitete nicht wie vorgesehen, wodurch der ganze Datenverkehr unserer Bandbibliothek über nur eine Fabric-Seite lief. Solche Vorfälle verursachen eine Gänsehaut, aber zumindest kann man reagieren, wenn man Bescheid weiß."

In diesem Fall war das Problem, dass ein ganzheitlicher und erschöpfender Überblick über das gesamte SAN fehlte. Das ist ein ganz klares Beispiel dafür, wie Unternehmen erst einmal einen Schritt zurücktreten sollten, bevor Sie überhaupt anfangen, über Ihre Datensicherungsstrategie nachzudenken, und wie Sie sichergehen sollten, dass Sie einen ausreichenden Überblick über Ihre IT-Infrastruktur als Ganzes haben.

In der Hybrid Cloud funktionieren die klassischen Management-Tools nicht

Die Versprechung einer virtualisierten dynamischen Ressourcenallokation sind zwar sehr verlockend, bergen aber das Risiko in sich, dass traditionelle Managementinstrumente nicht richtig angewendet werden können. Wenn Anwendungen über verschiedene virtuelle Systeme verteilt werden können, also eine interne private Cloud und zur Kapazitätsmaximierung eine externe Hybrid-Cloud genutzt werden, können herkömmliche Managementinstrumente nicht mehr Schritt halten und die Gesamtleistung dieser Anwendung messen, da sie aus diesem dynamischen Ressourcenpool gespeist wird.

Die realen Systeme, die sowohl den virtuellen als auch den Cloud-Infrastrukturen zugrunde liegen, werden durch den steigenden Abstraktionsgrad, der durch die virtualisierten Ebenen auf ihnen verursacht wird, immer komplexer. Die Ressource, die eindeutig am meisten geteilt wird, ist die Speicherkapazität. Ich würde sogar sagen, dass Speichersyteme die erste „Cloud" waren, als sie von den realen Servern abstrahiert, zentralisiert und dann mehreren Usern zugänglich gemacht wurden.

Dennoch bieten Storage-Systeme die geringsten Einblicke in ihre Nutzung und überhaupt keine Einblicke in ihre Auswirkung auf die Leistung eines Systems. Es gibt zwar Spot-Tools, die die Leistung eines einzelnen Arrays messen können, doch sie beziehen sich eben nur auf diesen einen Anbieter und auf diesen einen Array und seine Leistung und nicht auf die Auswirkung seiner Leistung auf das gesamte System.

Die Cloud stellt Perfomance-Messung End-to-End vor Probleme

Das führt zu verschiedenen Problemen auf dem Markt, da die Kunden „sich auf die Cloud stürzen und immer höhere Virtualisierungsraten anstreben". Zuerst einmal erfordern Cloud-Umgebungen generell neue Funktionen des Infrastructure Performance Managements (IPM). Die Grundanforderungen hierfür sind: es muss eine Multi-Vendor-Lösung sein, die mit verschiedenen Hypervisoren sowie Storage-und Netzwerk-Anbietern kompatibel ist.

Solch eine Lösung muss Einblicke in die verschiedenen Ebenen eines Systems und die zugehörigen Leistungen geben. Insbesondere für die Datensicherung und Geschäftskontinuität reicht es generell nicht aus, sich nur auf den Server-Stack oder virtuellen Server-Stack zu konzentrieren.

Es ist auch nicht genug, nur den Storage-Stack zu betrachten. Man muss alle Ebenen einer Multi-Vendor-Umgebung betrachten können , um die Anforderungen des Infrastructure Performance Managements zu erfüllen. Dadurch werden die Risiken für die Leistung und Verfügbarkeit von Anwendungen eliminiert, die durch die Migration zu einer virtuellen Infrastruktur oder einer privaten Cloud entstehen.

Die Messung der Gesamtleistung ist Plattform abhängig

Sobald die Risiken der Migration auf ein Minimum reduziert und die Einblicke in ein mehrschichtiges Multi-Vendor-System ermöglicht werden, können die Kosten und Komplexität der Infrastruktur an das SLA angepasst werden, das für das Unternehmen notwendig ist, um seine Systeme mit den verfügbaren Ressourcen zu optimieren.

Heutzutage ist es nicht mehr ausreichend, nur ein einziges Element zu optimieren, um eine Infrastruktur und letztendlich die zugehörigen Daten ausreichend zu schützen. Man kann vielleicht sein Storage-System optimieren. Doch was sind die Auswirkungen für die Gesamtleistungen der abhängigen Systeme?

Desgleichen kann die Virtualisierung die Serverauslastung erheblich steigern. Doch die Auswirkungen auf den eigentlichen Datenverkehr sind nicht vorhersehbar. Und das führt uns zum zweiten Problem: Das Management von virtuellen Systemen ist heutzutage plattformspezifisch.

Das Storage Management lässt sich nicht mit der Geräteauslastung korrelieren

Kein Unternehmen betreibt eine einzige Plattform für alle Anwendungen und alle virtualisierten Server in seiner IT-Umgebung. Die beiden bevorzugten Plattformen sind AIX- und logische Partitionen für die geschäftskritischen UNIX-Systeme und VMware auf x86-Systemen für Linux- und Windows-Infrastrukturen. Ein gutes Infrastructure Performance Management System muss mit beiden Plattformen kompatibel sein.

Das letzte Problem - in der „realen Welt" - sind die geräteabhängigen Enterprise Systems Management Tools. Doch ehrlich gesagt, sind sie für Cloud-Infrastrukturen einfach nicht mehr relevant. Das Management von Storage-Ressourcen, die traditionelle Herangehensweise an die teuerste und komplexeste Ebene in der Infrastruktur, bietet keinerlei Einblick in die Leistung eines Systems und kann die begrenzten Informationen über die Auslastung der Geräte eines bestimmten Anbieters nicht mit der Auslastung des gesamten Systems und den resultierenden Leistungsanforderungen in Zusammenhang bringen.

Was also benötigt man für eine ausreichende Daten- und Systemsicherungsstrategie?

Erstens muss die Leistung in Echtzeit gemessen und protokolliert werden. Und damit ist die Übertragungsrate gemeint, und zwar bis auf die Mikrosekunde genau, akkumuliert in Einsekunden-Intervallen und an die Plattform weitergeleitet. Das Messen in Echtzeit ist keine Reise in die Vergangenheit, wo der Durchschnitt von Durchschnitten auf Grundlage von Abfrageintervallen berechnet wurde. Es dient auch nicht dazu, eine tatsächliche Leistungskennzahl zu berechnen.

Insbesondere bei Cloud-Infrastrukturen, aber selbst in rein virtualisierten Umgebungen ist es schon Minuten, nachdem ein Problem oder ein Leistungsabfall aufgetreten ist, nicht mehr möglich, einen Vorfall zu analysieren. Zweitens muss ein System immer überwacht werden. Um die Protokolldaten im Kontext interpretieren zu können, muss man wissen, was gerade in der Umgebung passiert. Daher benötigt man eine Lösung auf Systemebene, die sich speziell auf die immer enger verbundenen Computer- und Storage-Umgebungen konzentriert.

Wenn große Bladecenter mit fortschrittlichen Fabrics eingesetzt werden, die durch neue virtualisierte Storage-Technologien unterstützt werden, sollte man immer alle Geräte überwachen und die Daten mit den zugrundeliegenden Protokolldaten abgleichen, um einen Systemüberblick in Echtzeit zu erhalten.

Wen interessieren diese Daten in einem Unternehmen?

Dem SAN- und Storage-Architektur-Team, das durch das immer größer werdende, alles durchdringende Abstraktionslevel am meisten unter Druck gesetzt und beansprucht wird, wird mit diesen Daten unmittelbar geholfen. Damit kann das Team den aktuellen Systemstatus optimieren, um eine höhere Auslastung bei gleichbleibender Leistung zu erreichen und das System dabei weiter zu entwickeln.

Dadurch werden intelligente Investitionen getätigt und vernünftige SLAs abgeschlossen, was wiederum die Gesamtspeicherkosten senkt. Bei IT-Unternehmen, die „IT as a Service" über Virtualisierungs- und Cloud-Technologien anbieten, besteht ein sehr großes Interesse an diesen Daten, da sie ihnen ermöglichen, die mittlere Zeit bis zur Problembehebung zu verkürzen und, was noch wichtiger ist, sich von einem reaktiven Management zu lösen und sich hin zu einem proaktiven Infrastruktur-Management zu bewegen.

Das SAN darf nicht zum Engpass werden

Das führt letztendlich zu mehr Leistung bei geringeren Gesamtbetriebskosten. Durch den Einfluss von SAN-Teams auf die Storage-Architektur und die Ermöglichung von IT-Operationen und der Erbringung von Dienstleistungen profitieren auch ganz klar die Anwendungseigentümer und die Unternehmen, die darauf angewiesen sind, dass ihre Provider ihre Anwendungen unterstützen, die das Geschäft voranbringen und letztendlich für Umsätze sorgen.

Die Infrastructure Performance Management Plattform bietet Anwendungseigentümern wirkliche Leistungskennzahlen. Dadurch gewinnen sie an Vertrauen in die Cloud und entscheiden sich eher, ihre Anwendungen zu migrieren. Die Möglichkeit, die genaue Leistung und Auslastung einer Infrastruktur zu instrumentalisieren und zu verstehen, eliminiert die Risiken bei einer Migrationen und garantiert Unternehmen eine solide, vorhersagbare Infrastrukturleistung.

(ID:38321820)