Suchen

Ausfallsichere Server im Kostenvergleich Was darf Hochverfügbarkeit kosten?

Autor / Redakteur: Ulrich Lenz / Dipl.-Ing. (FH) Andreas Donner

Der Ausfall wichtiger IT-Systeme kann für ein Unternehmen gravierende Folgen bis hin zur Existenzgefährdung haben. Stand-By-, Cluster- und fehlertolerante Server bieten Ausfallsicherheit auf unterschiedlichem Niveau und heben sich auch hinsichtlich Investition und Betriebskosten deutlich voneinander ab. Vermeintlich preiswerte Lösungen erweisen sich dabei meist schon mittelfristig als recht kostspielig.

( Archiv: Vogel Business Media )

Sicherheit gibt es auch in der IT nicht zum Nulltarif. Wer für seine Geschäftsprozesse mehr Verfügbarkeit benötigt als sie die handelsüblichen Systeme bieten, muss mit höheren Kosten sowohl in der Anschaffung als im Unterhalt rechnen. Allerdings kann auch der Verzicht auf zusätzliche Sicherheit ganz schön teuer werden – wobei den wenigsten Unternehmen bewusst ist, wie viel sie ein auch nur kurzzeitiger Ausfall ihrer Server-Systeme kosten kann.

Oft besteht schon über die wahrscheinlichen Ausfallzeiten der eingesetzten Systeme nur wenig Klarheit. „Normale“ Server, also Systeme, die nicht speziell für hohe Zuverlässigkeit getunt sind, erreichen heute eine Verfügbarkeit von rund 99,5 Prozent. Das ist zwar erheblich mehr als solche Geräte früher erreicht haben, bedeutet aber immer noch eine mittlere jährliche Ausfallzeit (Downtime) von zwei bis über 40 Stunden. Cluster-Systeme erreichen dagegen Verfügbarkeitswerte zwischen 99,95 und bis zu 99,99 Prozent und fallen damit auch noch bis zu einer Stunde lang aus.

Bildergalerie
Bildergalerie mit 6 Bildern

Die Kosten des Stillstands

Die Kosten einer solchen Stunde des Server-Stillstands hängen stark von der jeweiligen Branche und der Art des jeweiligen Geschäftsmodells ab. Auch in Zeiten vollständiger IT-Durchdringung gibt es natürlich immer noch Tätigkeiten, denen man sich zuwenden kann, solange die IT nicht verfügbar ist. Ganz anders verhält es sich, wenn die IT die Prozesse nicht unterstützt, sondern sie unmittelbar steuert. Dann steht während einer Downtime beispielsweise die Produktion oder Auslieferung, Artikel kommen nicht aus dem Lager, Kunden können nicht bestellen oder – noch schlimmer – nicht bezahlen.

Verfügbarkeit auf unterschiedlichem Niveau

Im kommerziellen Einsatz müssen die möglichen Downtime-Kosten den Kosten für hochverfügbare IT-Systeme gegenübergestellt werden. Hochverfügbarkeit war in der Vergangenheit nur durch teuere Spezialsysteme wie zum Beispiel Tandem Himalaya oder durch proprietäre Lösungen realisierbar, die Investitionen im Millionen-Bereich forderten, die im Unterhalt entsprechend teuer waren und zudem Spezialsoftware benötigen.

Seit Ende der 90er-Jahre sind aber auch verstärkt preiswertere Lösungen verfügbar. Sie verwenden ganz unterschiedliche Technologien, bieten dementsprechend Verfügbarkeit auf unterschiedlichem Niveau und unterscheiden sich natürlich auch hinsichtlich der Kosten.

  • Stand-By-Systeme: Redundante Systeme übernehmen bei Ausfällen wechselseitig die Prozesse. Durch Umschalten und Übergabe der Prozesse sind Ausfallzeiten unvermeidlich, die Konsistenz von Daten und Transaktionen muss separat sichergestellt werden. Erreichbare Verfügbarkeit: 99,5 bis 99,9 % (bis 8,7 Stunden ungeplante Downtime p.a.)
  • Cluster-Systeme: Wichtige Komponenten der Systeme sind redundant ausgelegt, bei Störungen sorgen spezielle Algorithmen Software-gesteuert für ein Umschalten, dadurch kommt es zu kurzen Ausfallzeiten und ggf. zum Verlust offener Transaktionen. Erreichbare Verfügbarkeit: 99,95 bis 99,99% (bis 4 Stunden unge-plante Downtime p.a.)
  • Fehlertolerante Systeme: sämtliche Komponenten sind redundant ausgelegt, sämtliche Prozesse laufen parallel, so dass im Störungsfall keine Zeit durch den Wechsel auf funktionierende Komponenten ver-loren geht. Erreichbare Verfügbarkeit: 99,999 bis 99,9999% (maximal 5 Minuten ungeplante Downtime p.a.)

Auf der Kostenseite ist neben der Beschaffung der Hardware natürlich eine Reihe weiterer Faktoren zu berücksichtigen, so insbesondere die Kosten von Betriebssystem, Datenbanken, Applikationen, Implementierung, Serviceverträgen, Schulungen sowie die Betriebskosten für Administration usw.

Entsprechend der technologischen Eigenarten der genannten Systeme schlagen diese Faktoren verschieden zu Buche. So müssen Applikationen für Cluster-Systeme angepasst werden, damit sie deren Leistungsfähigkeit auch in vollem Umfang nutzen können. Demgegenüber sind Stand-By-Server mit normaler Software zufrieden. Fehlertolerante Systeme wie die ftserver von Stratus sind seit einiger Zeit auch für die Standard-Betriebssysteme Windows und Linux verfügbar, die entsprechenden Applikationen laufen ohne Änderungen. Insbesondere ist die Implementierung eines Cluster-Systems um Vieles aufwändiger als die eines fehlertoleranten Servers. Dieser ist zwar intern redundant ausgelegt, was für den Anwender jedoch völlig transparent ist – ihm gegenüber präsentiert sich der fehlertolerante Server wie ein Stand-Alone-Gerät.

Lizenzkosten

Da ein solches System nicht nur virtuell, sondern auch physikalisch ein einziger Rechner ist, benötigt es anders als Stand-By- oder Cluster-Server auch nur jeweils eine Software-Lizenz, was beispielsweise bei Datenbanken einen wichtigen Kostenfaktor darstellt. Die auf den ersten Blick höheren Anschaffungskosten der fehlertoleranten Systeme gegenüber den Cluster-Servern gleichen sich so bei Einbeziehung sämtlicher Kostenfaktoren wieder aus. Hinzu kommt, dass bei Cluster-Systemen Administration, Service und Support deutlich aufwändiger sind, so dass hier mit hohen laufenden Kosten zu rechnen ist.

Unterm Strich sind die gesamten Anschaffungs- und Betriebskosten für Stand-By-Systeme natürlich am günstigsten. Hier gibt es ja auch keine technisch abgesicherte Verfügbarkeit, durch das bloße Bereithalten eines zweiten Servers wird ein System nicht hochverfügbar.

Fehlertolerante Server erweisen sich bei Berücksichtigung aller Kostenfaktoren erstaunlicherweise schon in der Anschaffung als teurer. Klammert man die besonders kostentreibende Datenbank aus, so liegen diese beiden Alternativen gleichauf, durch die günstigeren laufenden Kosten haben die fehlertoleranten Server sobald es in den Betrieb geht, die Nase wieder vorn.

Ob solche Investition und Kosten unterm Strich sinnvoll sind, zeigt der Vergleich mit den Kosten eines möglichen Systemausfalls. Pauschalisierte Downtime-Kosten, die für einen direkten Vergleich nötig wären, lassen sich allerdings nur schwer schätzen, weil sie wie erwähnt sehr stark von der Branche und vom jeweiligen Unternehmen abhängen. Verwendet man als Hilfsgröße die Kosten einer Industriestunde pro Mitarbeiter (43,50 Euro), und multipliziert diesen Wert mit der Ausfallwahrscheinlichkeit so ergeben sich für die drei alternativen Lösungen bei 500 Mitarbeitern und einem 7*24-Stunden-Betrieb die hypothetischen Szenarien in Tabelle 1.

Die Angaben in Tabelle 1 können allerdings nur eine grobe Orientierung hinsichtlich der Dimensionen geben, in denen sich das Restrisiko eines Unternehmens bewegt. Im Einzelfall, wenn durch einen Systemausfall beispielsweise Kundenbeziehungen auf dem Spiel stehen oder gar die Existenz eines Unternehmens bedroht ist, können die Kosten weit höher liegen. Spätestens dann erweisen sich vermeintlich preiswerte Lösungen als äußerst kostspielig. Durch die Verwendung von Standard-Technologie konnte die Technologie der fehlertoleranten Server-Systeme hier viel Boden gut machen und sich neue Anwendungsgebiete erschließen.

Über den Autor

Ulrich Lenz ist Senior Consultant bei Stratus Technologies in Schwalbach/Taunus

Artikelfiles und Artikellinks

(ID:2002134)