Mobile-Menu

Burton Group hilft bei der Wahl des passenden Servers 3 mal 5 Kriterien zur Wahl der richtigen Server-Plattform

Redakteur: Ulrike Ostler

Drei bis fünf Jahre arbeiten x86-Server, es sei denn, Software diktiert früher ein Aufrüsten. Abschreibung und ein mehr oder minder gefühlter Ressourcen-Überfluss sind weitere Ausmusterungskriterien. Dann ersetzten Firmen ihre Server zumeist gegen jüngste Modelle. „Ein nettes Chaos!“ beschreibt Burton-Group-Analyst Andrew Kutz dieses Vorgehen ironisch und sagt, wie sich der „richtige“ Server korrekt findet.

Anbieter zum Thema

Um mehr Effektivität in die Wahl des „richtigen“ Servers zu bekommen, braucht es logische Richtlinien. Diese orientieren sich an folgenden Komplexen: Software-Support, Storage, Server-Konsolidierung, Energieeffizienz, Management sowie das Wachstum des Unternehmens, die Servicequalität und neue Dienstleistungen.

Manchmal empfehlen Software-Hersteller eine bestimmte Server-Plattform insbesondere Betriebssystem-Hersteller. Aber auch Anwendungen erfordern gelegentlich spezifische Funktionen, zum Beispiel wenn es sich um Software handelt, die sich etwa Speicherressourcen mit anderen teilt. Dieser erfordern Plattformen, die es für die Administratoren einfach machen, mit Shared oder Provisioned Storage verbunden zu werden.

Außerdem arbeiten immer mehr Applikationen nach einem Update im 64-bit-Modus. Zum Beispiel benötigt der „Exchange-Server 2007“ von Microsoft nun eine 64-bit-Version des Windows Server und somit entsprechende Hardware.

Ähnliches gilt für den Speicherbedarf. Zwar empfiehlt die Burton Group immer, preisgünstige, shared-storage-Optionen wie Internet Small Computer Systems Interface (iSCSI) in Erwägung zu ziehen, doch manchen Applikationen benötigen einfach jede Menge Speicherkapazität, so das Direct-Attached Storage (DAS) noch immer eine Rolle spielt. Wenngleich sich diese Form der Datensicherung auf dem Rückzug befindet, können die vergleichsweise hohen Preise und die Komplexität von Fibre-Channel Storage Area Networks (SANs) Kunden nach wie vor davon überzeigen, DAS-Kapazitäten zu nutzen. Großer DAS-Bedarf erfordert aber auch viele Plattenlaufwerke.

Zudem sind die meisten Firmen bestrebt, die Hardware zu konsolidieren. Heute geschieht das zumeist mit Hilfe der Server-Virtualisierung. Möglicherweise aber steht die gewählte Hardware jedoch noch auf keiner Hardware Qualification List (HQL) oder Hardware Compatibility List (HCL). Als relevantes Beispiel nennt Analyst Kutz die Intel- und AMD-Erweiterungen „VT FlexMigration“ und „V Extended Migration“, die erlauben, über diverse Prozessorgenerationen auf virtuelle Maschinen zu migrieren, jedoch nicht über verschiedenen Architekturen beziehungsweise unterschiedliche Fabrikate hinweg.

Energie- und Arbeitszeitfresser

Energie-Effizienz gehört bei den hohen Preisen und der Umweltbilanz mittlerweile ebenso in einen Kriterien-Katalog für Server. Wie wird gekühlt? Gibt es ein Management für die Auslastung und das Energiesparen? Das sind etwa hier die Fragen, die sich Administratoren stellen müssen.

Überhaupt sollten Management-Funktionen eine große Rolle spielen, insbesondere dann, wenn die Zusammenstellung der Hardware nach dem „best-of-breed“-Ansatz erfolgt. Kutz erwähnt etwa Diagnose-Möglichkeiten. Möglicherweise sie es ohnehin ratsam, die Anzahl der Anbieter zu reduzieren, wobei die Administrierbarkeit der Plattformen durchaus ein nennenswerter Faktor sein sollte.

Der beste Grund dafür, neue Hardware einzukaufen, dürfte sein, wenn die Geschäfte gut laufen. Denn zumeist wächst damit die Benutzerzahl, das Datenvolumen und somit der Speicherbedarf. Ein Indiz für Bedarf an neuer Hardware sind Anrufe, in denen sich Anwender über mangelnde Performance beklagen. Entweder der Server ächzt unter der Last oder der Administrator hat den Bedarf bestimmter Services nicht richtig eingeschätzt. Die Gefahr besteht insbesondere bei neuen Arten von Leistungen, die die IT erbringen soll.

weiter mit: Die Server-Alternativen

(ID:2012950)