Mobile-Menu

Herausforderungen und Antworten für Rechenzentrums-Netze Software defined Networks im RZ - Gartner bewertet Anbieter

Redakteur: Ulrike Ostler

Software Defined Networks (SDN) bedeuten das Ende eines etwa 15jährigen nahezu unveränderten Netzwerk-Designs im Rechenzentrum. Die Analysten von Gartner haben im vergangenen Monat ein „Magic Quadrant for Data Center Network Infrastructure“ veröffentlicht, das dieser Entwicklung Rechnung trägt. HP, Brocade, Juniper Networks, Alcatel-Lucent und Arista Networks gelten hier als „Visionäre“.

Firmen zum Thema

Das Marktforschungs- und Beratungsunternehmen Gartner weißt stets darauf hin, dass jedes Unternehmen stets selbst überprüfen muss, ob eines der genannten Unternehmen und Produkte in Frage kommt oder ein ganz anderes. Trotzdem lohnt es sich, die Bewertungsgrundlagen der Analysten einmal anzuschauen.
Das Marktforschungs- und Beratungsunternehmen Gartner weißt stets darauf hin, dass jedes Unternehmen stets selbst überprüfen muss, ob eines der genannten Unternehmen und Produkte in Frage kommt oder ein ganz anderes. Trotzdem lohnt es sich, die Bewertungsgrundlagen der Analysten einmal anzuschauen.
(Bild: Gartner)

Die Gartner-Untersuchung von den Autoren Tim Zimmerman und Mark Fabbi befasst sich mit den Kern- und Rechenzentrumssegmenten im Netzwerk. Der Report wurde in diesem Jahr erstmals erstellt, um dem Wachstum in den Kern- und Rechenzentrumssegmenten von Netzwerken Rechnung zu tragen.

Damit hat Gartner das Tracking des Bereichs Netzwerkinfrastruktur und die Magic-Quadrant-Serien rund um die Netzwerkmärkte verändert und konzentriert sich mehr auf die Geschäftsentwicklung innerhalb der Unternehmen.

In der Untersuchung heißt es: Ein „Visionorär“ habe seine Fähigkeit unter Beweis gestellt, die Funktionen in seinem Angebot auszubauen, um einen einzigartigen und differenzierten Ansatz im Markt zu bieten.

Die aktuellen Anforderungen

Dazu müssen noch Innovationen in einem oder mehreren entscheidenden Bereichen der Datacenter-Infrastruktur kommen, zum Beispiel beim Management (einschließlich Virtualisierung), in puncto Sicherheit (einschließlich der Umsetzung von Richtlinien), im Bereich Betriebseffizienz und SDN sowie hinsichtlich Kostensenkungen.

Doch, wo liegen die Herausforderungen?

Es ist fast schon banal, darauf hinzuweisen, dass die Geschwindigkeit im und die Größe von Rechenzentrumsnetzen stark zugenommen hat, während die 3stufige Hierarchie mit Hilfe von End-of-Row-Switches, einer Aggregationsschicht und intelligenten Layer-3-Core-Switches nahezu unangetastet geblieben ist. In Gebrauch sind in den vergangenen 15 Jahren bis jetzt Cassis-Switches gewesen, die sich sowohl im Rechenzentrum als auch auf dem Campus und in Workgroup-Schränken wiederfinden.

Doch die Rechenzentren selbst ändern sich, etwa in Bezug auf die Größe und die Dichte an Rechenleistung. Die Gartner-Analysten machen drei Makro-Trends aus, die darauf Einfluss nehmen:

  • 1. Die Konsolidierung von Servern und ganzer Rechenzentren. Denn die IT-Organisationen zeigen ein anhaltendes Interesse daran, die Computing-Ressourcen zu zentralisieren und zugleich die Anzahl der physischen Datacenter zu minimieren. Heraus kommen weniger, aber größere Enterprise-Rechenzentren.
  • 2. Die Dichte steigt und zwar durch Multicore-, Multisocket-Server in Kombination mit der Virtualisierung, die einen höheren Auslastungsgrad mit sich bringt. Workloads, die früher über verschiedene Server-Racks verteilt wurden, lassen sich nun von einem Teil eines einzelnen Racks abarbeiten.
  • 3. Die Migration von Anwendungen in Richtung Cloud Services schafft Platz im hausinternen Rechenzentrum.

Außerdem ändern sich die Verkehrsmuster – statt eines vornehmlichen Nord-Süd-Stroms (vom Server über den Core bis zum User) wird der Ost-West-Verkehr dominant (zwischen den einzelnen Anwendungen). Der Grund: Die Anwendungen werden verteilt, auf verschiedene Applikations-Ebenen und –Architekturen.

Schließlich verbieten Service-basierte IT-Angebote und die Nachfrage nach Antworten in Echtzeit manuelle Eingriffe in den Netzwerkbetrieb. Vielmehr ist beispielsweise ein automatisiertes und möglichst schnelles Applikations-Provisioning gefragt. Eine „menschliche Middleware“ dagegen wird als Bremse verstanden; denn das Handanlegen kostet Tage oder Wochen.

Wie also muss ein Rechenzentrumsnetz gestrickt sein?

Das neue Netzwerk-Design ist flach.
Das neue Netzwerk-Design ist flach.
(Bild: Andrea Kusajda / pixelio.de)
Die höhere Dichte – egal, ob diese dadurch zustande kommt, dass ein Rechenzentrum wächst oder konsolidiert wird – erfordert Interfaces für eine höhere Geschwindigkeit. Die aktuelle Server-Generation unterstützt nun mehrheitlich 10 Gigabit Ethernet (GbE), mit Uplinks, die ein Top-of-the-Rack-Scwitch (ToR) oder Blade-Switches für 40 GbE zur Verfügung stellen.

Außerdem sorgt die Virtualisierung dafür, dass der erste Aggregations-Level in virtuelle Switches wandert. Damit steigt aber auch der Nutzungsgrad für diese schnelleren Links und die physischen Aggregations-Switches werden überflüssig. Die höhere Dichte und die Aggregation in virtuellen Switches aber lassen ToR- und Blade-Switche als die bessere Variante erscheinen als eine End-of-Row-Technik.

Außerdem müssen sich die Netze schnell skalieren oder schrumpfen lassen. Das ermöglicht ein Rightsizing und damit Kosten-Effizienz. Das begünstigt alternative Formfaktoren. Bisherige Netze sind hingegen zumeist überdimensioniert.

Neue Ansätze und Techniken

Da Anwendungen verteilter denn je sind, und zugleich nicht mehr gebunden an spezielle Hardware, also an einen Server oder an ein Rack und damit flexibler sowohl in der Entwicklung als auch in der Verteilung, brauchen sie auch mehr Elastizität beim Zugriff auf die Computing und Storage-Ressourcen. Andererseits aber bedeutet diese Unabhängigkeit von dedizierten Netzwerkwerkverbindungen, dass es komplizierter ist, die Anforderungen zu spezifizieren. Das führt wiederum zur Integration von virtuellem Input/Output (I/O) und Storage Gateways in ToR- oder Blade-Switches.

Die neuen und höheren Anforderungen haben zudem einige neue Ansätze auf den Plan gebracht: Performance-Steigerung, Low-Latency Switches, die Notwendigkeite einer ein- oder zwei-stufigen Architektur, Fabric-Architekturen, die mehr Flexibilität bringen, zum Beispiel mit Transparent Interconnection of Lots of Links (TRILL) und Shortest Path Bridging (SPB).

All diese Ansätze stützen die Leistungsverbesserungen bei der Server-to-Server-Performance und, in manchen Fällen, verändern sie das Netzwerk mit einem homogenen Set an Fähigkeiten, die allen Computing-Ressourcen zu Gute kommen. Insbesondere jedoch weisen die Gartner-Analysten darauf hin, dass solche funktionalen Anforderungen für Netze in Rechenzentren im Vordergrund stehen müssen.

Die Schlüsselfunktionen

Das aber lässt die Debatte um neue und zukünftige Standards leicht vergessen. Zu den Schlüsselfunktionen zählt Gartner Folgendes:

  • Die Fähigkeit, einfach und nahtlos Bandbreite hinzufügen zu können, via Links und Nodes
  • Die Möglichkeit, Service-Instanzen zu bilden, auf Layer 2, 3 und höher, und zwar an jedem Punkt im Netzwerk.
  • Konstante und homogene Fähigkeiten in einer und über eine Fabric hinaus
  • Außerdem sollten Fabrics so eingerichtet werden, dass sich das Management und der Netzwerkbetrieb tatsächlich auch vereinfacht.
  • Ferner müssen Netzwerkerneuerer daran denken, dass unter Umständen nicht nur das Skalieren kostet, sondern auch ein Abspecken. Sie müssen das Netz daher von vorne herein mit entsprechenden Dehnungsfähigkeiten ausstatten.

Tatsächlich, sagen die Gartner-Analysten, treibt der Wunsch den Netzwerkbetrieb zu vereinfachen Innovationen voran. Sie nennen Single-Tier Datacenter-Switching mitsamt einem automatisierten Konfigurieren in Fabrics und der Integration von Tools für den Netzbetrieb und das Applikations-Provisioning. Insgesamt können die Automatisierung im Rechenzentrum gar nicht hoch genug eingeschätzt werden.

Die visionären Anbieter

Die Visionäre treten gegen den Netzwerk-König an: Cisco
Die Visionäre treten gegen den Netzwerk-König an: Cisco
(Bild: Diana Mohr / pixelio.de)
Vor diesem Hintergrund haben die Studien-Macher die Netzwerktechnik von Cisco, auch in diesem Netzwerk-Segment als einziger Herausforderer genannt, verglichen mit der von Dell, IBM, Huawei, Avaya, Enterasys, und Extreme Networks als auch HP, Brocade, Juniper Networks, Alcatel-Lucent und Arista Networks.

Alcatel- Lucent: In die Bewertung fließt das „Application Fluent Network“ ein. Das kommt bei Gartner gut weg; unter kritischer Beobachtung steht bei den Gartner-Analysten lediglich, dass der Umsatz damit im Vergleich zu anderen in die Untersuchung einbezogenen Unternehmen gering ist. Allerdings stiegen die Einnahmen derzeit recht schnell, wenngleich das Unternehmen mehr Marketing machen könnte.

Arista Networks: In die Bewertung eingeflossen ist das Produkt “VXLAN Gateway”, mit dem der Hersteller insbesondere SDN adressiert, sowie das Low-Latency-Produkt „7124FX“, ein Application-Switch. Insgesamt kommt der Anbieter sehr gut weg bei den Gartner-Untersuchungen. Das Unternehmen habe verstanden, was im Rechenzentrum gebraucht werde. Negativ zu Buche schlägt der Fakt, dass der Hersteller nicht so breit aufgestellt ist wie Mitbewerber und daher nicht in jedes Rechenzentrum passe.

Brocade: Der Hersteller hat in den vergangenen Jahren stark zugelegt, so die Gartner-Experten. Sie bescheinigen dem Unternehmen zudem ein tiefgehende Verständnis und Wissen bezüglich Rechenzentrumsnetze. Hervorgehoben sind die „VDX 6700“-Switches und die „VDX 8770“-Chassis, die die „Virtual Cluster Switching“-Architektur (VCS) des Herstellers stützen. Insgesamt ergebe das eine „solide Datacenter-Lösung“, die zudem nativ SAN-Systeme integrieren könne.

Wirkliche Einschränkungen nennen die Analysten nicht.

HP: Der Hersteller kann in vielen Netzwerkbelangen punkten. Die Gartner-Analysten bescheinigen dem Hersteller zudem eine Führungsrolle bei der Integration von SDN und OpenFlow ins Portfolio. Wenn man wissen wollte, was alles dazu gehört, um ein RZ-Netzwerk zukunftsfähig zu gestalten, könnte das HP-Portfolio dazu quasi die Vorlage bieten.

Die „Virtual Application Network”-Angebote vereinfachen und die Netzwerkkonfiguration und zwar von Rechenzentrum bis zum Desktop, sagen die Analysten. Die Investitionen, die HP hier getätigt hat, insbesondere im Netzwerk-Management (IMC) kommen offenbar auch bei den Kunden gut an. Der Umsatz mit RZ-Produkten kletterte Jahr 2011 kletterte um 60 Prozent auf 750 Millionen Dollar. Das sind 4 Prozent des Gesamtmarkts. Außerdem scheint sich diese für HP positive Entwicklung fortzusetzen.

Doch im Channel scheint das noch nicht jeder verstanden zu haben, was die neue Art des Networking an Vorteilen mit sich bringt; denn trotz der schnellen Adaption in punkto SDN, kam der Verkauf, etwa der „Virtual Connect“-Produkte nur langsam in Schwung. Zudem hat es gedauert, bis TRILL mit dem hauseigenen „Intelligent Resilient Framework“ (IRF) kombiniert wurde, um hochskalierbare Datacenter Fabrics zu unterstützen.

Juniper Networks: Der Hersteller ist laut Gartner auf einem aufsteigenden Ast. Die Fabric-Switching-Technik “QFabric” und “Virtual Chassis” werden sich in immer mehr Rechenzentren finden, so die Prognose. Die Juniper-Strategie adressiert einfache, flache Rechenzentrumsnetze, in denen Server-VirtualisierungCloud Computing eine Rolle spielen. Deshalb werde man die Angebote auch häufiger in Rechenzentren auf der grünen Wiese antreffen, obwohl die Produkte laut Gartner durchaus für alle RZ-Belange in Betracht gezogen werden können.

Bis 2012 hat Juniper QFabric in nur einem Format ausgeliefert, das aber nicht für alle Rechenzentren taugte. Außerdem haben einige der Partner wie IBM und Dell mittlerweile eigene Netzwerkprodukte im Portfolio. Das führt dazu, dass Juniper nicht so schnell wächst und auf den Support ein zusätzliches Augenmerk zu richten ist.

(ID:38647930)