Mobile-Menu

Herausforderungen und Antworten für Rechenzentrums-Netze

Software defined Networks im RZ - Gartner bewertet Anbieter

Seite: 2/3

Firmen zum Thema

Wie also muss ein Rechenzentrumsnetz gestrickt sein?

Das neue Netzwerk-Design ist flach.
Das neue Netzwerk-Design ist flach.
(Bild: Andrea Kusajda / pixelio.de)
Die höhere Dichte – egal, ob diese dadurch zustande kommt, dass ein Rechenzentrum wächst oder konsolidiert wird – erfordert Interfaces für eine höhere Geschwindigkeit. Die aktuelle Server-Generation unterstützt nun mehrheitlich 10 Gigabit Ethernet (GbE), mit Uplinks, die ein Top-of-the-Rack-Scwitch (ToR) oder Blade-Switches für 40 GbE zur Verfügung stellen.

Außerdem sorgt die Virtualisierung dafür, dass der erste Aggregations-Level in virtuelle Switches wandert. Damit steigt aber auch der Nutzungsgrad für diese schnelleren Links und die physischen Aggregations-Switches werden überflüssig. Die höhere Dichte und die Aggregation in virtuellen Switches aber lassen ToR- und Blade-Switche als die bessere Variante erscheinen als eine End-of-Row-Technik.

Außerdem müssen sich die Netze schnell skalieren oder schrumpfen lassen. Das ermöglicht ein Rightsizing und damit Kosten-Effizienz. Das begünstigt alternative Formfaktoren. Bisherige Netze sind hingegen zumeist überdimensioniert.

Neue Ansätze und Techniken

Da Anwendungen verteilter denn je sind, und zugleich nicht mehr gebunden an spezielle Hardware, also an einen Server oder an ein Rack und damit flexibler sowohl in der Entwicklung als auch in der Verteilung, brauchen sie auch mehr Elastizität beim Zugriff auf die Computing und Storage-Ressourcen. Andererseits aber bedeutet diese Unabhängigkeit von dedizierten Netzwerkwerkverbindungen, dass es komplizierter ist, die Anforderungen zu spezifizieren. Das führt wiederum zur Integration von virtuellem Input/Output (I/O) und Storage Gateways in ToR- oder Blade-Switches.

Die neuen und höheren Anforderungen haben zudem einige neue Ansätze auf den Plan gebracht: Performance-Steigerung, Low-Latency Switches, die Notwendigkeite einer ein- oder zwei-stufigen Architektur, Fabric-Architekturen, die mehr Flexibilität bringen, zum Beispiel mit Transparent Interconnection of Lots of Links (TRILL) und Shortest Path Bridging (SPB).

All diese Ansätze stützen die Leistungsverbesserungen bei der Server-to-Server-Performance und, in manchen Fällen, verändern sie das Netzwerk mit einem homogenen Set an Fähigkeiten, die allen Computing-Ressourcen zu Gute kommen. Insbesondere jedoch weisen die Gartner-Analysten darauf hin, dass solche funktionalen Anforderungen für Netze in Rechenzentren im Vordergrund stehen müssen.

Die Schlüsselfunktionen

Das aber lässt die Debatte um neue und zukünftige Standards leicht vergessen. Zu den Schlüsselfunktionen zählt Gartner Folgendes:

  • Die Fähigkeit, einfach und nahtlos Bandbreite hinzufügen zu können, via Links und Nodes
  • Die Möglichkeit, Service-Instanzen zu bilden, auf Layer 2, 3 und höher, und zwar an jedem Punkt im Netzwerk.
  • Konstante und homogene Fähigkeiten in einer und über eine Fabric hinaus
  • Außerdem sollten Fabrics so eingerichtet werden, dass sich das Management und der Netzwerkbetrieb tatsächlich auch vereinfacht.
  • Ferner müssen Netzwerkerneuerer daran denken, dass unter Umständen nicht nur das Skalieren kostet, sondern auch ein Abspecken. Sie müssen das Netz daher von vorne herein mit entsprechenden Dehnungsfähigkeiten ausstatten.

Tatsächlich, sagen die Gartner-Analysten, treibt der Wunsch den Netzwerkbetrieb zu vereinfachen Innovationen voran. Sie nennen Single-Tier Datacenter-Switching mitsamt einem automatisierten Konfigurieren in Fabrics und der Integration von Tools für den Netzbetrieb und das Applikations-Provisioning. Insgesamt können die Automatisierung im Rechenzentrum gar nicht hoch genug eingeschätzt werden.

(ID:38647930)