Low Latency Networks im Überblick, Teil 1

Latenz – dominanter Leistungsfaktor moderner Netze

Seite: 2/2

Firmen zum Thema

Kritikalität von Antwortzeiten

Rechenzentren einer neuen Generation müssen hochdifferenzierte Web-Applikationen und elastisches virtualisiertes Cloud Computing mit hoher und zuverlässiger Leistung im Sinne von Anwendungen, die „always on“ und „ always available“ sind (AOAAA) unterstützen. Im Laufe der letzten Jahre sind viele Anstrengungen unternommen worden, dies durch Server-Virtualisierung und Speicher-Zentralisierung angemessen zu unterstützen, wobei das Netz in die Rolle des Systembusses dieser virtualisierten Umgebungen gekommen ist.

Außer den Lasten, die durch Anwender und Anwendungen generiert werden, kommen noch solche hinzu, die durch das System selbst vermöge der Kommunikation der Komponenten untereinander erzeugt werden. Das haben wir schon häufiger thematisiert.

Die Anforderungen an Antwortzeiten (konkret also die Zeiten, die zwischen dem Drücken einer Taste durch einen Benutzer und dem Erscheinen eines Ergebnisses auf dem Bildschirm vergehen) sind im letzten Jahrzehnt ebenfalls gestiegen, generell so um den Faktor 10 bis 100. Je nach Perspektive kann man diese Steigerung als deutlich oder dramatisch beschreiben.

Neben den üblichen Verdächtigen wie Finanzorganisationen, Lehr- und Forschungseinrichtungen oder „Web 2.0“-Unternehmen gibt es eine stetig wachsende Liste von Kunden aus vertikalen Anwendungen, bei denen eine schnelle Antwortzeit ein Top Business-Kriterium ist, wie z.B. Medien-Unternehmen (Video Post Production, Animation, Broadcasting), Versorger oder Unternehmen aus dem Gesundheitsbereich.

Sinken die akzeptierten Zeiten für eine Antwort unter den Bruchteil einer Sekunde, muss die Latenz in allen Bereichen (Server, Speicher, Netz) gleichermaßen reduziert werden. Im Prinzip benötigt man einen architektonischen Ansatz, der die Antwortzeiten für eine große Anzahl denkbarer Anwendungen systematisch, konsistent und messbar senkt. Früher hat man immer dazu geneigt, mehr oder minder unsystematisch punktuelle Verbesserungen an geschickt gewählten Stellen vorzunehmen und hat dabei nicht selten auf proprietäre Technik gesetzt. Diese Zeiten sind ultimativ vorbei – und dafür gibt es gleich mehrere Gründe:

  • Wo sollte man in einer virtuellen Umgebung punktuelle Verbesserungen anbringen, wo doch sogar die VMs als Leistungserbringer konzeptionell bedingt wandern?
  • Die Anwendungen selbst sind in hohem Maße dynamisch, siehe die Struktur moderner Web-Anwendungen. Die Zuordnung dieser Anwendungen zu VMs kann daher ebenfalls nur dynamischer Natur sein.
  • Analoges gilt für die modernen Speichersysteme und ihre Ressourcen.

Die Dynamik zieht sich durch alle Ebenen. Leistungsdaten können sich schlagartig ändern, wie wir am Beispiel der Steigerung der I/O-Leistung virtualisierter Server durch SR-IOV zu Jahresbeginn gesehen haben und durch die Einführung einer neuen, hoch reaktionsfähigen Speicherebene mit SSD-Batterien bald sehen werden.

Zusammenfassend kann man sagen, dass die Anforderungen an ein RZ-Netz durch folgende, sich sozusagen selbst potenzierende Einflussfaktoren wachsen:

  • Erhöhte Anforderungen an die Antwortzeiten (durch Benutzer)
  • Dauernde Steigerung der Anzahl der Benutzer
  • Dynamisierung der Applikationsarchitekturen
  • Wachstum der systembedingten Kommunikation durch Virtualisierung
  • Erhöhte Anforderungen an die Antwortzeiten durch die Systemkomponenten selbst (Netzwerk als Systembus).

Die Dramatik des letzten Punktes wird vielfach unterschätzt und selbst von interessierten Herstellern kaum erwähnt. Die gemütlichen Zeiten, in denen die Leistung, sagen wir eines transaktionsorientierten Datenbankzugriffes hauptsächlich von der Gestaltung des Datenbanksystems abhingen, sind vorbei! Ein optimiertes Datenbanksystem steht dumm herum, wenn seine Leistung im Rahmen suboptimaler Unterstützung der anderen Komponenten, denen es z.B. in einer differenzierten Webarchitektur zuliefert, nicht richtig auf die Straße gebracht wird.

Es kann nicht die Aufgabe des Netzwerkers sein, diese ganzen Vorgänge und Abhängigkeiten zu optimieren oder zu durchschauen. Es ist aber seine Aufgabe, dafür zu sorgen, dass das Netzwerk die meisten denkbaren Kombinationen optimal unterstützt.

Der einzige Weg dorthin ist die systematische Anwendung vollständig standardisierter Technologien, auch für die Latenzminimierung.

Da die Verbesserungen, von denen wir hier sprechen, auf dem Infrastrukturlevel stattfinden, müssen sie so ausgelegt sein, dass sie auch den Anforderungen der nächsten 3 bis 5 Jahre genügen.