Mobile-Menu

Low Latency Networks im Überblick, Teil 4

Fat Trees und Virtual Chassis – Strukturierungsaspekte im Überblick (1)

Seite: 2/3

Anbieter zum Thema

Fat Trees und Clos-Netze

Wesentlich besser hinsichtlich der Latenz ist der sog. Fat Tree (siehe Abbildung 2). Hier gibt es zwei Arten von Switches: solche, die die Server und Speicher verbinden und solche, die diese im Rahmen einer blockierungsfreien Fabric mit geringer Latenz untereinander verbinden. Es hat sich mittlerweile herausgebildet, die äußeren Switches als „Leaf“ und die Switches, die die Leafs miteinander verbinden, als „Spine“ zu bezeichnen. Da in der Übersetzung die Kombination aus „Rückgrat“ und „Blättern“ keinen erhebenden Sinn macht, belassen wir es bei den englischen Bezeichnungen.

Mit dieser Struktur kann man skalierbare latenzarme Netze aufbauen und Verfahren wie TRILL und PLSB sind ideal zu ihrer Unterstützung.

Zu unserer Verwirrung gibt es auch andere Darstellungen, wie z.B. eine Art Rosette, bei der Kern-Switches in der Mitte stehen und Rand-Switches mit ihnen verbunden werden. Diese Rosette ist eine runde Darstellung eines sog. Clos-Netzes. Das Clos-Netz ist per Definitionem ein Mehrstufen-Mehrfachverbindungsnetzwerk mit bestimmten, mathematisch belegten Eigenschaften. Zu diesen gehört, dass ein Clos-Netz zu der Klasse von Mehrstufen-Mehrfachverbindungsnetzwerken gehört, welches mit der geringsten Anzahl von Stufen auskommt und mit geringem Aufwand blockierungsfrei gestaltet werden kann. Beides ist für geringe Latenz von entscheidender Bedeutung.

Faltet man das Clos Netz nun sozusagen mitten durch die Kern-Switches, entsteht nichts anderes als ein Fat Tree. Bis auf die Tatsache, dass man auf diesem Weg die wirkliche Optimalität dieser Konstruktion im Hinblick auf unsere Grundanforderungen nachweisen kann, spielen diese anderen Darstellungen keine wirkliche Rolle.

Man sieht allerdings auch hier sofort, dass schnell ein Problem mit der Skalierbarkeit entstehen kann, und zwar auf der „Spine“-Ebene.

Wegen der Notwendigkeit von Redundanz sind zwei identische Switches das Minimum auf dieser Ebene. Jeder dieser Switches muss mindestens so viele Anschlüsse haben, wie es Leaf-Switches gibt. Jeder Leaf-Switch ist mit einem dieser Spine-Switches verbunden.

Wir haben aber schon bei der Besprechung der ASIC-Architekturen gesehen, dass die Steigerung von Anschlüssen an einem Switch durchaus an Grenzen stößt, wenn man die Latenz bei der Konstruktion ernsthaft einbezieht.

Außerdem ist es so, dass wir zwar mit dem Stand heute viele Server und Speicher mit 10 GbE anschließen, aber das ist ja längst nicht das Ende der Fahnenstange. Um Überbuchung dauerhaft zu vermeiden, müssen wir davon ausgehen, dass die Leitungen zwischen den Leaf- und den Spine-Switches eher in der Größenordnung multipler 100-G-Verbindungen liegen. Darüber hinaus wird sich natürlich die konstruktive Variante der Blade Center weiterentwickeln. Nach momentanem Stand wird ein in einem Blade Center befindlicher Konzentrationsswitch schon die Rolle eines Leaf-Switches annehmen, denn sonst hätten wir ja gegenüber der konventionellen Strukturierung hinsichtlich der Latenz wenig gewonnen.

Die aggregate Gesamtleistung eines Fat Trees lässt sich dadurch steigern, dass man zwischen Leaf-Switches und Spine-Switches sowie auch innerhalb der Ebenen nicht nur singuläre Verbindungen zulässt, sondern auch einen höheren Grad der Vermaschung erlaubt. Dies setzt natürlich voraus, dass man kein STP-Verfahren mehr in einem solchen System verwendet, denn das würde ja alle diese zusätzlichen Leitungen ausschalten. Im nächsten Abschnitt sehen wir, wie man das besser machen kann.

All dies heißt zusammengefasst, dass der Fat Tree eine in hohem Maße geeignete Grundstruktur für die Realisierung latenzarmer Netze ist, man aber hinsichtlich der Spine-Ebene weitere Überlegungen anstrengen muss.

weiter mit: Unified Fabrics

Artikelfiles und Artikellinks

(ID:2048943)