Wenn Mikrosekunden über Gewinn und Verlust entscheiden

Ultra Low Latency Netzwerke – Optimierung auf Layer 1

18.05.2011 | Autor / Redakteur: Dr. Michael Ritter / Andreas Donner

Latenzzeiten entstehen in modernen Kommunikationsnetzen auf verschiedenen Ebenen des OSI-Referenzmodells.
Latenzzeiten entstehen in modernen Kommunikationsnetzen auf verschiedenen Ebenen des OSI-Referenzmodells.

Fazit und Ausblick

Der automatisierte Wertpapierhandel nimmt immer mehr an Bedeutung zu, während Computerprogramme und Algorithmen gleichzeitig schneller und besser werden. Da liegt es auf der Hand, dass auch die Netzinfrastruktur sich weiterentwickeln muss, und zwar vor allem im Hinblick auf Latenzzeiten.

Entschieden noch vor einem Jahr Millisekunden über den Erfolg eines Börsengeschäfts, werden es im nächsten Jahr bereits Mikrosekunden sein, die den Unterschied ausmachen. Das hat zur Folge, dass jegliche Latenzquelle im Übertragungsweg ausgeschaltet oder zumindest optimiert werden muss.

Längst genügt es nicht mehr, nur die neueste Router-Generation oder die beste Blade-Server-Technologie einzusetzen. Wer zwischen größeren Handelszentren nicht auch das optische Übertragungsnetz im Blick hat, gerät schnell ins Hintertreffen. Nur eine ganzheitliche Optimierung der Handelsumgebung verspricht langfristigen Erfolg.

Gerade bei Wertpapiergeschäften, in denen weit voneinander entfernte Handelsplätze involviert sind, spielt die Latenz eine wesentliche Rolle. Bereits die von der Glasfaserleitung induzierte Verzögerung beträgt hier mehrere Millisekunden. Neben der Streckenoptimierung experimentiert man deshalb heute bereits mit neuen Lichtwellenleitertechnologien, die eine höhere Ausbreitungsgeschwindigkeit der Lichtimpulse erlauben.

Hollow-Core-Faser

Der zukünftige Einsatz von Glasfasern des so genannten Hollow-Core-Typs verspricht die Lichtlaufzeiten in der Faser um bis zu 30 Prozent zu senken. Bei der Vernetzung internationaler Handelszentren könnte über die Gesamtstrecke somit die Latenzzeit schnell um einige Millisekunden reduziert werden. Bei den heute standardmäßig verwendeten Glasfasertypen erreicht das Licht nur eine Ausbreitungsgeschwindigkeit von etwa zwei Dritteln der Lichtgeschwindigkeit im Vakuum. Die theoretisch maximale Lichtgeschwindigkeit von etwa 300 km/s wird aufgrund des hohen Brechungsindex des Glasfasermaterials nicht erreicht.

Anders als bei herkömmlichen Glasfasern, wird bei Hollow-Core-Fasern die Reflexion des Lichts innerhalb der Faser durch Ausnutzung des so genannten Bandgap-Effekts bewirkt und nicht durch ein Kernmaterial mit einem erhöhten Brechungsindex. Die Fähigkeit eines Festkörpers, Licht zu absorbieren, ist an die Bedingung geknüpft, die Photonenenergie mittels Anregung von Elektronen aufzunehmen. Da Elektronen nur in bestimmten Energiebereichen – auch als Bänder bezeichnet – angeregt werden können, ermöglicht ein Abgleich der Bandlücken mit dem Energieniveau der Photonen des Lichtsignals mittels geeigneter Materialwahl eine nahezu vollständige Reflexion des Lichts. Soweit zur Physik.

Da der Brechungsindex des Faserkerns dabei niedriger sein kann als der des Fasermantels, erlaubt die Hollow-Core-Technologie im Extremfall die Verwendung von Luft als Faserkern. Bildlich kann man sich dies wie ein feines, dünnes Röhrchen vorstellen, in dem das Licht transportiert wird. In Luft erreicht die Lichtgeschwindigkeit nahezu ihren Maximalwert, wodurch die durch die Glasfaser bedingte Latenzzeit zwischen zwei Standorten minimal wird. Die Produktion solcher Hollow-Core-Fasern ist aufgrund der sehr engen Toleranzgrenzen heute aber noch sehr schwierig, weshalb ein breiter Einsatz in Kommunikationsnetzen erst noch bevorsteht. Auch hinsichtlich ihrer optischen Eigenschaften wie Dämpfung und Linearität sind noch einige Fragen offen.

Extrem kurze Latenzzeiten in Kommunikationsnetzen werden zukünftig eine tragende Rolle in der IT-Industrie spielen. Der automatisierte Wertpapierhandel ist nur eine Applikation, welche aufgrund ihrer wirtschaftlichen Bedeutung in der Finanzindustrie schnell an Bedeutung gewann. Aber auch andere Anwendungen wie synchrone Datensicherung und Videoübertragung kämpfen, bedingt durch die stetig zunehmenden Datenvolumina, mit der Latenzzeit der Netze. Der erste Lösungsansatz zur Reduktion der Latenz ist immer die Optimierung der Algorithmen und Protokolle. Ab einem gewissen Zeitpunkt kommt aber auch immer die Physik ins Spiel – insbesondere bei optischen Netzen.

Über den Autor

Dr. Michael Ritter ist Vice President Technical Marketing bei ADVA Optical Networking

Inhalt des Artikels:

Kommentare werden geladen....

Kommentar zu diesem Artikel

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 2051489 / Standards & Netze)