Wenn Mikrosekunden über Gewinn und Verlust entscheiden

Ultra Low Latency Netzwerke – Optimierung auf Layer 1

18.05.2011 | Autor / Redakteur: Dr. Michael Ritter / Andreas Donner

Latenzzeiten entstehen in modernen Kommunikationsnetzen auf verschiedenen Ebenen des OSI-Referenzmodells.
Latenzzeiten entstehen in modernen Kommunikationsnetzen auf verschiedenen Ebenen des OSI-Referenzmodells.

Beim Handel mit Wertpapieren und ähnlich volatilen Finanzprodukten ist Schnelligkeit ein bedeutender Faktor. Bereits Milli- oder gar Mikrosekunden entscheiden hier heute über Gewinn und Verlust. Die IT-Systeme von Banken, Börsen und Brokern sind daher bereits in fast allen Schichten des ISO/OSI-Modells optimiert worden – nun rücken auch die Transportnetze und mit ihnen die unterste und bisher unangetastete Schicht 1 – der Physical Layer – des OSI-Referenzmodells ins Zentrum des Interesses.

Computer sind nicht nur bedeutend schneller als der Mensch, wenn es um das Platzieren von Wertpapierhandelsaufträgen geht, sie sind auch in der Lage eine größere Menge an Informationen parallel zu verarbeiten. Eine Besonderheit des automatisierten Handels sind so genannte Blitzaufträge.

Dabei werden Computer nur wenige Millisekunden vor anderen Marktteilnehmern über einen Kauf- oder Verkaufsauftrag informiert. Dadurch können sie schnell selbst kaufen und den Kauf mit einem minimalen Preisaufschlag weiterreichen. Selbst wenn pro Stück nur wenige Cent verdient werden, kann sich dieses durch große Volumina zu einem beträchtlichen Betrag aufsummieren.

Durch diese Entwicklung ist die Netzwerktechnologie plötzlich zum bedeutenden Faktor für die Akteure der wettbewerbsintensiven Finanzbranche geworden. Wer über die schnellsten Verbindungen zwischen zwei Handelsplätzen verfügt, ist auf der Gewinnerseite. Latenzoptimierte Übertragungssysteme helfen den stetig steigenden Ansprüchen an die Konnektivität von Finanzdienstleistern, Brokern, Fondsmanagern und Börsen gerecht zu werden.

Geschwindigkeit und Latenz

Schnelligkeit hat in diesem Fall allerdings nichts mit der Bandbreite einer Verbindung, also der Übertragungsrate wie zum Beispiel 10Gbit/s, 40Gbit/s oder 100Gbit/s zu tun. Die Anforderung der Finanzbranche besteht nicht darin, eine möglichst hohe Bandbreite zur Verfügung zu haben, sondern eine möglichst kurze Übertragungsverzögerung. Damit ist die Zeit gemeint, die zwischen dem Absenden einer Wertpapierorder und dem Empfang der Order am Handelsplatz vergeht – sie soll möglichst kurz sein und wird im Netzwerk-Fachjargon mit dem Begriff Latenzzeit bezeichnet.

Eine gute Analogie findet sich im Bereich der Sport- und Actionfotografie: Will man als Fotograf exakt den Zieleinlauf der Hundertmeterläufer festhalten, ist eine kurze Verschlusszeit von 1/2000 Sekunde zwar hilfreich, genügt jedoch nicht. Ist etwa die Auslösezeit zwischen dem Drücken des Auslösers und dem tatsächlichen Öffnen und Schließen der Blende zu lang, sind die Läufer bereits im Ziel bevor die Szene aufgenommen wird. In diesem Fall war die Verschlussgeschwindigkeit zwar hoch, aber die Auslösezeit, was in unserem Fall der Latenz entspricht, zu lang. Ebenso ist bei der Vernetzung von Börsenhandelsplätzen eine 100Gbit/s Verbindung zwar schnell, kann aber bei einer gegebenenfalls langen Latenzzeit nicht garantieren, dass ein Kauf- oder Verkaufsauftrag zuerst ausgeführt wird.

Latenzzeiten entstehen in modernen Kommunikationsnetzen auf verschiedenen Ebenen des OSI-Referenzmodells. Während das Latenzthema auf höheren Schichten, wie zum Beispiel der Anwendungsebene, schon sehr früh angegangen wurde, hat man sich erst in jüngster Vergangenheit mit den niedrigeren Schichten beschäftigt. Vor allem die Optimierung der Algorithmen und der Einsatz schnellerer Computer mit wesentlich höherer Rechenleistung haben den Betreibern von automatisierten Handelssystemen zu erheblich kürzeren Reaktionszeiten verholfen. Durch diese Erfolge geriet die Netzwerktechnik in den Fokus der Finanzbranche.

Nischenanbieter entwickelten spezielle Switch- und Router-Lösungen für die Finanzindustrie, um die Latenzzeit auf Schicht 3 – dem Network Layer – und Schicht 2 – dem Data Link Layer – zu minimieren. Sie setzten hauptsächlich bei den Paketverarbeitungszeiten an und minimierten diese, anstatt wie bei herkömmlichen Systemen üblich den Durchsatz zu maximieren. Ähnlich wie bei der Optimierung der Algorithmen und der Rechenleistung wurden die meisten Rechenzentren der Akteure binnen kürzester Zeit auf die neue Technologie umgestellt und neue Protokolle wie InfiniBand und Low Latency Ethernet fanden schnell Verbreitung. Die Vorteile waren unübersehbar und folgerichtig rückten die Transportnetze kurz darauf ins Zentrum des Interesses – die unterste und bisher noch nicht angetastete Schicht 1 – der Physical Layer – des OSI-Referenzmodells. Seit gut einem Jahr befassen sich Systemhersteller und Netzbetreiber nun damit, die Latenz in glasfaserbasierten Transportnetzen zu verringern. Dabei spielen drei wesentliche Faktoren eine Rolle: die geografische Lage, das Glasfaserkabel und die aktiven Systeme, die im Transportnetz zum Einsatz kommen.

Geografische Lage

Um die entfernungsbedingte Latenz sehr gering zu halten, bieten Börsenorganisationen wie die Deutsche Börse oder die London Stock Exchange so genannte Proximity Services an. Dabei wird die Infrastruktur in der Nähe der Handelssysteme platziert, wodurch Broker und Handelspartner einen extrem latenzarmen Zugang erhalten. Proximity-Lösungen bieten darüber hinaus auch eine Vielzahl von Diensten, wie etwa Managed Hosting oder Hardwarebeschaffung, die das Geschäftsmodell der Betreiber von automatisierten und computergestützten Handelssystemen ideal unterstützen und die Konzentration auf deren Kernkompetenzen ermöglichen.

Glasfaserstrecken

Proximity Hosting löst aber nur einen Teil des Problems: Durch die Nähe der Rechner zu den Handelsplattformen des jeweiligen Börsenplatzes läuft zwar die Auftragsausführung schneller ab, doch die Informationsbeschaffung von anderen Handelsplätzen wird dadurch nicht beschleunigt. Eine Schlüsselrolle spielen dabei die Glasfaserverbindungen: Die dadurch verursachte Latenz entspricht der Zeit, die die Datensignale für die Übertragung über die Faser benötigen. Je kürzer diese Strecke, desto geringer auch die Zeitverzögerung. Pro einhundert zurückgelegten Kilometern geht man von einer Laufzeit von etwa einer Millisekunde aus. Ideal wäre eine Glasfaser, die auf dem kürzesten Weg zwischen zwei Handelsplätzen verlegt ist.

In der Realität gibt es jedoch viele Umwege aufgrund von praktischen, baulichen und geologischen Gründen. Streckenminimierung bedeutet deshalb, eine möglichst optimale Kombination aus Faserteilwegen zu finden, die zusammen eine möglichst kurze Verbindung ergeben. Bei der Streckenoptimierung zwischen internationalen Handelszentren wie etwa London, Frankfurt, Paris, Brüssel und Amsterdam spielt dieses Vorgehen eine entscheidende Rolle. Gerade in jüngster Vergangenheit haben verschiedene überregionale Netzbetreiber neue Faserwege erschlossen, um eine möglichst direkte und geradlinige Verbindung zwischen Handelsplätzen zu gewährleisten, die Latenzzeit zu minimieren und um letztlich neue Kunden aus der Finanzbranche zu gewinnen.

weiter mit: Aktive Netzkomponenten

Aktive Netzkomponenten

In den aktiven Systemen des Transportnetzes kommt heute in der Regel die optische WDM-Technologie (Wavelength Division Multiplex) zum Einsatz. WDM erlaubt hochbitratige Glasfaserverbindungen sowohl über kurze Distanzen innerhalb von Stadtzentren als auch über mehrere tausend Kilometer hinweg.

Aber auch die Komponenten eines WDM-Systems tragen zur Latenzzeit bei. Als die Ausführungszeiten von Börsengeschäften noch im Bereich von Sekunden lagen, konnte dies vernachlässigt werden. Heute jedoch zählt jeder noch so kleine Sekundenbruchteil an Verzögerung. So geraten auch die durchaus vorhandenen Optimierungspotenziale der aktiven Netzkomponenten ins Zentrum des Interesses. Gerade über längere Strecken, also bei der Vernetzung internationaler Handelsplätze, summieren sich nämlich diese gerätebedingten Latenzzeiten zu einer relevanten Größenordnung auf. Dabei gibt es drei mögliche Ansatzpunkte in den Geräten, um die Latenz zu minimieren: Wellenlängenumsetzung, optische Signalverstärkung und Dispersionskompensation.

Wellenlängenumsetzung

In WDM-basierten optischen Netzen wird jedem Datenkanal eine bestimmte Lichtwellenlänge zur Übertragung zugewiesen. Die Signale aus Switch- und Routernetzen müssen deshalb zunächst in ein Lichtsignal mit der entsprechenden Wellenlänge konvertiert werden. Dafür sind so genannte Transponder zuständig. Wie viel Zeit das in Anspruch nimmt, hängt von der verwendeten Technologie ab. Das Spektrum liegt zwischen mehreren hundert Nanosekunden bis hin zu einigen Mikrosekunden. Durch die Wahl einer geeigneten Transponderlösung können Latenzzeiten, die einer Faserlänge von einigen hundert Metern entsprechen, eingespart werden.

Bei der Betrachtung häufig außer Acht gelassen wird die Aggregation von einzelnen Datenströmen in breitbandige Signale. Während heute die gängigste Schnittstelle zur elektronischen Datenübermittlung Gigabit Ethernet ist, werden die meisten Wellenlängen in WDM-Systemen aktuell mit 10 Gigabit oder mehr betrieben. Dies erlaubt zum Beispiel die Übertragung von zehn einzelnen Gigabit Ethernet Signalen auf einer gemeinsamen Wellenlänge und steigert somit die wirtschaftliche Effizienz der Glasfaserverbindung. Allerdings wächst je nach eingesetztem Aggregationsverfahren auch die Latenzzeit um einen Betrag im zweistelligen Mikrosekundenbereich an, deutlich mehr als bei der reinen Wellenlängenumsetzung.

Die gängigsten Verfahren sind SDH-Multiplex, OTN-Aggregation, paketbasierte Verfahren wie Carrier Ethernet sowie optimierte proprietäre Verfahren. Steht die Latenzzeit im Vordergrund der Betrachtung, sind paketbasierte Verfahren ungeeignet, da grundsätzlich die Latenz stark mit der Anzahl der verarbeiteten Protokollschichten ansteigt.

Optische Signalverstärkung

Bei der optischen Signalverstärkung werden eingehende optische Signale verstärkt, ohne sie vorher in elektrische Signale umzuwandeln. Notwendig ist dies, weil die Signalstärke von optischen Signalen während der Übertragung über die Glasfaser aufgrund der Signaldämpfung kontinuierlich abnimmt.

Deshalb werden bei allen längeren Glasfaserverbindungen in regelmäßigen Abständen optische Verstärker eingesetzt – üblicherweise sind dies so genannte Erbium Doped Fiber Amplifier (EDFA). Dabei wird eine konventionelle Glasfaser auf einer Länge von mehreren hundert Metern mit Erbium-Ionen dotiert. Dieser Faserabschnitt wird dann mit Hilfe eines Halbleiterlasers – auch Pump-Laser genannt – beleuchtet, was die Erbium-Ionen mit Energie anregt. Sobald die Photonen des Nutzsignals durch die dotierte Faser laufen, geben die Erbium-Ionen ihre Energie an diese Photonen ab. Dieser Prozess bewirkt eine Verstärkung des Nutzsignals.

Bisher betrachtete man die durch EDFAs hervorgerufene Latenz von hunderten Nanosekunden als vernachlässigbar. Da heute in der Finanzbranche jede Mikrosekunde zählt, kam es jedoch auch hier zu einem Umdenken. Insbesondere deshalb, weil einige Verstärker mit sehr hohem Wirkungsgrad (bspw. bestimmte Dual-Stage EDFAs) sogar Verzögerungen von einigen Mikrosekunden verursachen. Bei latenzkritischen Verbindungen im internationalen Bereich muss deshalb die zur optischen Verstärkung eingesetzte Technologie sehr sorgfältig ausgewählt werden.

Dispersionskompensation

Mit Dispersion wird in der Optik die Abhängigkeit der Ausbreitungsgeschwindigkeit von Lichtwellen von ihrer Wellenlänge bezeichnet, welche durch die sogenannte Brechzahl beschrieben wird. Da Wellenlängensignale immer aus mehreren – wenn auch eng beieinander liegenden – spektralen Komponenten bzw. mehreren Teilwellenlängen bestehen, breiten sich die einzelnen Komponenten des Wellenlängensignals unterschiedlich schnell entlang der Glasfaser aus. Das Signal zerfließt somit aufgrund der Dispersion und kann deshalb im Grenzfall am Empfänger nicht mehr erkannt werden oder stört benachbarte Signale. Dieser als chromatische Dispersion bezeichnete Effekt tritt vorwiegend bei Signalen mit 10 Gigabit oder mehr auf.

Um Dispersionseffekten entgegen zu wirken, wird meist eine spezielle Faserart eingesetzt: die Dispersion Compensating Fiber (DCF). Bei Weitverkehrsverbindungen kann die benötigte Faserlänge insgesamt schnell mehrere hundert Kilometer umfassen und trägt aus diesem Grund erheblich zur Verlängerung der Latenzzeit bei. Eine Alternative bietet eine neue Technologie namens Fiber Bragg Grating (FBG). Da eine detaillierte Beschreibung der FBG-Technologie hier zu weit führen würde, kann man sich die Module als eine Art Prisma von geringer Länge vorstellen, welches beim Einfügen in die Glasfaserverbindung den gleichen Effekt bewirkt. Da FBGs praktisch keine Auswirkungen auf die Latenz haben, ist das Verfahren ideal für den Einsatz mit latenzzeitkritischen Anwendungen geeignet. Moderne WDM-Systeme erlauben beide Technologien: FBGs oder DCF.

weiter mit: Fazit und Ausblick

Fazit und Ausblick

Der automatisierte Wertpapierhandel nimmt immer mehr an Bedeutung zu, während Computerprogramme und Algorithmen gleichzeitig schneller und besser werden. Da liegt es auf der Hand, dass auch die Netzinfrastruktur sich weiterentwickeln muss, und zwar vor allem im Hinblick auf Latenzzeiten.

Entschieden noch vor einem Jahr Millisekunden über den Erfolg eines Börsengeschäfts, werden es im nächsten Jahr bereits Mikrosekunden sein, die den Unterschied ausmachen. Das hat zur Folge, dass jegliche Latenzquelle im Übertragungsweg ausgeschaltet oder zumindest optimiert werden muss.

Längst genügt es nicht mehr, nur die neueste Router-Generation oder die beste Blade-Server-Technologie einzusetzen. Wer zwischen größeren Handelszentren nicht auch das optische Übertragungsnetz im Blick hat, gerät schnell ins Hintertreffen. Nur eine ganzheitliche Optimierung der Handelsumgebung verspricht langfristigen Erfolg.

Gerade bei Wertpapiergeschäften, in denen weit voneinander entfernte Handelsplätze involviert sind, spielt die Latenz eine wesentliche Rolle. Bereits die von der Glasfaserleitung induzierte Verzögerung beträgt hier mehrere Millisekunden. Neben der Streckenoptimierung experimentiert man deshalb heute bereits mit neuen Lichtwellenleitertechnologien, die eine höhere Ausbreitungsgeschwindigkeit der Lichtimpulse erlauben.

Hollow-Core-Faser

Der zukünftige Einsatz von Glasfasern des so genannten Hollow-Core-Typs verspricht die Lichtlaufzeiten in der Faser um bis zu 30 Prozent zu senken. Bei der Vernetzung internationaler Handelszentren könnte über die Gesamtstrecke somit die Latenzzeit schnell um einige Millisekunden reduziert werden. Bei den heute standardmäßig verwendeten Glasfasertypen erreicht das Licht nur eine Ausbreitungsgeschwindigkeit von etwa zwei Dritteln der Lichtgeschwindigkeit im Vakuum. Die theoretisch maximale Lichtgeschwindigkeit von etwa 300 km/s wird aufgrund des hohen Brechungsindex des Glasfasermaterials nicht erreicht.

Anders als bei herkömmlichen Glasfasern, wird bei Hollow-Core-Fasern die Reflexion des Lichts innerhalb der Faser durch Ausnutzung des so genannten Bandgap-Effekts bewirkt und nicht durch ein Kernmaterial mit einem erhöhten Brechungsindex. Die Fähigkeit eines Festkörpers, Licht zu absorbieren, ist an die Bedingung geknüpft, die Photonenenergie mittels Anregung von Elektronen aufzunehmen. Da Elektronen nur in bestimmten Energiebereichen – auch als Bänder bezeichnet – angeregt werden können, ermöglicht ein Abgleich der Bandlücken mit dem Energieniveau der Photonen des Lichtsignals mittels geeigneter Materialwahl eine nahezu vollständige Reflexion des Lichts. Soweit zur Physik.

Da der Brechungsindex des Faserkerns dabei niedriger sein kann als der des Fasermantels, erlaubt die Hollow-Core-Technologie im Extremfall die Verwendung von Luft als Faserkern. Bildlich kann man sich dies wie ein feines, dünnes Röhrchen vorstellen, in dem das Licht transportiert wird. In Luft erreicht die Lichtgeschwindigkeit nahezu ihren Maximalwert, wodurch die durch die Glasfaser bedingte Latenzzeit zwischen zwei Standorten minimal wird. Die Produktion solcher Hollow-Core-Fasern ist aufgrund der sehr engen Toleranzgrenzen heute aber noch sehr schwierig, weshalb ein breiter Einsatz in Kommunikationsnetzen erst noch bevorsteht. Auch hinsichtlich ihrer optischen Eigenschaften wie Dämpfung und Linearität sind noch einige Fragen offen.

Extrem kurze Latenzzeiten in Kommunikationsnetzen werden zukünftig eine tragende Rolle in der IT-Industrie spielen. Der automatisierte Wertpapierhandel ist nur eine Applikation, welche aufgrund ihrer wirtschaftlichen Bedeutung in der Finanzindustrie schnell an Bedeutung gewann. Aber auch andere Anwendungen wie synchrone Datensicherung und Videoübertragung kämpfen, bedingt durch die stetig zunehmenden Datenvolumina, mit der Latenzzeit der Netze. Der erste Lösungsansatz zur Reduktion der Latenz ist immer die Optimierung der Algorithmen und Protokolle. Ab einem gewissen Zeitpunkt kommt aber auch immer die Physik ins Spiel – insbesondere bei optischen Netzen.

Über den Autor

Dr. Michael Ritter ist Vice President Technical Marketing bei ADVA Optical Networking

Kommentare werden geladen....

Kommentar zu diesem Artikel

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

 

Copyright © 2017 - Vogel Business Media