40 und 100 Gigabit - Wo es hakt und die Geschwindigkeit trotzdem Sinn macht Das 100 Gigabit Ethernet ist da!

Autor / Redakteur: Klaus Grobe / Ulrike Ostler

Der Datentransport im Internet- und in Corporate-Backbones sowie in Rechenzentren soll sich beschleunigen. Nun hat die Higher Speed Study Group (HSSG) unter der Bezeichnung 802.3ba die100-Gigabit-Technologie standardisiert. Auch die in optischen Transportnetzen (OTN) benutzte Datenrate von 40 Gbit/s wird hier als 40-Gigabit-Ethernet (40GbE) berücksichtigt. Doch: Wo liegen die Unterschiede zu den bisherigen Standards?

Firma zum Thema

100 Gigabit verspricht leistungsfähige Netzefür viel Volumen. Doch es gibt ein paar Anschlussprobleme. Bild: Kabel BW
100 Gigabit verspricht leistungsfähige Netzefür viel Volumen. Doch es gibt ein paar Anschlussprobleme. Bild: Kabel BW
( Archiv: Vogel Business Media )

Manche fragen sich, ob 100 Gigabit tatsächlich notwendig sind. Schließlich scheinen 10 Gigabit pro Sekunde für die meisten Transportbereiche noch ausreichend, zudem steht ja 40 Gigabit pro Sekunde (Gbit/s) auch schon in den Startlöchern.

Doch nicht nur Speicher und Prozessoren unterliegen Moores Geset, auch der Bandbreitenbedarf wird weiter stark ansteigen. Das ist die Folge von immer leistungsfähigeren Prozessoren und Speichersystemen, die immer komplexere und damit bandbreitenhungrige Anwendungen bewältigen können.

Zu spüren ist das bereits in den zentralen Bereichen (Core) von Transportnetzen, wo der Netzwerkverkehr eines Netzbetreibers zusammenläuft. Hier kommt es mit 10 Gbit/s mittlerweile zu Engpässen, die vorhandenen Glasfasern geraten an ihre Auslastungsgrenze.

100 ≠ 10 x 10

Wachtumsvergleich: Bitbedarf im Netzwerk- und im Server-Bereich, Grafik: Adva Optical Networking (Archiv: Vogel Business Media)

Einfache Abhilfe ist nicht in Sicht, denn Lösungen, die mehrere 10 Gbit/s-Verbindungen aggregieren, weisen Nachteile auf. So bietet ein echter 100 Gigabit-Ethernet-Link einen Datendurchsatz von 100 Gbit/s, während zusammengefasste 10 mal 10 Gigabit-Ethernet auf signifikant weniger kommen. Denn Letzteres bedeutet einen deutlich höheren Verarbeitungsaufwand für den Core-Router, der bei der 100 Gigabit-Ethernet deutlich effizienter arbeiten kann.

Das hat auch Auswirkungen auf die Kosten: Ein Core-Router, der eine Last von 1 Terabyte durchschleusen soll, schafft das günstiger mit 100 Gbit/s-Links, als mit n mal 10 Gbit/s-Links.

Hinzu kommt: Es ist auch keine zukunftsfähige Lösung, die sich zunehmend füllenden 10 Gbit/s-Links einfach durch weitere 10 Gbit/s-Links – sprich neue Wellenlängen – zu ergänzen. Erstens ist dies nicht unbegrenzt möglich und zweitens technisch schwierig und teuer, insbesondere wenn es gilt, tiefer ins L- oder S-Band des Farbspektrums vorzudringen.

100 Gigabit-Ethernet ermöglicht hingegen durch das breitbandigere Interface auch eine höhere Spektraleffizienz. Das bedeutet, dass sich die Wellenlängen-Slots effizienter füllen lassen.

Das wird wiederum Einfluss auf die Kosten haben: Es ist anzunehmen, dass der 100 Gbit/s-Transport den 40 Gbit/s-Transport bald im Preis unterbieten und relativ schnell in die Preisregion von 10 x 10 Gbit/s kommen wird.

weiter mit: Die Vorteile von 100G im Vergleich zu 40G

Die Vorteile von 100G im Vergleich zu 40G

Unterschiedliche Spektren – unterschiedliche Effizienz, Bild: Adva Optical Networking (Archiv: Vogel Business Media)

Ein Vorteil von 100G im Vergleich zu 40G liegt in der höheren Spektraleffizienz, also in der Auslastung der Faser. 100 Gigabit-Ethernet ist hier etwa um den Faktor 2 besser als 40G.

Es gäbe zwar Möglichkeiten, diese Effizienz auch bei 40 Gigabit zu verbessern, indem man etwa auf ein 25 Gigahertz-Raster wechselt. Allerdings wäre dies auch mit einem entsprechenden Aufwand in der Entwicklung sowie einer höheren Komplexität verbunden.

Da die 100 Gigabit-Technologie bereits in den Startlöchern steht, ist dies wirtschaftlich wahrscheinlich nicht sehr erfolgversprechend. Außerdem ist der Aufwand für die Einrichtung von 40 Gbit/s nicht viel geringer als die 100 Gigabit-Variante. Für unwesentlich höhere Kosten kann man also gleich auf 100 Gbit/s wechseln, bekommt dafür aber um den Faktor 2,5 mehr Bandbreite.

Ein weiterer Grund dafür, dass die 100 Gbit/s-Technologie gegenüber 40G die besseren Voraussetzungen hat liegt darin, dass sich 100 Gbit/s nicht in das 25-Gigahertz-Raster fügt. Da das auch für mögliche Nachfolge-Transportleistungen wie 400 Gigabit oder 1 Terabit pro Sekunde zutrifft, wird sich das 25-Gigahertz-Raster wahrscheinlich nicht mehr durchsetzen. 40 Gigabit-Ethernet wird damit bei seiner Spektraleffizienz bleiben müssen.

Noch mehr Nachteile im 40G-Bereich

Ein weiterer Nachteil des 40-Gbit/s-Transports liegt darin, dass die Modulation nie konsequent standardisiert wurde. Das erklärt auch den relativ hohen Preis für den 40 Gbit/s-Transport.

Bei 100G hat man sich im Gegensatz dazu schnell darauf verständigt, dass es eine Standardisierung des Modulationsverfahrens geben muss. Das wurde bestimmt, definiert und ist jetzt verfügbar, sämtliche Anbieter verfahren danach. Damit ist man bei einem Optimum an Transportleistung angelangt, eine höhere Spektraleffizienz im Hinblick auf Performance wird es nicht mehr geben.

weiter mit: Koexistenz von 40- und 100-Gbit/s

Koexistenz von 40- und 100-Gbit/s

Verschiedene Konstellationen im Umfeld von 100 Gigabit, Bild: Adva Optical Networking (Archiv: Vogel Business Media)

Doch auch wenn 100 Gbit/s langfristig die besseren Marktaussichten haben, werden die Transportgeschwindigkeiten nebeneinander existieren. So arbeiten sie einerseits in Transportnetzen, andererseits in Anwendungen zusammen.

Bei der Koexistenz in Transportnetzen gibt es zwei unterschiedliche Ansätze bei den großen Carriern. Der eine Ansatz sieht vor, alles in einem Netz zu kombinieren und die 100-Gbit/s-Koexistenz mit 10-Gbit/s- oder 40-Gbit/s-Technologie zu erreichen. Andere Carrier wie AT & T bieten 10 Gbit/s-Transport in altbekannter Weise und 40 Gbit/s beziehungsweise 100 Gbit/s im Overlay.

Ein anderer Fall von Koexistenz betrifft die Rechenzentren: Während sich in großen Core-Routern 100G auf lange Sicht durchsetzen wird, wird 40-Gbit/s eher in Datacenters genutzt werden. Der Grund hierfür: Die Switch-Module für Server-Blades in Rechenzentren sind derzeit meist auf die 40 Gbit/s abgestimmt. Allerdings sind hier die letztgültigen Entwicklungen nicht absehbar.

Die Herausforderungen bei der Umsetzung von 100G

Die Herausforderungen bei der Umsetzung von 100G liegen vor allem im Bereich Spektraleffizienz. Ein 10 Gbit/s-Link lässt sich nicht ohne weiteres auf 100 Gbit/s erweitern.

Arbeitet man mit demselben Modulationsschema NRZ-OOK (Non-Return-to-Zero On/Off-Keying), dann würden 100-Gbit/s nicht mehr in den Wellenslot eines Standard-WDM-Systems passen, der bei 50 Gigahertz liegt. Außerdem würde die stark angestiegene Datenrate im Transportkanal sehr hohe Übertragungseffekte (Penalties) verursachen.

Bei einer Verzehnfachung der Bitrate im Kanal würde sich die Auswirkung der chromatischen Dispersion verhundertfachen. Man müsste die Übertragungssysteme also um den Faktor 100 genauer kompensieren.

Die Auswirkung der so genannten „Polarisationsmodendispersion“ würde sich annähernd verzehnfachen, also etwa linear mit der Datenrate ansteigen. Zusätzlich ist mit einer Verschlechterung des Signalrauschverhaltens um 10 db zu rechnen. Diese Werte zusammengenommen zeigen, dass dieses Verfahren kein sinnvoller Weg ist.

weiter mit: Eine andere Art der Modulation

Eine andere Art der Modulation

Vergleich der Modulationsschemata - aus: Whitepaper von Adva Optical Networks (Archiv: Vogel Business Media)

Es ist also ein anderes Modulationsverfahren notwendig. Dafür bietet sich das kohärente QPSK an, und zwar in Verbindung mit Polarisationsmultiplex und einem digitalem Homodyn-Empfänger, weil sich nur mit diesem das Polarisations-Multiplexing penalty-frei umsetzen lässt. Diese standardisierte Lösung erfüllt die Anforderungen der Spektraleffizienz, sprich die Übertragung von 100 Gigabit über 50 Gigahertz.

Da es sich um ein kohärentes, homodynes Verfahren handelt, ist es um mindestens 6 – 10 db besser als On-/Off-Keying. Das heißt, man gewinnt also quasi fast die gesamte Penalty wieder, die man durch die reine Bit-Raten-Erhöhung verliert. Und da der Empfänger digital implementiert ist, kann man zugleich auch entsprechende Echo-Entferner beziehungsweise. Equalizer installieren.

Wenn man das PM-QPSK als digitalen Intradyn implementiert hat, funktioniert dieses System besser auf langen Strecken, die überhaupt nicht mehr kompensiert sind, also keinerlei Kompensatoren mehr enthalten. Das widerspricht allen heute gängigen 10-Gbit/s-Langstreckensystemen, da diese alle mit Kompensatoren ausgestattet sind.

Unverträglichkeiten in den Langstreckensystemen

Das kommende 100-Gbit/s-Intradyn arbeitet mit diesen nicht optimal zusammen. Dieser Umstand bestätigt die Netzbetreiber, die 100-Gbit/s-Transport im Overlay anbieten wollen. Denn im Overlay müssen die Systeme nicht kompensiert werden, während die alten Systeme bleiben, wie sie sind, bis sie abgeschrieben und abgeschaltet sind.

Auch hier zeigt sich also, dass die Koexistenz von 10 Gigabit- und 100-Gbit/s-Systemen weiterhin eine Herausforderung bleibt. Beide haben verschiedene Kompensationsanforderungen, die sich schwer unter einen Hut bringen lassen.

weiter mit: Serienprodukte Ende 2010, Anfang 2011

Serienprodukte Ende 2010, Anfang 2011

Die Abdeckung bei 100 Gigabit; Angaben in Kilometern, Grafik: Adva Optical Networks (Archiv: Vogel Business Media)

Die HSSG hat den 802.3ba-Standard Mitte 2010 verabschiedet, die ersten Produkte sind heute marktreif. Doch mit echten, serienreifen 100 Gigabit-Ethernet-Produkten ist nicht vor 2011 zu rechnen. Denn die avisierte systemische Lösung basiert maßgeblich auf sehr schnellen digitalen Komponenten in den Empfängern.

Die Ursache für diese Geschwindigkeitsanforderung liegt darin, dass das 100G-Signal mit allem Framing und Overhead mit etwa 112 Gigabit pro Sekunde pro Kanal übertragen wird. Durch Polarisations-Multiplex und QPSK beträgt die Taktrate 28 Gigabaud in vier parallelen Lanes in zwei orthogonalen Polarisationsebenen.

Pro Polarisationsebene werden Real- und Imaginärteile benötigt, wie Inphasen- und Quadraturkomponenten. Man hat also I und Q in X und Y, sprich vier Komponenten.

Diese multiplizieren sich nochmals mit den 28 Gbit/s. Wenn man das digital bearbeiten will, muss man mit mindestens 56 Giga-Samples pro Sekunde in allen vier Lanes abtasten. Dem entsprechen 4 x 56 Gigasamples pro Sekunde.

1,3 Terabit pro Sekunde überfordern noch

Es zeichnet sich weiter ab, dass man diese mit 6 bis 7 Bits pro Sample kodieren muss, um die Abtastwerte danach hinreichend bearbeiten zu können. Das bedeutet: Ein solches digitales System muss in Echtzeit etwa 1,3 Terabit pro Sekunde verarbeiten. Genau hier liegt die Herausforderung. Die avisierte Serientechnik ist dann in 40 Nanometertechnologie zu implementieren.

Die derzeitigen Prototypen sind das noch nicht. Zwar haben einige Hersteller schon jetzt entsprechende Produkte angekündigt, doch herrscht bei diesen frühen Marktankündigungen die Gefahr, dass die digitalen Komponenten schneller veraltet sind als bei den Technologien, die erst 2011 auf den Markt kommen.

weiter mit: Anwendungsgebiete und Szenarien

Anwendungsgebiete und Szenarien

100 Gbit/s wird hauptsächlich in Telekommunikationsnetzen für die Core-Router-Verbindungen für mehr oder weniger statische MPLS-Pipes genutzt. Was die Anwendung in Rechenzentren betrifft – der Datentransport zwischen den Rechenzentren wird voraussichtlich ebenfalls relativ schnell auf 100G-Transport umschalten.

Intern jedoch ist es möglich, dass zunächst der 40G-Transport erste Wahl sein wird. Grund hierfür ist die zunächst bessere Anpassung an die Leistungsfähigkeit von Blade Servern.

Voraussetzung hierfür ist jedoch zunächst die Erweiterung des sogenannten Data Center Bridging (DCB, der Data Center Variante von Ethernet) auf diese Übertragungsgeschwindigkeit. Später ist dann denkbar, dass auch innerhalb der Data Centers 10-Gbit/s DCB zum Einsatz kommt, zumal ja mit InfiniBand QDRx12 bereits ein Data Center Protokoll auf dem Markt ist, dass 100G unterstützt.

Der andere große Einsatzbereich sind große Corporate-Backbones. Dies können wissenschaftliche Netze für Höchstleistungsanwendungen sein, es können aber auch Cloud Computing-Netze großer Unternehmen wie Google oder Amazon. Hierin lassen sich die verschiedenen virtualisierten Dienste wie etwa Infrastruktur-as-a-Service anbieten.

Neue Distanzen

Interessant ist auch die Betrachtung der Distanzen, die es mit 100-Gigabit-Ethernet zu überwinden gilt. Für 100-Gigabit-Ethernet werden zwei neue Interface-Kategorien nach IEEE standardisiert werden, die 10 und 40 Kilometer Reichweite abdecken. Damit bietet sich eine interessante Möglichkeit der Datacenter-Koppelung – über das LAN-Interface.

Doch das LAN-Interface ist kein Transportsystem im eigentlichen Sinne, da in einer Anwendung mehrere dieser Interfaces über dedizierte Fasern an den Router übertragen werden müssten. Zwar ist das IEEE 40-Kilometer-Interface auf vier Wellenlängen á 25G parallelisiert; allerdings sind das immer die gleichen Wellenlängen.

Man kann also immer genau ein Interface über ein Faserpaar übertragen. Hat man mehr Interfaces, aber nur ein Faserpaar, so wird ein WDM-Transportsystem benötigt.

Das IEEE 803-ER4-Interface eignet sich nur dann, wenn man dedizierte Fasern pro 100-Gigabit-Interface vorliegen hat und auch dann nur für Distanzen bis 40 Kilometer – also in der Regel nicht für den weiträumigen Transport.

Wo 100 Gigabit jetzt schon einen Sinn ergeben

Während der Standard IEEE 802.3ba jetzt also Übertragungswege bis rund 40 Kilometer abdeckt, wird seitens des OIF (Optical Internetworking Forum) an einem Standard für lange Distanzen gearbeitet, je nach Implementierung für 1.500 Kilometer und darüber hinaus. Doch es gibt eine ganze Reihe von Entwicklungen, die nahelegen, dass auch die Datenmengen in mittleren Reichweiten, also im Access- und Metro-Transportbereich, soweit ansteigen werden, dass 100-Gigabit-Ethernet Sinn macht.

Dazu zählt neben Social Networking und der rasanten Verbreitung leistungsfähiger mobiler Endgeräte auch das Cloud Computing. Mit den 100-Gigabit-Kurzstrecken-Interfaces wird 100 Gigabit im Metro-Bereich jedoch unmöglich sein. Die Langstrecken-Interfaces hingegen kommen eventuell allein vom Preis her für Distanzen unter 500 Kilometer nicht in Frage.

Adava Optical Networking sieht hier mit seinen Metro- und Enterprise-100-Gbit/s Entwicklungen eine Marktchance.

Der Autor:

Klaus Grobe ist Dipl.-Ing. und Dr.-Ing. im Fach Elektrotechnik und hat an der Leibniz-Universität in Hannover studiert. Er arbeitete an mehr als 50 wissenschaftlichen Veröffentlichungen mit und ist Mitglied der IEEE Photonics Society, des VDE ITG (German Association for Electrical, Electronic & Information Technologies) und der ITG Study Group 5.3.3, die an photonischen Netzen arbeitet. (Archiv: Vogel Business Media)

Klaus Grobe ist Principal Engineer bei Adva Optical Networking.

(ID:2046559)