Mobile-Menu

Agilität und Kontrolle für eine neue Ära der Konnektivität Was bringt Open Networking?

Von Guy Matthews

Die Idee des „offenen Netzwerks“ ist auf dem Vormarsch. Immer mehr Unternehmen setzen auf Open-Source Netzwerk-Betriebssysteme (NOS) um bei Hard- und Softwarelösungen frei entscheiden zu können. Doch bringt Open Networking wirklich Vorteile, wie Flexibilität, Kontrolle und OPEX-/CAPEX-Einsparungen?

Anbieter zum Thema

Open Source hält unter dem Schlagwort "Open Networking" mehr und mehr Einzug in das Routing und Switching von Netzwerken – ein Trend, der von vielen begrüßt wird.
Open Source hält unter dem Schlagwort "Open Networking" mehr und mehr Einzug in das Routing und Switching von Netzwerken – ein Trend, der von vielen begrüßt wird.
(Bild: © ronstik - stock.adobe.com)

Brad Casemore, VP Research, Datacenter and Multicloud Networking beim unabhängigen Analystenhaus IDC, hat eine fundierte Meinung zum Thema Open Networking, da er bereits Untersuchungen zu offenen Netzwerken und deren Vorteilen durchgeführt hat: „Wir wissen sehr wohl, was es leisten sollte“, meint er. „Es sollte Offenheit und Flexibilität bieten, es sollte Wahlmöglichkeiten durch Disaggregation der verschiedenen Komponenten und Schichten im Netzwerk über den gesamten Netzwerkstapel hinweg schaffen. Und es verspricht, die Kosten zu senken und die Effizienz zu steigern.“

Ein Manko, das er jedoch festgestellt hat, ist, dass die Anbieter unterschiedliche Definitionen von offenen Netzwerken haben: „Bedeutet es, über eine offene API zu verfügen? Bedeutet es Offenheit von einem Teil des Netzwerks zum anderen? Meint es Disaggregation des Netzwerks? Oder ist es schlicht die Verwendung von Open-Source-Software und Open-Source-Hardware? Die Herausforderung für die Branche und damit auch für die Unternehmenskunden besteht darin, genau herauszufinden, was es letztlich meint, und jegliche Zweideutigkeit und potenzielle Verwirrung zu beseitigen oder zumindest abzuschwächen.“

Offenheit ist Trumpf

Ein allgemeiner Trend zu mehr Offenheit und weg von streng proprietären Ansätzen ist unverkennbar. Unternehmen, so Casemore, streben heute danach, eine moderne digitale Infrastruktur bereitzustellen, die in ihrer Architektur und ihrem Betriebsmodell eher einer Cloud ähnelt und die Verwendung von Open-Source-APIs sowie einen höheren Grad an Automatisierung während des gesamten Lebenszyklus beinhaltet: „Wir beobachten mehr und mehr Anwendungsfälle, bei denen offene Netzwerke und Open-Source zum Einsatz kommen, und die Unternehmen gehen zu mehr softwaregesteuerten Prozessen über, die auf die Arbeitsweise der Entwickler und die Anforderungen der Anwendung abgestimmt sind. Das Interessante, was wir bei IDC beobachten, ist, dass sich dadurch nicht nur die Netzwerkfunktionalität ändert, sondern auch, wer das Netzwerk betreibt.“

„Wenn von offenen Netzwerken die Rede ist, darf das SONiC-Netzwerkbetriebssystem nicht fehlen, das von Microsoft entwickelt und 2017 als Open Source veröffentlicht wurde: „Unsere Marktprognosen zeigen, dass SONiC-basierte Ethernet-Rechenzentrums-Switches im Jahr 2025 etwa 2,5 Milliarden Dollar wert sein werden“, erklärt Casemore. „Das ist ziemlich viel, wenn man bedenkt, dass es vor ein paar Jahren noch gar keine SONiC-Switches auf dem Markt gab. Das Bemerkenswerte daran ist, dass diese nicht nur für Hyperscaler bestimmt sind, sondern bei einer breiten Palette von Kunden zum Einsatz kommen. Sie werden in Tier-2- und Tier-3-Clouds und in großen Unternehmen in vertikalen Bereichen wie Finanzdienstleistungen eingesetzt. Hier ist tatsächlich ein enormes Wachstum zu verzeichnen.“

Wie lässt sich der Begriff „Open Networking“ genauer definieren und wohin wird sich der Markt entwickeln? Dazu haben Experten, die in diesem sich schnell entwickelnden Sektor eine Rolle spielen, ganz unterschiedliche Auffassungen.

Kontrolle und Transparenz

So meint Ihab Tarazi, SVP & Chief Technology Officer Integrated Products & Solutions bei Dell Technologies: „Wir haben die offene Vernetzung in den letzten fünf oder mehr Jahren vorangetrieben, und sie ist ein wichtiger Bestandteil unserer gesamten Infrastruktur, insbesondere für Rechenzentren“, führt er aus. „Für uns liegt die Bedeutung von Open Networking in der Fähigkeit, Protokolle vom Betriebssystem zu abstrahieren. Es geht um die Verwendung offener Standards zur Konfiguration des Netzwerks und zur Konfiguration der Switches. Es geht aber auch um die Möglichkeit, Protokolle nach Bedarf einzusetzen und sie zu kombinieren. Und es geht um eine containerisierte, Cloud-native Architektur, die es erlaubt, weitere Container hinzuzufügen, um die Anzahl der Protokolle zu erweitern. Und der dritte Punkt ist schließlich die Möglichkeit, das alles individuell anzupassen.“

Dave Maltz, Technical Fellow & CVP Azure Networking bei Microsoft, stimmt dem zu und bescheinigt Dell einen frühen Beitritt zur SONiC-Initiative. Er ist der Meinung, dass Open Source wichtig ist, um volle Transparenz über die Vorgänge in einem Netzwerk zu erhalten: „Disaggregation ist ein weiterer Schlüssel“, bemerkt er. „Sowie die Möglichkeit, unterschiedliche Software auf eine bestimmte Hardware-Plattform zu bringen, um zu wählen, welche der verschiedenen Protokolle laufen sollen, so dass eine Lösung aus den Teilen zusammengestellt werden kann, die man tatsächlich benötigt. Wir stellen auch eine Entkopplung mit öffentlichen APIs fest, die an kritischen Stellen im Netzwerkstack implementiert werden, um Innovationen oberhalb und unterhalb der Switch-Abstraktionsschnittstelle zu ermöglichen. Wir erstellen APIs, mit denen wir Teile der SDN-Datenebene öffnen können. Außerdem müssen die Endnutzer mehr Kontrolle darüber haben, was darunter vor sich geht.“

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Netzwerktechnik, IP-Kommunikation und UCC

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Rebecca Weekly, Vorsitzende und Präsidentin des Vorstands des Open Compute Project (OCP), erinnert sich an die Anfänge von Open Netzworking Ende 2013: „Traditionell war Networking sehr gerätebasiert, wirklich nur eine Box mit Software oben drauf“, erinnert sie sich. „Mit Open Networking wurde versucht, die Netzwerkhardware von der Netzwerksoftware zu trennen, sodass die Möglichkeit bestand, verschiedene Lösungsbereiche zu integrieren und übergreifend zu arbeiten. Es ging auch darum, die Hardwareebene aufzuschlüsseln und Geräte zu betrachten, die zwar geschlossen waren, aber über gemeinsame APIs verfügten, die von verschiedenen Switch-Anbietern, Netzwerken und sogar Netzwerkkarten genutzt werden konnten. Und schließlich ging es darum, einige Aspekte des gesamten Stacks zu standardisieren, damit die Mitarbeiter auf der Programmierebene innovativer werden können.“

Ohne Standardisierung kein Open-Networking

Pere Monclus, VP/CTO, Networking beim Softwarehersteller VMware, erinnert sich an den Input von Standardisierungsgremien wie der IETF, die dazu beitrugen, die Definition von Protokollen und Paketformaten zu liberalisieren, damit Netzwerke interoperabel sind: „Jetzt, 20 Jahre später, hat sich die Bedeutung von Offenheit geändert“, sagt er. „Aus der Sicht der Open-Source-Entwicklung verfügen wir nun über Betriebssysteme, Abstraktion und Schnittstellen von enormer Größenordnung, die zu einem viel offeneren Gesamtkonzept beitragen, von offenen Standards bis hin zu offenen Ecosystemen.“

Erleben wir jetzt also eine Evolution des eigentlichen Zwecks der Vernetzung? Und wie genau sollten Netze in diesem neuen Paradigma einen Mehrwert für Unternehmen bieten?

„Unsere Welt wird immer verteilter“, erläutert Maltz von Microsoft. „Einer der wichtigsten Aspekte von Open-Networking besteht darin, das Netzwerk zu einem aktiveren Bestandteil zu machen, z.B. bei der Sicherung der Oberflächen, die dort veröffentlicht werden. Dies geschieht auf der Virtualisierungsebene, wo eine gemeinsam genutzte physische Infrastruktur virtualisiert und auf die Richtlinien der einzelnen Mandanten und Dienste, die darauf gehostet werden, abgestimmt wird. Das ist genau das, was in unseren Cloud-Hosting-Einrichtungen passiert. Im Unternehmensbereich sehen wir die Notwendigkeit, Sicherheitsgrenzen auch innerhalb von On-Prem-Einrichtungen zu setzen, oder wo auch immer die Dienste angeboten werden, um sicherzustellen, dass sie einen guten Schutz bieten können. Open-Networking wird Service-Architekten eine viel bessere Transparenz und eine viel tiefere Integration der Netzwerkschichten ermöglichen.“

Auf dem Weg zur agnostischen Hardware

„Das Konzept des verteilten Rechnens erfordert mehr innovative Lösungen im Network-Stack“, argumentiert Rebecca Weekly vom OCP: „Genaue Zeitmessung findet tatsächlich im Domain-Bereich statt, um die Effizienz zu steigern, wenn man versucht, Tausende von Servern zu koordinieren“, sagt sie. „Es gibt so viel zu disaggregieren über die Softwareschichten hinweg, und die Notwendigkeit, verteilte Rechenleistung zu verwalten, egal ob in einem Kernrechenzentrum oder am Rand. Das ist der interessanteste Aspekt der Entwicklung in den letzten mehr als acht Jahren. Die Welt der Software wird immer vielfältiger und spezialisierter werden.“

Ihab Tarazi von Dell Technologies ist der Ansicht, dass Open Networking heute nicht mehr nur Open Source bedeutet: „Es ist eine Kombination aus Open Source und Non Open Source, und es wird immer deutlicher, dass beides gebraucht wird“, meint er. „SONiC hat Standardprotokolle, Verwaltungsebenen und Standortschnittstellen geschaffen, um die verschiedenen Hardwareoptionen zu normalisieren. Es hat auch enorme Geschäftsperspektiven für viele Unternehmen geschaffen, die darauf aufbauende Software entwickeln – Speicherdienste, Verschlüsselung, Sicherheit, Zoning. All das wird darauf implementiert, und dann gibt es Verwaltungsebenen und Orchestrierungsstrukturen sowie AIOps mit ihrer Fähigkeit, die gesamte Infrastruktur zu automatisieren. Ich würde immer noch sagen, dass wir auf halbem Weg sind, die Hardware vollständig agnostisch zu machen. Das ist etwas, woran die Open Source Community im Laufe der Zeit weiterarbeiten wird, um mehr Transparenz zu ermöglichen.“

Organisationen wie die OCP lernen nach Ansicht von Rebecca Weekly ständig dazu, da neue Mitglieder der Gemeinschaft beitreten: „Wir lernen, was wir ändern müssen und wie wir gemeinsam vorankommen können“, erklärt sie. „Es ist diese kombinierte Marktsynergie, die es uns ermöglicht, die großen Probleme zu lösen und Menschen an einen Tisch zu bringen, damit wir Barrieren abbauen und neue Aspekte der Innovation finden können. Wir haben viel über SONiC gesprochen, und ich denke, das ist ein perfektes Beispiel für einen Bereich, in dem Hyperscaler einen Innovationspfad eingeschlagen haben, den wir durch die Open-Source-Community-Umgebung auf eine große Anzahl von Endbenutzern ausweiten konnten. Selbst in diesem Bereich gibt es ständige Innovationen, sowohl im Open-Source-Bereich als auch bei den unterschiedlichen Anbietern und Lieferanten, um sicherzustellen, dass die einzelnen Endnutzer zusammenkommen und weiterhin innovativ sein können.“

Über den Autor

Guy Matthews ist Redakteur bei NetReporter, einem Blog von NetEvents.

(ID:47962232)