Flexible Netzwerke für flexible Unternehmen

Software-Defined Networking (SDN) – Hintergrund und Funktionsweise

| Autor / Redakteur: Darius Goodall / Andreas Donner

Software-Defined Networking erlauvt die zentrale Reprogrammierung und Anpassung des Netzwerks – ohne lästiges Strippenziehen
Software-Defined Networking erlauvt die zentrale Reprogrammierung und Anpassung des Netzwerks – ohne lästiges Strippenziehen (Bild: peshkova - Fotolia.com)

Software-Defined Networking (SDN) transformieren fest verdrahtete Unternehmensnetze in eine programmierbare Kommunikationsinfrastruktur, die sich auch an sich verändernde Geschäftsprozesse anpassen lässt. Dieser Beitrag zeigt, wie SDN entstand, wie es funktioniert und wie SDN die Netzwerktechnik revolutionieren wird.

Das Konzept des Software Defined Networking existiert bereits seit einigen Jahren, aber erst vor kurzem ist es zu einem heißen Thema geworden. Vieles wurde von SDN behauptet, und die unterschiedlichen Interpretationen haben zu einer gewissen Konfusion geführt – auch hinsichtlich der Rolle von OpenFlow und der Open Networking Foundation (ONF). Extreme Networks gehört seit vielen Jahren zu den Pionieren des SDN-Ansatzes und ist Mitglied der ONF.

Was kann SDN für Unternehmen tun?

Der gegenwärtige Medienhype rund um SDN begann im Jahr 2011 mit dem ersten Open Networking Gipfel. Das war der erste öffentliche Event, der sich speziell SDN widmete und er war unverzüglich ein Hit. Die Organisatoren hatten optimistisch für 350 Teilnehmer geplant. Schnell gab es allerdings 600 Anmeldungen.

Der Gipfel wurde gemeinsam von der Stanford University und der Open Networking Fundation ausgerichtet, einer Organisation zur Promotion von SDN, die gerade gegründet worden war. Zu ihr gehörten Mitglieder wie Deutsche Telekom, Facebook, Google, Microsoft und Verizon. Inzwischen sind es über 80 Unternehmen. Das rasante Wachstum stammt nicht zuletzt aus dem europäischen Interesse.

Das ONF und die Mission von SDN

Die Inspiration für das ONF hatte zunächst akademische Wurzeln, speziell in der Stanford Universität, und die Mission erinnert sehr an die Entwicklung, die das Computing selbst einst genommen hatte.

Die frühesten Rechengeräte waren logische Maschinen mit festen Drahtverbindungen, die sich um die Lösung eines spezifischen Problems kümmerten. Der nächste Schritt war dann die Einführung transportabler Elemente, die ein gewisses Maß an Re-Konfiguration der Hardware ermöglichten. Wirkliches Computing begann allerdings erst mit der Nutzung von „Software“. Anstatt manuelle Veränderungen der Hardware vorzunehmen, konnte mit Instruktionen die logische Struktur für die nächste Aufgabe konfiguriert werden. Die gleiche Maschine, die zuvor wissenschaftliche Kalkulationen vorgenommen hatte, konnte nun für die Buchführung von Unternehmen genutzt werden.

Auf Basis der neuen, flexiblen Infrastrukturen entstand das Konzept der höheren Sprachen. Der Programmierer musste nicht mehr daran denken, ein logisches Array Knoten für Knoten für eine neue Aufgabe zu konfigurieren, sondern konnte bekannte Wörter wie ADD, MULTIPLY etc. nutzen, um Standard-Operationen zu initiieren.

Von dort entwickelte sich der Weg zu Programmen wie Wort-Prozessoren, mittels derer jedermann mit wenigen Clicks auf Symbole umfangreiche Prozesse auslösen kann. In dieser Beziehung liegt das Networking noch um Längen zurück. Es ist kaum über den Schritt der manuellen Konfiguration hinausgekommen.

Angenommen, es gibt eine fundamentale Idee zur Beschleunigung des Unternehmensnetzes. Wie könnte diese getestet werden? Dafür gibt es ein Beispiel: Ein Student der Stanford Universität wollte mit Load-Balancing experimentieren. Load-Balancer leiten Traffic gewöhnlich zu dem Server mit der geringsten Belastung, unabhängig davon, wie sich der Traffic auf dem Weg dorthin bereits staut. Was würde passieren, wenn der Load-Balancer auch den Traffic auf dem Wege zum Server beachten würde?

In der Theorie ist dies ein sehr einfaches Experiment, aber würde man es auch in einem großen produktiven Netzwerk ausprobieren? Wohl kaum, in Anbetracht der potentiellen Störungen während der Einrichtung und des Risikos beim Betrieb, die zu unvorhergesehenen Konsequenzen führen könnten. Schließlich vertraut eine Vielzahl von Anwendern auf das System.

Tatsächlich wurde das Experiment aber ausgeführt, zunächst am eigenen Netzwerk der Stanford Universität, später auf dem nationalen GENI Testnetz. Erstmals wurde ein Student in die Lage versetzt, eine Idee in einem landesweiten Netzwerk auszuprobieren. Der Grund dafür lag in der Nutzung eines neuen Ansatzes für SDN, basierend auf einem neuen Standard, der jetzt als OpenFlow bekannt ist.

weiter mit: OpenFlow und der Separation der Control-Plane, dem SDN-Gesamtbild und den gegenwärtigen Treibern für SDN im Unternehmensumfeld

Inhalt des Artikels:

Kommentare werden geladen....

Kommentar zu diesem Artikel

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 40522890 / Technologie)