Zukünftige Netze basieren auf nur einem Management und offenen Systemen

Netzwerke bieten noch viel Virtualisierungs- und Automatisierungspotenzial

15.02.2008 | Autor / Redakteur: Annette Stadler / Ulrike Ostler

Die Netze der Zukunft sind virtuell und stark automatisiert
Die Netze der Zukunft sind virtuell und stark automatisiert

Verglichen mit den Möglichkeiten bei Speicher- und Server-Lösungen steckt die Virtualisierung von Netzwerken noch immer in den Kinderschuhen. Hersteller wie Cisco, Juniper und IBM stellen jetzt allerdings Entwicklungen vor, die den Virtualisierungsgrad vertiefen. Am Ende der Entwicklung sollen komplett virtualisierte IT-Infrastrukturen stehen – Speicher, Netzwerke und Applikationen.

Einzelne Netzwerkbereiche lassen sich bereits virtuell abbilden, obwohl sie physisch eine Einheit bilden. Eine abteilungsweise oder aufgabenorientierte Netzabgrenzung zwischen der Personal- und der Entwicklungsabteilung oder dem Internet-Zugangsbereich und dem unternehmensinternen Bereich ist in einer virtuellen Umgebung möglich. Unterschiedlicher Datei- und Ressourcenzugriff lassen sich hier bereits realisieren.

Schwieriger ist es allerdings, virtualisierte Netze auf Applikationen abzubilden, die über verschiedene Bereiche und Abteilungen hinweg ablaufen. Prinzipiell erfordert dies eine Virtualisierung, die sich nicht nur auf Netzwerke, Speicher und Server bezieht, sondern über die gesamte Infrastruktur gestülpt ist.

Die Herausforderung der Zukunft besteht darin, virtuelle und voll automatische IT-Infrastrukturen zu entwickeln, die sich quasi selbst administrieren. Doch selbst die Aufgabe, Datenmigrationen im laufenden Betrieb zu bewältigen, ist noch Zukunftsmusik.

Zusammenspiel statt Einstimmigkeit

Prinzipiell besteht Virtualisierung darin, die Hardware in den IT-Komponenten von der Administration zu trennen. Es entstehen quasi getrennte Schichten. Per Software lassen sich so bestimmte Ressourcen zusammenschließen und wieder voneinander trennen. Damit dies in heterogenen Netzwerkinfrastrukturen funktioniert, muss die Virtualisierung herstellerübergreifend sein. Zudem setzt das die Möglichkeit von nur einem Management-System voraus.

Das kann jedoch nur funktionieren wenn die einzelnen Systeme offen sind. In der Vergangenheit führte der Weg zu mehr Offenheit zumeist über die Suche nach einem gemeinsamen Standard. Dieser Weg war steinig, langwierig und kostspielig.

Heute bahnt sich ein Weg aus der Praxis heraus: Embedded Linux treibt die Virtualisierung voran. „Mit der Verwendung von Linux-basierten Netzwerk- und IT-Komponenten öffnet sich die Netzwerkwelt automatisch und es wird einfacher, verschiedene Komponenten anzusprechen“, behauptet etwa Ingolf Wittmann, Technical Director Systems & Technology Group von IBM. Moderne Router und Switches verfügten über Intel-Hardware mit einem Linux-Betriebssystem, seien gut zu skalieren und böten dennoch hohe Bandbreiten.

Kostenpunkt

Eines der Ziele von Virtualisierung ist neben der besseren Unterstützung von Geschäftsprozessen, einer hohen Flexibilität und Reaktionsfähigkeit die Senkung der Gesamtkosten, der Total Cost of Ownership (TCO). Die Kosten lassen sich jedoch nur senken, wenn die Management-Systeme stärker als bisher automatisiert und herstellerübergreifend arbeiten. „Von Hand gemanagte Virtualisierungstechniken können die Komplexität dermaßen erhöhen, dass die Vorteile wieder aufgewogen werden“, erklärt Wittmann.

Obwohl Embedded Linux auch eine günstige Voraussetzung für IT-Management-Systeme wären, haben Linux- oder Open-Source-basierende Management-Systeme nicht automatisch bessere Karten. Im Gegenteil: Die Systeme können zum Großteil nur Microsoft-Umgebungen steuern und arbeiten nicht mit höherwertigen Betriebssystemen, über die 80 Prozent der Netzwerklast läuft.

Derzeit zeichnet sich ab, dass Hersteller unterschiedlicher Lager Entwicklungen vorantreiben, die einen höheren Virtualisierungsgrad anstreben – bis auf die Applikationsebene. IBM hat beispielsweise unter der Bezeichnung IBM Dynamic Infrastructure eine Middleware entwickelt, die die „Mysap Business Suite“ von SAP unterstützt. Sie soll das Management der SAP-Applikationen vereinfachen und die Hardware für die SAP-Prozesse effektiver ausnutzen.

Modul-Architektur

In den vergangen vier Jahren hat Cisco mehr als eine Milliarde Dollar in die Entwicklung der Data-Center-3.0-Architektur gesteckt. Mit „Cisco Nexus 7000“ stellt der Hersteller nun erstmals eine Switching-Plattform mit dieser Architektur vor. Nexus ist dezidiert für Rechenzentrumsumgebungen konzipiert und soll Storage- und IP-Networking in einer gemeinsamen Appliance „Unified Fabric“ vereinen. Damit sollen Rechenzentren ihre Speicher- und Server-Ressourcen intensiver ausnutzen können.

Das Netzwerk erhält eine Schlüsselrolle, da es Geschäftsprozesse bedarfsgerecht mit virtuellen IT-Ressourcen versorgt. Jeder Server kann in diesem Arrangement über die Unified Fabric auf jede Ressource zugreifen, womit eine Virtualisierung unterschiedlicher Ressourcen erfolgt. Die Unified-Fabric-Architektur zeichnet sich durch einheitliche I/O-Interfaces aus und wird in Zukunft Fibre Channel over Ethernet (FCoE) unterstützen.

Mit FCoE können herkömmliche Fibre-Channel-Datenströme von Speichersystemen via Ethernet transportiert werden. Weil LAN (Local Area Network) und SAN (Storage Area Network) künftig in gemeinsamen Unified Fabrics integriert sind, werden weniger Server-Interfaces benötigt. Neben direkten Kosteneinsparungen sinkt der Platzbedarf, die Verkabelung vereinfacht sich, und der Stromverbrauch wird reduziert. Das Data Center kann insgesamt eine höhere Maximalleistung erbringen.

Für diese Lösung hat Cisco nicht nur die Architektur, sondern auch das Betriebssystem überarbeitet. Das Betriebssystem „NX-OS“ kombiniert Funktionen der Speichernetzsoftware Cisco SAN-OS mit Switching- und Routing-Fähigkeiten von Cisco IOS. Es ist für Hochverfügbarkeit, Skalierbarkeit und Virtualisierung optimiert. NX-OS kann einen „Nexus“-Switch in mehrere logische Switches unterteilen, die voneinander unabhängige Aufgaben erfüllen.

Während einer der logischen Switches beispielsweise Speichersysteme bedient und von Storage-Verantwortlichen gemanagt wird, wäre ein zweiter für die Server-Farm zuständig und würde von einem anderen Team administriert. Ein dritter logischer Switch schließlich könnte für die Testumgebung dienen. Alle drei teilen sich dieselbe Fabric und eine gemeinsame redundante Stromversorgung.

Die Ex-Familie

Juniper hat mit der „EX-Serie“ ebenfalls eine Enterprise-Switch-Familie vorgestellt, die mit „Junos“ über ein neu entwickeltes Betriebssystem und eine Virtual-Chassis-Technik verfügt. Die mit dieser Technik ausgestatteten Ethernet-Switches der Serie „EX 4200“ warten mit den gleichen Gigabit-Ethernet- (GbE) und 10GbE-Port-Dichten auf wie traditionelle chassis-basierte Switches, benötigen aber nur ein Achtel des Platzes und kosten nur ein Drittel.

Zur Steigerung der Applikations-Transparenz verfügt die EX-Serie über ASIC-basierte Flow-Fähigkeiten (ASIC = application-specific integrated circuit). Sie ermöglichen, Netzwerk-Statistiken hardware-basiert zu erstellen und Applikationen zu identifizieren.

Kommentare werden geladen....

Kommentar zu diesem Artikel

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 2010756 / LAN- und VLAN-Administration)