Mobile-Menu

Erst Weitverkehrsnetze machen Big Data fit für die Cloud Ohne WAN-Optimierung scheitert Big Data!

Autor / Redakteur: Dave Greenfield / Dipl.-Ing. (FH) Andreas Donner

Die Echtzeit-Analyse großer, unstrukturierter Datenmengen zählt zu den wichtigsten IT-Trends unserer Tage. Was Anwender jedoch häufig übersehen: Der Transport von "Big Data" zur Auswertung in Cloud-Rechenzentren erfordert leistungsfähige Weitverkehrsnetze. Ohne WAN-Optimierung sind daher die meisten Big-Data-Projekte zum Scheitern verurteilt.

Anbieter zum Thema

Nur wenn auch das Weitverkehrsnetz schnell genug ist, funktionieren auch Cloud Computing und Big Data
Nur wenn auch das Weitverkehrsnetz schnell genug ist, funktionieren auch Cloud Computing und Big Data
(Bild: Silver Peak)

Die Echtzeit-Analyse großer Datenmengen, sprich "Big Data" bringt den meisten Unternehmen Wettbewerbsvorteile, etwa detaillierte Einblicke in die Wünsche und das Kaufverhalten von Kunden oder aktuelle Erkenntnisse über neue Trends, und das in Echtzeit. Firmen, aber auch öffentliche Einrichtungen, können somit dank Big Data schneller auf neue Entwicklungen reagieren und Marktchancen nutzen.

Laut einer aktuellen Untersuchung von Microsoft wollen 75 Prozent aller mittelständischen und großen Unternehmen in den kommenden zwölf Monaten Big-Data-Lösungen implementieren. An die 62 Prozent der Firmen verfügen mittlerweile über Datenbestände von 100 TByte und mehr.

Doch CIOs (Chief Information Officers) und IT-Verantwortliche übersehen häufig einen wesentlichen Faktor, wenn sie Big-Data-Initiativen starten: die hohen Anforderungen, die der Transport solch großer Datenmengen an die zugrunde liegende Netzwerkinfrastruktur stellt. Wenn ein Unternehmen umfangreiche Datenbestände auf Servern und Speichersystemen vorhält, ist dies zunächst einmal kein Wert an sich. Der eigentliche Nutzen besteht darin, umfangreiche heterogene Informationsbestände aus unterschiedlichen Quellen untersuchen und auf Basis der Ergebnisse entsprechende Maßnahmen treffen zu können.

Die Rolle der Netzwerk-Infrastruktur wird ungenügend berücksichtigt

Eine der größten Herausforderungen besteht darin, die technischen Hindernisse zu überwinden, die mit dem Transport und dem Sichern (Backup) von Big Data über Weitverkehrsverbindungen (WAN) verbunden sind. Aber auch andere Schlüsseltechnologien wie Cloud Computing können ihre Vorteile nicht ausspielen, wenn Daten nicht schnell und effizient über WAN-Strecken übermittelt werden. Die Folge: Unternehmen und Organisationen investieren Geld in Anwendungen, die letztlich nicht ihr volles Potenzial entfalten können.

Dass IT-Entscheider die zentrale Rolle der Netzwerk-Infrastruktur im Zusammenhang mit Big Data unterschätzen, belegt auch die Studie von Microsoft. Demnach betrachten IT-Manager die Implementierung von Echtzeit-Analyseverfahren und Data Mining als größte Herausforderung (62 Prozent) in den kommenden zwei Jahren. Für 58 Prozent hat die Erweiterung der Storage-Infrastruktur hohe Priorität, und 53 Prozent sehen Lösungen als wichtig an, mit denen sich unstrukturierte Datenbestände auswerten lassen. Wie diese Daten in die Rechenzentren gelangen sollen, in denen sie analysiert werden, und was das für LANs und Weitverkehrsnetze bedeutet, spielt für die befragten IT-Fachleute offenkundig eine weniger wichtige Rolle.

WAN-Links werden zum Flaschenhals

Doch spätestens dann, wenn Unternehmen Cloud-Computing-Angebote nutzen oder Big-Data-Analysen durchführen, wird ihnen bewusst, dass die vorhandenen WAN-Links nicht ausreichen. Diese sind den wachsenden Anforderungen schlichtweg nicht mehr gewachsen und entwickeln sich zu einem Flaschenhals.

Unzureichende WAN-Verbindungen können zum einen die positiven Effekte zunichtemachen, die sich IT-Manager vom Konsolidieren von Storage-Ressourcen in einer Cloud-Umgebung oder in zentralen Speicher-Pools erhoffen. Zum anderen reichen die Rechenkapazitäten im Data Center eines Unternehmens in der Regel nicht aus, um Big-Data-Informationsbestände zu verarbeiten. Das würde die Anschaffung weiterer Server und Storage-Systeme erfordern, außerdem die Implementierung einer Big-Data-Analysesoftware, inklusive der Schulung des vorhandenen IT-Fachpersonals beziehungsweise die Einstellung weiterer Fachkräfte. Deshalb werden Big-Data-Analysen in immer stärkerem Maße an darauf spezialisierte Service Provider ausgelagert. Diese stellen Big-Data-Analysen im Rahmen von Cloud-Computing-Services zur Verfügung.

Hürden für Big-Data-Initiativen

Vielen IT-Fachleuten ist nicht bewusst, welch zentrale Rolle Netzwerkverbindungen, und hier vor allem WANs, im Zusammenhang mit Big Data spielen, selbst dann, wenn sie die Analyse solcher Informationen in eigenen Rechenzentren vornehmen. IT-Spezialisten neigen dazu, sich in erster Line auf das Speichern und die Auswertung von Big Data zu konzentrieren. Wie die Daten auf die Server und Storage-Systeme gelangen, bleibt oft außen vor.

Bei der Übermittlung von Big Data über Wide Area Networks sind in erster Linie drei Herausforderungen zu bewältigen. Zunächst gilt es bei der Migration von Daten die Stabilität der Verbindungen und die großen Distanzen zu berücksichtigen, die dabei zu überbrücken sind. Je weiter das Rechenzentrum entfernt ist, zu dem Daten transportiert werden sollen, desto höher fallen die Latenzzeiten (Latency) aus und desto länger dauert der Datentransfer.

Die zweite Herausforderung ist eine zu niedrige Bandbreite. Auch sie wirkt sich negativ auf die Übermittlungszeiten aus. Der Umstieg auf WAN-Leitungen mit höherer Kapazität erweist sich in vielen Fällen als Sackgasse, weil entweder keine Links mit der gewünschten Bandbreite zur Verfügung stehen oder die Kosten zu hoch sind. Hinzu kommt, dass in Cloud-Computing-Umgebungen oder MPLS-Netzen (Multi-Protocol Label Switching) Datenpakete nicht oder in der falschen Reihenfolge übermittelt werden, wenn eine Überlastsituation eintritt.

Jeder dieser Faktoren kann das Aus für ein Big-Data-Projekt bedeuten oder die Kosten in die Höhe treiben. Nach Erfahrungswerten von Silver Peak Systems erweitern große Unternehmen ihre WAN-Bandbreite im Durchschnitt alle zwei Jahre. Auf diese Weise tragen Unternehmen dem Umstand Rechnung, dass die Datenmengen wachsen, die übermittelt werden müssen, und der Bedarf an Echtzeit-WAN-Performance steigt.

Doch WAN-Links mit einer größeren Kapazität zu implementieren, ist zeit- und kostspielig. Hinzu kommt, dass mehr Bandbreite nicht in jedem Fall die negativen Effekte beseitigt, die hohe Latenzzeiten und Paketverlustraten bei Anwendungen mit sich bringen, die über Wide Area Networks bereitgestellt werden. Kurzum: Unternehmen und Organisationen, die Business-Anwendungen wie Cloud Computing, Big Data oder das Replizieren von Datenbeständen in räumlich getrennten Rechenzentren einsetzen, müssen sich über die zentrale Rolle der Netzwerk-Infrastruktur bewusst sein.

weiter mit: Big Data bedeutet Geschwindigkeit, WAN-Optimierung nicht nur bei Big Data wichtig und dem Fazit des Autors

Big Data bedeutet Geschwindigkeit

Die dritte Herausforderung im Zusammenhang mit dem Transfer von Big Data über Weitverkehrsleitungen ist die Geschwindigkeit. Wenn der Transfer der Informationen zu lange dauert, verzögert sich auch deren Auswertung. Damit wird das Kernprinzip von Big Data, also die schnellstmögliche Auswertung von Daten und die umgehende Umsetzung der Resultate in Aktionen, ad absurdum geführt.

Die geringsten Probleme im Zusammenspiel von Big Data und Netzwerk sind zu erwarten, wenn ein Unternehmen über "Big Pipes", also WAN-Leitungen mit sehr hoher Bandbreite, verfügt und wenn das Rechenzentrum, in dem die Daten analysiert werden, in unmittelbarer Nähe liegt. Das dürfte allerdings nur selten der Fall sein. Für die meisten Nutzer von Big Data ist es daher dringend geboten, WAN-Optimierungstechniken einsetzen. Dazu zählen

  • eine festpattenbasierte Deduplizierung und Komprimierung von Daten, bevor sie über ein WAN transportiert werden,
  • die Beschleunigung des Datentransfers durch die lokale Auslieferung von Daten beziehungsweise Content sowie
  • die Verringerung von Latenzzeiten mittels WAN-Beschleunigung auf der TCP-Ebene (Transport Control Protocol).

Mithilfe dieser Technologien ist es möglich, den Datenverkehr über ein Weitverkehrsnetz um bis zu 95 Prozent zu reduzieren. Damit sind auch Big-Data-Anwendungen in der Lage, quasi in LAN-Geschwindigkeit über Weitverkehrsverbindungen zu arbeiten.

WAN-Optimierung nicht nur bei Big Data wichtig

Allerdings bringt das Optimieren der Datenübermittlung über WANs nicht nur im Bereich Big Data Vorteile. Mithilfe von WAN Optimization sind IT-Manager in der Lage, Daten und IT-Ressourcen in weniger Rechenzentren zu konzentrieren, Stichwort Konsolidierung. Das wirkt sich günstig auf die Kosten aus. Zudem lassen sich dank WAN-Optimierung vorhandene Weitverkehrsstrecken weiterhin nutzen.

Davon profitieren viele Anwendungen, speziell aber Cloud-basierte Applikationen. Anwender in Außenstellen können beispielsweise auf Software-as-a-Service-Dienste, Unternehmensanwendungen, virtualisierte Desktop-Umgebungen oder Storage-Kapazitäten zugreifen, die in zentralen Firmenrechenzentren bereitgestellt werden. Der Transfer großer Datenmengen erfolgt dank WAN-Optimierung schnell und effizient – und ohne dass dazu die Bandbreite der WAN-Leitungen erhöht werden muss.

Nach Einschätzung von Marktforschungsinstituten wie IDC, Gartner oder Forrester Research wird auf Big Data in fünf Jahren mehr als die Hälfte des weltweiten Datenvolumens entfallen. IT-Verantwortliche und Netzwerkmanager müssen somit sicherstellen, dass die IT- und Netzwerkinfrastruktur dafür ausgelegt ist, große Datenbestände zu transportieren und in Echtzeit auszuwerten. Das setzt jedoch voraus, dass die Datenmengen reduziert werden, die über Weitverkehrsnetze laufen und eine Priorisierung des Datenverkehrs anhand von Quality-of-Service-Merkmalen erfolgt. Zudem muss die Paketverlustrate minimiert werden, damit Datenpakete nicht mehrfach übermittelt werden müssen. Nur bei Einsatz von WAN-Optimierungslösungen sind diese Voraussetzungen gegeben.

Fazit: Netzwerkorientierter Ansatz bei Big Data erforderlich

Zusammenfassend lässt sich festhalten: Big Data eröffnet Unternehmen, Organisationen und öffentlichen Einrichtungen die Chance, wesentlich schneller als bislang valide Informationen über Marktentwicklungen, das Verhalten von Kunden und gesellschaftliche und wirtschaftliche Trends zu erhalten. Das setzt jedoch voraus, dass sich IT-Abteilungen und CIOs von der Vorstellung lösen, der Datenflut die Big Data und Cloud Computing mit sich bringen wäre alleine mit leistungsfähigeren Servern, größeren Storage-Kapazitäten und Netzwerkverbindungen mit immer höherer Bandbreite beizukommen.

Erforderlich ist eine netzwerkorientierte Sichtweise, welche die Optimierung von Weitverkehrs-Links mit einbezieht. Sie ist die Grundlage für die Skalierbarkeit und Flexibilität, die eine IT-Umgebung vor dem Hintergrund wachsender Datenmengen und neuer Technologien wie Big Data und Cloud Computing benötigt.

(ID:39073400)