Erst Weitverkehrsnetze machen Big Data fit für die Cloud

Ohne WAN-Optimierung scheitert Big Data!

| Autor / Redakteur: Dave Greenfield / Andreas Donner

Nur wenn auch das Weitverkehrsnetz schnell genug ist, funktionieren auch Cloud Computing und Big Data
Nur wenn auch das Weitverkehrsnetz schnell genug ist, funktionieren auch Cloud Computing und Big Data (Bild: Silver Peak)

Die Echtzeit-Analyse großer, unstrukturierter Datenmengen zählt zu den wichtigsten IT-Trends unserer Tage. Was Anwender jedoch häufig übersehen: Der Transport von "Big Data" zur Auswertung in Cloud-Rechenzentren erfordert leistungsfähige Weitverkehrsnetze. Ohne WAN-Optimierung sind daher die meisten Big-Data-Projekte zum Scheitern verurteilt.

Die Echtzeit-Analyse großer Datenmengen, sprich "Big Data" bringt den meisten Unternehmen Wettbewerbsvorteile, etwa detaillierte Einblicke in die Wünsche und das Kaufverhalten von Kunden oder aktuelle Erkenntnisse über neue Trends, und das in Echtzeit. Firmen, aber auch öffentliche Einrichtungen, können somit dank Big Data schneller auf neue Entwicklungen reagieren und Marktchancen nutzen.

Laut einer aktuellen Untersuchung von Microsoft wollen 75 Prozent aller mittelständischen und großen Unternehmen in den kommenden zwölf Monaten Big-Data-Lösungen implementieren. An die 62 Prozent der Firmen verfügen mittlerweile über Datenbestände von 100 TByte und mehr.

Doch CIOs (Chief Information Officers) und IT-Verantwortliche übersehen häufig einen wesentlichen Faktor, wenn sie Big-Data-Initiativen starten: die hohen Anforderungen, die der Transport solch großer Datenmengen an die zugrunde liegende Netzwerkinfrastruktur stellt. Wenn ein Unternehmen umfangreiche Datenbestände auf Servern und Speichersystemen vorhält, ist dies zunächst einmal kein Wert an sich. Der eigentliche Nutzen besteht darin, umfangreiche heterogene Informationsbestände aus unterschiedlichen Quellen untersuchen und auf Basis der Ergebnisse entsprechende Maßnahmen treffen zu können.

Die Rolle der Netzwerk-Infrastruktur wird ungenügend berücksichtigt

Eine der größten Herausforderungen besteht darin, die technischen Hindernisse zu überwinden, die mit dem Transport und dem Sichern (Backup) von Big Data über Weitverkehrsverbindungen (WAN) verbunden sind. Aber auch andere Schlüsseltechnologien wie Cloud Computing können ihre Vorteile nicht ausspielen, wenn Daten nicht schnell und effizient über WAN-Strecken übermittelt werden. Die Folge: Unternehmen und Organisationen investieren Geld in Anwendungen, die letztlich nicht ihr volles Potenzial entfalten können.

Dass IT-Entscheider die zentrale Rolle der Netzwerk-Infrastruktur im Zusammenhang mit Big Data unterschätzen, belegt auch die Studie von Microsoft. Demnach betrachten IT-Manager die Implementierung von Echtzeit-Analyseverfahren und Data Mining als größte Herausforderung (62 Prozent) in den kommenden zwei Jahren. Für 58 Prozent hat die Erweiterung der Storage-Infrastruktur hohe Priorität, und 53 Prozent sehen Lösungen als wichtig an, mit denen sich unstrukturierte Datenbestände auswerten lassen. Wie diese Daten in die Rechenzentren gelangen sollen, in denen sie analysiert werden, und was das für LANs und Weitverkehrsnetze bedeutet, spielt für die befragten IT-Fachleute offenkundig eine weniger wichtige Rolle.

Ergänzendes zum Thema
 
Anforderungen an WAN-Optimierungslösung

WAN-Links werden zum Flaschenhals

Doch spätestens dann, wenn Unternehmen Cloud-Computing-Angebote nutzen oder Big-Data-Analysen durchführen, wird ihnen bewusst, dass die vorhandenen WAN-Links nicht ausreichen. Diese sind den wachsenden Anforderungen schlichtweg nicht mehr gewachsen und entwickeln sich zu einem Flaschenhals.

Unzureichende WAN-Verbindungen können zum einen die positiven Effekte zunichtemachen, die sich IT-Manager vom Konsolidieren von Storage-Ressourcen in einer Cloud-Umgebung oder in zentralen Speicher-Pools erhoffen. Zum anderen reichen die Rechenkapazitäten im Data Center eines Unternehmens in der Regel nicht aus, um Big-Data-Informationsbestände zu verarbeiten. Das würde die Anschaffung weiterer Server und Storage-Systeme erfordern, außerdem die Implementierung einer Big-Data-Analysesoftware, inklusive der Schulung des vorhandenen IT-Fachpersonals beziehungsweise die Einstellung weiterer Fachkräfte. Deshalb werden Big-Data-Analysen in immer stärkerem Maße an darauf spezialisierte Service Provider ausgelagert. Diese stellen Big-Data-Analysen im Rahmen von Cloud-Computing-Services zur Verfügung.

Hürden für Big-Data-Initiativen

Vielen IT-Fachleuten ist nicht bewusst, welch zentrale Rolle Netzwerkverbindungen, und hier vor allem WANs, im Zusammenhang mit Big Data spielen, selbst dann, wenn sie die Analyse solcher Informationen in eigenen Rechenzentren vornehmen. IT-Spezialisten neigen dazu, sich in erster Line auf das Speichern und die Auswertung von Big Data zu konzentrieren. Wie die Daten auf die Server und Storage-Systeme gelangen, bleibt oft außen vor.

Bei der Übermittlung von Big Data über Wide Area Networks sind in erster Linie drei Herausforderungen zu bewältigen. Zunächst gilt es bei der Migration von Daten die Stabilität der Verbindungen und die großen Distanzen zu berücksichtigen, die dabei zu überbrücken sind. Je weiter das Rechenzentrum entfernt ist, zu dem Daten transportiert werden sollen, desto höher fallen die Latenzzeiten (Latency) aus und desto länger dauert der Datentransfer.

Die zweite Herausforderung ist eine zu niedrige Bandbreite. Auch sie wirkt sich negativ auf die Übermittlungszeiten aus. Der Umstieg auf WAN-Leitungen mit höherer Kapazität erweist sich in vielen Fällen als Sackgasse, weil entweder keine Links mit der gewünschten Bandbreite zur Verfügung stehen oder die Kosten zu hoch sind. Hinzu kommt, dass in Cloud-Computing-Umgebungen oder MPLS-Netzen (Multi-Protocol Label Switching) Datenpakete nicht oder in der falschen Reihenfolge übermittelt werden, wenn eine Überlastsituation eintritt.

Jeder dieser Faktoren kann das Aus für ein Big-Data-Projekt bedeuten oder die Kosten in die Höhe treiben. Nach Erfahrungswerten von Silver Peak Systems erweitern große Unternehmen ihre WAN-Bandbreite im Durchschnitt alle zwei Jahre. Auf diese Weise tragen Unternehmen dem Umstand Rechnung, dass die Datenmengen wachsen, die übermittelt werden müssen, und der Bedarf an Echtzeit-WAN-Performance steigt.

Doch WAN-Links mit einer größeren Kapazität zu implementieren, ist zeit- und kostspielig. Hinzu kommt, dass mehr Bandbreite nicht in jedem Fall die negativen Effekte beseitigt, die hohe Latenzzeiten und Paketverlustraten bei Anwendungen mit sich bringen, die über Wide Area Networks bereitgestellt werden. Kurzum: Unternehmen und Organisationen, die Business-Anwendungen wie Cloud Computing, Big Data oder das Replizieren von Datenbeständen in räumlich getrennten Rechenzentren einsetzen, müssen sich über die zentrale Rolle der Netzwerk-Infrastruktur bewusst sein.

weiter mit: Big Data bedeutet Geschwindigkeit, WAN-Optimierung nicht nur bei Big Data wichtig und dem Fazit des Autors

Inhalt des Artikels:

Kommentar zu diesem Artikel
Spannende Zusammenfassung, die ich aus meiner Praxis nur bestätigen kann (siehe www.nicos-ag.com)....  lesen
posted am 09.12.2013 um 10:22 von Unregistriert


Mitdiskutieren

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 39073400 / Performance-Management)