Suchen

Erst Weitverkehrsnetze machen Big Data fit für die Cloud

Ohne WAN-Optimierung scheitert Big Data!

Seite: 2/2

Firma zum Thema

Big Data bedeutet Geschwindigkeit

Die dritte Herausforderung im Zusammenhang mit dem Transfer von Big Data über Weitverkehrsleitungen ist die Geschwindigkeit. Wenn der Transfer der Informationen zu lange dauert, verzögert sich auch deren Auswertung. Damit wird das Kernprinzip von Big Data, also die schnellstmögliche Auswertung von Daten und die umgehende Umsetzung der Resultate in Aktionen, ad absurdum geführt.

Die geringsten Probleme im Zusammenspiel von Big Data und Netzwerk sind zu erwarten, wenn ein Unternehmen über "Big Pipes", also WAN-Leitungen mit sehr hoher Bandbreite, verfügt und wenn das Rechenzentrum, in dem die Daten analysiert werden, in unmittelbarer Nähe liegt. Das dürfte allerdings nur selten der Fall sein. Für die meisten Nutzer von Big Data ist es daher dringend geboten, WAN-Optimierungstechniken einsetzen. Dazu zählen

  • eine festpattenbasierte Deduplizierung und Komprimierung von Daten, bevor sie über ein WAN transportiert werden,
  • die Beschleunigung des Datentransfers durch die lokale Auslieferung von Daten beziehungsweise Content sowie
  • die Verringerung von Latenzzeiten mittels WAN-Beschleunigung auf der TCP-Ebene (Transport Control Protocol).

Mithilfe dieser Technologien ist es möglich, den Datenverkehr über ein Weitverkehrsnetz um bis zu 95 Prozent zu reduzieren. Damit sind auch Big-Data-Anwendungen in der Lage, quasi in LAN-Geschwindigkeit über Weitverkehrsverbindungen zu arbeiten.

WAN-Optimierung nicht nur bei Big Data wichtig

Allerdings bringt das Optimieren der Datenübermittlung über WANs nicht nur im Bereich Big Data Vorteile. Mithilfe von WAN Optimization sind IT-Manager in der Lage, Daten und IT-Ressourcen in weniger Rechenzentren zu konzentrieren, Stichwort Konsolidierung. Das wirkt sich günstig auf die Kosten aus. Zudem lassen sich dank WAN-Optimierung vorhandene Weitverkehrsstrecken weiterhin nutzen.

Davon profitieren viele Anwendungen, speziell aber Cloud-basierte Applikationen. Anwender in Außenstellen können beispielsweise auf Software-as-a-Service-Dienste, Unternehmensanwendungen, virtualisierte Desktop-Umgebungen oder Storage-Kapazitäten zugreifen, die in zentralen Firmenrechenzentren bereitgestellt werden. Der Transfer großer Datenmengen erfolgt dank WAN-Optimierung schnell und effizient – und ohne dass dazu die Bandbreite der WAN-Leitungen erhöht werden muss.

Nach Einschätzung von Marktforschungsinstituten wie IDC, Gartner oder Forrester Research wird auf Big Data in fünf Jahren mehr als die Hälfte des weltweiten Datenvolumens entfallen. IT-Verantwortliche und Netzwerkmanager müssen somit sicherstellen, dass die IT- und Netzwerkinfrastruktur dafür ausgelegt ist, große Datenbestände zu transportieren und in Echtzeit auszuwerten. Das setzt jedoch voraus, dass die Datenmengen reduziert werden, die über Weitverkehrsnetze laufen und eine Priorisierung des Datenverkehrs anhand von Quality-of-Service-Merkmalen erfolgt. Zudem muss die Paketverlustrate minimiert werden, damit Datenpakete nicht mehrfach übermittelt werden müssen. Nur bei Einsatz von WAN-Optimierungslösungen sind diese Voraussetzungen gegeben.

Fazit: Netzwerkorientierter Ansatz bei Big Data erforderlich

Zusammenfassend lässt sich festhalten: Big Data eröffnet Unternehmen, Organisationen und öffentlichen Einrichtungen die Chance, wesentlich schneller als bislang valide Informationen über Marktentwicklungen, das Verhalten von Kunden und gesellschaftliche und wirtschaftliche Trends zu erhalten. Das setzt jedoch voraus, dass sich IT-Abteilungen und CIOs von der Vorstellung lösen, der Datenflut die Big Data und Cloud Computing mit sich bringen wäre alleine mit leistungsfähigeren Servern, größeren Storage-Kapazitäten und Netzwerkverbindungen mit immer höherer Bandbreite beizukommen.

Erforderlich ist eine netzwerkorientierte Sichtweise, welche die Optimierung von Weitverkehrs-Links mit einbezieht. Sie ist die Grundlage für die Skalierbarkeit und Flexibilität, die eine IT-Umgebung vor dem Hintergrund wachsender Datenmengen und neuer Technologien wie Big Data und Cloud Computing benötigt.

(ID:39073400)