Fünf Tipps für das Schaffen einer guten Ausgangslage Das Rechenzentrum wandert an den Rand des Netzwerks
Anbieter zum Thema
In den kommenden Jahren werden schätzungsweise die Hälfte aller Daten dezentral, das heißt: am Netzwerkrand (am Edge), verarbeitet werden. Auch wenn Rechenzentren wichtige Knotenpunkte der Netzwerkinfrastruktur bleiben, muss sich ihre Funktion ändern, um verteilten datenlastigen Anwendungen die nötige Rechenpower bereitzustellen.

Dezentrale und virtuelle Datacenter lösen zunehmend die stationären Rechenzentren ab und erfassen Daten dort, wo sie produziert werden: Nämlich in Public Clouds und in Edge-Rechenzentren. Durch die dezentrale Erfassung und Analyse von Daten wird ein Wandel, weg von einem klassischen Rechenzentrum hin zu mehreren Datacenter, eingeläutet und Änderungen auf Infrastruktur- und IT-Ebene angestoßen.
Ein wesentlicher Treiber für diese Entwicklung ist die komplexe Datenstruktur. Allein die Anzahl der an das Netzwerk angeschlossenen Kameras wird sich in den nächsten fünf Jahren verdoppeln – und jede von ihnen wird riesige Datenmengen produzieren. Bereits heute sind drei Viertel aller Endpunkte im Netzwerk IoT-Geräte.
Gleichzeitig wird eine gemeinsame Netzwerkinfrastruktur für herkömmliche Unternehmensanwendungen und den Betrieb von Anlagen wie z.B. für die Betriebstechnik von Produktionsstrecken oder der Gebäudetechnik genutzt. Es wird immer wichtiger, Entscheidungen und Maßnahmen in Echtzeit treffen zu können, da zunehmend mehr Produktionsanlagen und Netzwerkinfrastrukturen vernetzt werden.
Zum Beispiel werden Fertigungsprozesse durch Kameras und Sensoren gestützt, um eine höhere Qualität und Sicherheit zu gewährleisten. In der Öl- und Gasindustrie lassen sich dadurch Störfälle und Fehlfunktionen von Anlagen genau überwachen und durch dezentrale, automatisierte Systeme schnell beheben.
Auch im öffentlichen Sektor verlassen sich Smart Cities auf Kameras, Sensoren und andere IoT-Geräte, um die öffentliche Sicherheit zu gewährleisten, den Verkehr zu optimieren, die Infrastruktur zu warten und die Energie-Effizienz zu fördern. Die so entstandenen Daten können für die weitere Verarbeitung nicht mehr wie bisher zu zentralen Rechenzentren transportiert werden weil sowohl die Laufzeit zu hoch als auch die Bandbreite zu begrenzt ist, um komplexe Daten mehrerer Quellen miteinander verknüpfen und auszuwerten zu können.
In zahlreichen Branchen wird eine Vielzahl von Netzwerkinfrastrukturen, zum Beispiel Computer/GPUs, VMs, Container-basierte Apps, Speicherlösungen (HCI, KI und ML) sowie WLAN, Wired und WAN-Netzwerkgeräte erforderlich sein, um diese Anforderungen am Edge zu unterstützen. Laut IDC werden bis 2023 mehr als 50 Prozent der neuen IT-Infrastruktur in Unternehmen auf Edge-Umgebungen entfallen. Diese Edge-Umgebungen müssen zuverlässig und sicher mit Rechenzentrums- und Cloud-Netzwerken verbunden sein.
Der Wandel: angekündigt und unvorbereitet
Viele Unternehmen sind auf diese Transformation nicht vorbereitet. Vielfach haben Firmen Silo-artige Rechenlösungen als Grundlage für Edge-Systeme im Einsatz. Die Netzwerke haben nicht nur keine ausreichende Verknüpfung zu Endpunkten im Unternehmen und den verschiedenen Rechenzentren oder den Zweigstellen, sondern eben auch keine echte Verbindung zum Edge. Angesichts der Vielzahl von Rechenzentren ist es schwierig bis unmöglich durch herkömmliche IT-Ansätze belastbare Strukturen aufzubauen.
Traditionelle Rechenzentren müssen neu konzipiert und entwickelt werden, um den neuen, dezentralen Edge-Rechenzentren stattzugeben. Mit folgenden fünf Tipps gelingt die erfolgreiche Umstellung auf das Edge-Rechenzentrum:
Die Fünferreihe Tipps:
1. Infrastruktur vereinheitlichen – Unternehmen müssen eine einheitliche, von der Cloud gesteuerte Netzwerkinfrastruktur und ein einheitliches Betriebsmodell entwickeln (Standorte, Zweigstellen, alte und neue Datenzentren). Es ist einfacher, eine wachsende Unternehmens-Netzwerkarchitektur zu verwalten, die auf einem gemeinsamen Betriebsmodell basiert (Betriebssystem, L2/3-Funktionssätze und künstliche Intelligenz (KI)) als unterschiedliche Architekturen in verschiedenen Unternehmensdomänen zu verwalten.
2. Automatisierung nutzen – KI-gesteuerte, softwaredefinierte Netzwerke, die manuelle, alltägliche und komplexe Aufgaben automatisieren, müssen implementiert werden. KI-gestützte Lösungen für den Betrieb (AIOps) können diese Umstellung beschleunigen, indem sie KI-basierte Problemerkennung mit Automatisierung kombinieren, um maximale Netzwerkverfügbarkeit und -leistung zu gewährleisten. Einige Lösungen lassen sich auch direkt in weit verbreitete Compute-, Storage- und Virtualisierungs-Management-Software integrieren, um eine möglichst schlanke IT-Infrastruktur zu schaffen.
3. Integrierte Lösungen bereitstellen – Während einige Unternehmen die Zeit, Energie und das interne Fachwissen haben, um maßgeschneiderte IT-Lösungen zu entwickeln und zu integrieren, bieten viele Anbieter optimierte Lösungen an, die die Bereitstellung von IT-Services vereinfachen und beschleunigen. Gleichzeitig werden der Zeitaufwand, das Risiko und das Fachwissen reduziert, die für die Bereitstellung komplexer Lösungen erforderlich sind. Unternehmen sollten darauf achten, dass das Netzwerk in den Speicher integriert wird, anstatt es nachträglich hinzuzufügen. Zum Beispiel können hyperkonvergente Lösungen sowohl physische als auch virtuelle Netzwerke integrieren.
4. Zero Trust Sicherheit implementieren – Sicherheit muss bei jeder Planung an erster Stelle stehen. Der Schlüssel ist, diese Sicherheitsanforderung von Anfang an einzubauen und sie auf alle Bereiche des Netzwerks anzuwenden. Zero Trust-Netzwerke ermöglichen standardmäßig:
- Authentifizierung jedes Benutzers, Geräts, Verkehrsflusses und "Objekts" im Netzwerk
- Zentralisierte Erstellung von rollenbasierten Richtlinien und Implementierung in allen Aspekten des intelligenten Netzwerks, vom zentralen Rechenzentrum bis hin zu jedem Edge- und IoT-Gerät
- Dynamische Segmentierung von Anwendern, Geräten und Tenants sowie deren Datenverkehr, unabhängig davon, wo sie das Netzwerk betreten und wie sie es durchqueren.
5. Den einfachen Weg gehen – Skaleneffekte durch die Cloud und Pay-as-you-go-Computing erreichen: Es kann schwierig sein, die lokale IT, den Umzug in die Cloud und Implementierung von Edge-Computing zu koordinieren (und zu bezahlen). Es gibt also eine Menge zu tun. Unternehmen sollten also darauf achten, bei der Umstellung den einfachen Weg zu gehen.
Die gute Nachricht ist, dass es auf dem Markt vermehrt Angebote für Cloud-Services und Infrastructure-as-a-Service-Lösungen gibt. Diese sind vollständig verwaltet, in einem Pay-per-Use-Modell verfügbar, steigern die Effizienz und verbessern außerdem die Geschäftsergebnisse.
Über den Autor
Axel Simon ist Chief Technologist DACH bei Aruba, ein Unternehmen von Hewlett Packard Enterprise.
(ID:47302102)