Mobile-Menu

Client-Virtualisierung – Standbein der IT Virtualisierung von Client-Systemen im Überblick

Von Thomas Bär und Frank-Michael Schlede 6 min Lesedauer

Wenn IT-Fachleute und Anwender von Virtualisierung reden, dann meinen sie häufig die „große“ Virtualisierung der Server-Systeme im Rechenzentrum. Aber auch auf und für Client-Systeme sind Techniken zur Virtualisierung in vielen Bereichen der IT im Einsatz: Das Spektrum reicht dabei von einer komplett virtuellen Infrastruktur bis zu einzelnen virtuellen Systemen auf den Desktop-Rechnern.

Mit virtualisierten Desktop-Lösungen erhalten Anwender höchstmögliche Flexibilität bei gleichzeitig reduziertem Administrationsaufwand.(Bild:  © K Louw/peopleimages.com - stock.adobe.com)
Mit virtualisierten Desktop-Lösungen erhalten Anwender höchstmögliche Flexibilität bei gleichzeitig reduziertem Administrationsaufwand.
(Bild: © K Louw/peopleimages.com - stock.adobe.com)

Wenn es um den Begriff Virtualisierung geht, werden IT-Profis sicher nur noch wenig Erklärung benötigen. Aber nicht nur bei den Anwendern existieren immer noch unterschiedliche Vorstellungen darüber, was unter dem Begriff Desktop- oder Client-Virtualisierung zu verstehen ist.

Virtualisierungstechniken wurden in der IT schon sehr früh eingesetzt. IBM nimmt für sich in Anspruch, dass die ersten „Versuche“ in Richtung Virtualisierung bereits 1964 mit der CP-40, einem experimentellen Timesharing-Forschungsprojekt für das System/360, stattgefunden haben. Mit der VM/370 und dem ersten Mainframe-System /370 stand dann 1972 auch ein Computer zur Verfügung, der Virtualisierung nutzen konnte.

Bildergalerie

Nichts geht ohne das „Herzstück“ Hypervisor

Das „Herzstück“ der Virtualisierung ist der Hypervisor: Bei Einsatz einer Client-Virtualisierung installiert der Nutzer einen solchen Hypervisor auf einem Desktop und kann dann dort mit einem weiteren (in der Regel anderen) Betriebssystem in einer virtuellen Maschine arbeiten. Dabei können zwei Typen dieser Software zum Einsatz kommen:

  • Typ 1 wird auch als „Bare-Metal Hypervisor“ bezeichnet und läuft direkt auf der physikalischen Hardware des Host-Systems. Dazu gehören neben KVM und Proxmox aus der Open-Source-Welt auch die kommerziellen Produkte von Citrix sowie Hyper-V von Microsoft und ESXi von VMware (jetzt Broadcom). Diese Hypervisoren haben den Ruf, besonders effizient und sicher zu sein.
  • Typ 2 wird unter anderem auch als „Hosted Hypervisor“ bezeichnet und läuft auf einem Software-Layer, der auf dem jeweiligen Betriebssystem des Host-Rechners aktiv ist. Dazu gehören unter anderem die Open-Source-Angebote von QEMU und Oracle Virtual Box. Bei den kommerziellen Systemen sind hier neben der Lösung von Parallels auch der VMware Player sowie die VMware Workstation zu finden.

Als Client-Virtualisierung oder auch Desktop-Virtualisierung wird häufig eine Lösung wie VDI (Virtual Desktop Infrastructure) oder Citrix XenDesktop bezeichnet, die einen virtuellen Desktop auf einem Server erstellt. Diesen können Desktop-Nutzer dann von jedem Client-System aus nutzen. Eine derartige Lösung setzt selbstverständlich eine entsprechende Netzwerkinfrastruktur voraus, die beispielsweise auch Load Balancer beinhalten kann, um den Endanwendern die virtuellen Desktops sicher und performant zur Verfügung zu stellen. Sie unterscheiden sich von der Virtualisierung auf dem Desktop, wie sie beispielsweise von der VMware Workstation bereitgestellt wird. Sie stellt dem Nutzer ein komplettes virtuelles Betriebssystem zur Verfügung, das isoliert auf dem Host-Computer auch mit einem virtuellen Netzwerk auf dem System betrieben werden kann. Dadurch steht ihm eine gänzlich unabhängige Computerumgebung mit Hardware-Ressourcen zur Verfügung, die für die VM bestimmt sind.

VDI und mehr: Virtuelle Clients zentral, persistent und nicht persistent

Gerade der globale Markt der VDI-Programme ist auch im Jahr 2025 besonders stark und wird laut einer Studie von Fortune Business Insights bis 2030 voraussichtlich 57,67 Milliarden US-Dollar erreichen. Wir haben uns einige dieser Techniken und Programme etwas näher angeschaut.

Wer in einem größeren Unternehmen arbeitet, wird häufig bereits mit einem System arbeiten, das nicht mehr direkt auf seiner Hardware vor Ort installiert ist. Vielfach kommen dabei VDI-Lösungen, aber auch nach wie vor auch RDS-basierte Infrastrukturen (Remote Desktop Services) zum Einsatz. Beide Ansätze stellen den Anwendern virtuelle Desktops zur Verfügung, nutzen dazu aber unterschiedliche Ansätze:

  • Bei VDI bekommt ein Anwender eine spezielle, dedizierte virtuelle Maschine, die ihm seine bekannte Desktop-Umgebung zur Verfügung stellt. Dieser Arbeitsbereich ist von den Bereichen der anderen Nutzer isoliert und bietet in der Regel eine Betriebssystemumgebung mit allen Funktionen. Diese Bereitstellung erfordert eine entsprechend ausgestattete Infrastruktur mit umfangreichen Ressourcen.
  • Kommt der Remote Desktop Services zum Einsatz, stellen die Nutzer eine Verbindung zu einem gemeinsam genutzten Server-Betriebssystem (shared) her, wodurch grundsätzlich weniger Anpassungsmöglichkeiten zur Verfügung stehen. Windows-Server weisen dieses Feature standardmäßig auf, und die Windows-Clients können ebenfalls direkt mit dem RDP-Protokoll (Remote Desktop Protokoll) aufwarten. So stellen sich derartige Lösungen in einer Mehrbenutzerumgebung häufig als ressourcenschonender und effizienter im Hinblick auf die Kosten dar.

Zu den Unternehmen, die mit ihren Lösungen eine virtuelle Desktop-Infrastruktur anbieten, zählen Microsoft und VMware (nun Teil von Broadcom). Weiterhin bieten unter anderem Citrix, IBM, Igel, HPE, AWS (Amazon Web Services) und Cisco derartige Lösungen und Software an.

Herausforderungen bei der Sicherheit der Client-Virtualisierung

Ein Argument, das regelmäßig für den Einsatz von Virtualisierungslösungen herangezogen wird, besteht darin, dass diese Techniken eine größere Sicherheit ermöglichen. Es ist ganz sicher so, dass der Einsatz von virtualisierten Betriebssystemen und Anwendungen eine zusätzliche „Sicherheitsschicht“ bietet. Gerade wenn es um den Test und Betrieb neuer oder bisher unerprobter Systeme geht, bietet eine Installation in einer virtuellen Maschine entscheidende Vorteile. Auch die virtuellen Desktop-Infrastrukturen bieten Vorteile für die IT-Sicherheit im Unternehmen. Durch die auf diese Weise vereinfachte Administration entsteht weniger „Wildwuchs“ und auch der Einsatz von Schatten-IT-Lösungen kann in der Regel deutlich verringert werden.

Einen entscheidenden Aspekt, der sowohl für die Virtualisierung auf der PC-Workstation als auch für ganze VDI-Infrastrukturen gilt, sollten IT-Verantwortliche und Administratoren dabei aber nie aus den Augen lassen: Eine Virtualisierung, die es erlaubt, verschiedene Betriebssysteme und/oder Anwendungen auf einer physikalischen Hardware zu betreiben, bringt im Vergleich zu herkömmlichen Umgebungen immer besondere Sicherheitsherausforderungen mit sich. Das gilt ganz besonders für das Kernstück der Virtualisierung, den Hypervisor. Probleme oder gar Angriffe auf diesen Teil betreffen alle virtuellen Maschinen, die auf diesem System laufen. Gibt es Angriffspunkte in dieser Komponente, riskiert die IT unter anderem, dass Unbefugte Zugriff darauf erhalten. Deshalb ist es wichtig, diese Software regelmäßig zu warten, Patches einzuspielen, die Angriffsfläche so klein wie möglich zu halten und auch die volle Kontrolle darüber zu behalten, wer Zugriff auf den Hypervisor hat.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Netzwerktechnik, IP-Kommunikation und UCC

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Ebenso wichtig ist es, die einzelnen virtuellen Maschinen streng voneinander zu isolieren. Ansonsten könnte eine kompromittierte virtuelle Maschine schnell die anderen ebenfalls infizieren. Als Schutz können hier Techniken wie Netzwerk-Segmentierung sowie der Einsatz von separaten VLANs oder virtuellen Switches für die einzelnen VMs hilfreich sein. Zu den Anforderungen und „Best Practices“ gehört es deshalb natürlich ebenfalls, dass die Audit-Protokolle der virtuellen Systeme aktiv verwendet werden, um auf diese Weise Einblick in die Aktivitäten sowohl der Nutzer als auch der Administratoren zu bekommen. Die oft leider vernachlässigte Endpoint Security wie ein Einsatz von Microsoft Defender auf den entsprechenden Systemen, sollten Administratoren auch auf den virtualisierten Endpunkten nicht vernachlässigen.

Ist es nicht doch besser, nur auf dem Server zu virtualisieren?

Zu den grundsätzlichen Vorteilen, die der Einsatz einer Server-Virtualisierung mit sich bringt, gehört ein deutlich reduzierter Aufwand sowohl bei den Energie- als auch bei den allgemeinen Kosten. So kann unter anderem der Platzbedarf in Rechenzentren durch weniger physikalische Server deutlich reduziert werden und auch die Kosten für Kühlung und den allgemeinen Energiebedarf gehen runter. Weiterhin kann die IT-Mannschaft die operative Agilität und Geschwindigkeit dadurch steigern, dass ein schnelleres Provisioning möglich wird, da neue virtuelle Server in Minuten statt in Tagen oder Wochen bereitgestellt werden können.

Aber damit sind natürlich auch Risiken verbunden, was sowohl für eine Virtualisierung auf Serverseite als auch für eine VDI-Lösung für die Clients gilt. Zwar wird immer wieder betont, dass sich gerade mit einer Server-Virtualisierung Kosten sparen lassen. Selbst wenn die eigentliche Virtualisierungssoftware Open Source oder Teil des Betriebssystems ist, können aber doch höhere Wartungs-, Support- und Lizenzkosten entstehen. Zudem sind häufig zusätzliche Managementlösungen notwendig, um die virtualisierten Systeme zu verwalten und zu betreuen – das gilt besonders auch für die Virtualisierung von Servern. So können dann viele Administratoren auch das Problem des so genannten „Server Sprawl“ beobachten: Die Anzahl der physikalischen Server-Systeme verringert sich, aber durch die leichte und schnelle Art der Bereitstellung werden viele neue virtuelle Server angelegt. Die dadurch ebenfalls steigende Anzahl virtueller Maschinen belastet dann neben der Administration und Verwaltung der vielen Systeme auch andere IT-Ressourcen wie Speicherplatz und das Netzwerk stark.

Diese Probleme können aber nicht darüber hinwegtäuschen, dass eine moderne IT-Infrastruktur – gerade auch dann, wenn viele Ressourcen aus Cloud-Lösungen eingebunden werden – ohne Virtualisierung nicht mehr denkbar ist. Das trifft sowohl auf die sich immer weiter verbreitenden Client-Lösungen wie VDI als auch auf die traditionelle Server-Virtualisierung in den Rechenzentren zu.

(ID:50562313)