Benötigen Sie Support?

Unser Team steht Ihnen Mo - Fr. von 08 bis 17 Uhr zur Verfügung. Wartungskunden wählen bitte in Notfällen die bekannte Notfallnummer.

0211.93 67 866 - 0

Jetzt TeamViewer herunterladen TeamViewer

Benötigen Sie Beratung?


Oder rufen Sie uns an:

0211.93 67 866 - 0

Die Chancen und Risiken der Server-Virtualisierung

Für kleine Unternehmen, von denen lediglich sehr wenige Systeme betrieben werden, ist die Server-Virtualisierung aufgrund des verbundenen Analyse- und Planungsaufwands nicht in jedem Fall lohnenswert. Große Unternehmen, die eine Vielzahl von Systemen betreiben, können durch die Server-Virtualisierung jedoch Vorteile erzielen, die sich nicht von der Hand weisen lassen.

In Abhängigkeit von der jeweils angewendeten Strategie der Virtualisierung kann die Rate der Konsolidierung durchaus bis 1 zu 100 reichen. Die Konsequenzen sind mehr als lohnenswert, denn nicht nur der permanente Aufwand bei der Administration der Systeme reduziert sich deutlich. Durch eine optimale Server-Virtualisierung wird ein erheblicher Teil der Hardware überflüssig. Das bedeutet in der Konsequenz, dass hier keine Wartung und auch keine Ersatzanschaffungen mehr notwendig sind. Entfallende Hardware geht außerdem mit einer Reduzierung des Energieverbrauchs einher, was angesichts der ständig steigenden Strompreise ein nicht zu unterschätzender Faktor ist.

Was viele Betreiber von IT-Systemen bei ihren Überlegungen zum Pro und Contra der Server-Virtualisierung nicht bedenken, ist der Fakt, dass durch die Virtualisierung die Nutzungsdauer der Hardware verlängert werden kann. Erzielt wird das durch eine optimierte Lastverteilung, die in Spitzenzeiten eine Überlastung einzelner physisch vorhandener Server vermeidet.

Natürlich darf es durch die optimierte Lastverteilung nicht passieren, dass einige dringend benötigte Anwendungen und Dienste nicht oder nur verzögert erreichbar sind. Genau das wird durch die Etablierung der Ressource-Manager vermieden. Sie können beispielsweise einzelnen Virtual Machines eine höhere Priorität zuweisen. Außerdem sollten sich die Administratoren der Virtual Server vor der Einrichtung Gedanken über eine intelligente Aufteilung in verschiedene Partitionen machen. Mittlerweile gibt es sogar Software für die Verwaltung virtueller Server, mit denen einzelne Virtual Machines abhängig von der Lastverteilung im laufenden Betrieb in einen anderen Bereich verschoben werden können.

Gehen die auf einem physisch vorhandenen Server gespeicherten Daten verloren, ist die Rekonstruktion oftmals durch unzureichende Backup-Systeme unmöglich oder erfordert zumindest einen sehr hohen Zeitaufwand. Auch hier bieten virtuelle Server einen erheblichen Vorteil, denn sie lassen sich auf einfache Weise klonen, sodass vollständige Datenverluste ausgeschlossen sind. Außerdem bieten Virtual Machines den Vorteil, dass die Backups nicht nur lokal gespeichert werden können, sondern auch eine Streuung der Backups im gesamten Internet möglich ist. Eigens dafür bringen die Ressource-Manager spezielle Templates mit. Gleichzeitig sorgt die bei der Virtualisierung genutzte Schicht dafür, dass die Betriebssysteme und Softwarepakete von der Hardware entkoppelt werden. Um ständig den Überblick zu behalten, sollten Virtual Server nur mit einem konkreten Regelwerk für die Administratoren eingerichtet und betrieben werden.

Bei einem physisch vorhandenen Server greifen die Betriebssysteme direkt auf alle Hardwarebestandteile zu. Das gilt sowohl für die CPU und die RAM als auch die Controller der Festplatten, die Adapter für Netzwerkverbindungen und die Grafiksysteme. Werden klassische Emulatoren verwendet, werden sämtliche Bestandteile emuliert. Die modernen Systeme zur Server-Virtualisierung gehen einen intelligenten Mittelweg. Sie kooperieren auf direktem Weg mit der RAM und der CPU und emulieren lediglich die verbleibende Hardware.

Von einer direkten Verknüpfung einzelner Komponenten der Hardware mit einer Virtual Machine wird abgeraten, weil darunter die Flexibilität des gesamten Systems leidet. Die schnelle Umsiedelung einer Virtual Machine auf einen anderen Host ist bei einer solchen Vorgehensweise unmöglich. Hier findet sich einer der wenigen noch vorhandenen Nachteile der Server-Virtualisierung. Das Gastsystem kennt die physischen Daten der CPU und wird darauf abgestimmt. Ein Wechsel auf eine Hardware mit einer CPU eines anderen Herstellers ist auch dadurch unmöglich oder wird zumindest erheblich erschwert.
Um genau diesen noch vorhandenen Nachteil zu vermeiden, arbeiten moderne Virtual Machines mit der so genannten Paravirtualisierung. Sie findet im Kernel des Gastsystems statt und bewirkt, dass die direkte Kommunikation mit der physisch vorhandenen Hardware komplett unterbunden wird. Stattdessen beschränkt sich die Kommunikation auf die Virtualisierungsschicht, die einerseits das Gastgebersystem und anderseits die Gastsysteme kennt. Das erspart den Zeitaufwand der Anpassung der Hardware an die einzelnen Virtual Machines.

Ein gern gewähltes System für die Paravirtualisierung ist Xen. Das System arbeitet mit einer dynamischen Ressourcenzuteilung und erfordert keine Anpassung der API der einzelnen User. Die Anpassungen beziehen sich hier ausschließlich auf den Kernel. Anwendersoftware und Betriebssysteme werden davon nicht berührt. Ein erheblicher Pluspunkt bei der Paravirtualisierung ist der geringe Schwund, der je nach individueller Konfiguration gerade einmal bei 0,1 und fünf Prozent liegt. Allerdings wird immer der Support der Anbieter der Betriebssysteme benötigt, was beim Xen-Konkurrenten VMware beispielsweise mit dem Angebot einer teilweisen Paravirtualisierung umgangen wird. Dadurch beschränkt sich der notwendige Support der Hersteller der Betriebssysteme auf die Bereitstellung geeigneter Treiber.

Wie bei allen IT-Systemen gibt es auch bei der Paravirtualisierung sowohl Vor- als auch Nachteile.
Zu den Pluspunkten gehören folgende Fakten:

  • Die notwendigen Anpassungen der Hardware der Gastsysteme sind (zumindest teilweise) auch im laufenden Betrieb möglich.
  • Die Hardwareabbildungen werden durch einen einzigen Prozess gesteuert.
  • Das Gastsystem bekommt einen komfortableren Zugriff auf die virtualisierte Hardware.

Allerdings müssen rund um die Paravirtualisierung auch einige Nachteile in Kauf genommen werden:

  • Jeder Gast benötigt erhöhte Systemressourcen.
  • Betriebssysteme und Updates der Gastsysteme müssen individuell angepasst werden.
  • Einige Hardwareparts können nicht im Gastsystem abgebildet werden. Davon sind aktuell beispielsweise Faxkarten betroffen. Dieser Nachteil lässt sich aber teilweise über IP-basierte Schnittstellen umgehen.
  • Die Paravirtualisierung funktioniert nur dann, wenn die Hardware mit einer speziellen Software zur Virtualisierung kombiniert wird.

Die Sicherheitsrisiken der Virtual Machines unterscheiden sich nicht von den Gefahren, die bei der Verwendung einzelner Server in Hardwareform auftreten. Hackerangriffe müssen durch spezielle Patches abgewehrt werden. Auch die Verwendung von Virenscannern wird nicht überflüssig, weil auch ein virtuelles System mit Viren und Trojanern angegriffen werden kann. Ebenso wie bei physisch vorhandenen Verknüpfungen kann die Übertragung von Schadcode auch in einem virtualisierten System stattfinden. Das heißt, dass hier die Notwendigkeit regelmäßiger Sicherheitsupdates mit den Anforderungen an physisch vorhandene Server identisch ist.

Die Zielstellung der Server-Virtualisierung besteht darin, ein Hardwaresystem mehreren Nutzern zur Verfügung zu stellen. Dass bereits in der Frühphase der Netzwerke über die Virtualisierung durch die Schaffung logischer Maschinen nachgedacht wurde, beweist das so genannte Popek-Goldberg-Theorem, mit dem die theoretischen Grundlagen für Virtual Machines zusammengefasst wurden. Diesen Theorien entspricht beispielsweise die x86-Plattform nur teilweise. Deshalb sind viele CPU-Hersteller bemüht, die Fähigkeiten zur Virtualisierung der Prozessoren kräftig zu erweitern. Das beweist der Blick auf die aktuellen Entwicklungen bei AMD und Intel. Sie erweitern die Effizienz von Virtualisierungssoftware wie:

  • Hyper V von Microsoft
  • ESX von VMware
  • Xen von Citrix

Dadurch werden die Unterschiede der Virtual Machines im Serverbereich und der oftmals zu Test- oder Abgrenzungszwecken eingerichteten Virtual Machines auf dem klassischen PC immer größer. Beim PC wird ausschließlich auf eine vollständige Virtualisierung gesetzt, bei der dem Betriebssystem gar nicht bemerkt, dass es auf einer Virtual Machine betrieben wird. Die Überwachung und Steuerung der Kommunikation inklusive der notwendigen Übersetzungen übernimmt dabei der Virtual Machine Monitor.

Die neuesten Entwicklungen bei der Virtualisierung zeigen, dass hier ständige Fortschritte erzielt werden. Inzwischen kann sogar Windows 95 mit einer kostenlosen Software namens DOSBox auf Computern betrieben werden, die als Hauptbetriebssystem Android nutzen. Außerdem macht beispielsweise der Typ-1-Hypervisor einen vollständigen Ersatz des Betriebssystems des Gastgebersystems möglich. Zu diesem Typ der Virtualisierungssoftware zählen sich unter Anderem Oracle VM Server, VMware ESX/ESXi sowie Xenserver von Citrix.

Der Virtual Machine Monitor zählt sich dagegen zum Typ-2-Hypervisor, der nicht ohne Betriebssystem auskommt. Dafür stehen spezielle Tools zur Auswahl, von denen die virtuellen Systeme gestartet, verwaltet und angehalten werden können. Typische Vertreter sind Microsoft Virtual PC, die Virtualbox aus dem Hause Oracle sowie der Desktop Player von VMware.

Neben diesen beiden Typen gibt es für die Einrichtung von Virtual Machines auch diverse Mischformen. Ein Beispiel dafür ist die KVM-Technologie des Linux-Kernels. Die Besonderheit besteht hier darin, dass die Funktionen für die Virtualisierung vom Betriebssystem selbst zur Verfügung gestellt werden. Eine ähnliche Lösung bietet Microsoft mit dem Modul Hyper-V für seine hauseigenen Servervarianten von Windows an.

Zurück zur Übersicht

© 2018 TC EDV-Lösungen e.K.