Information

Virtualisierung

Virtualisierung

Mit der wachsenden Anzahl von Aufgaben im IT-Geschäft stellt sich die Frage nach einer kompetenten Ressourcenzuweisung. Es werden weniger Hardwareserver benötigt, sie verbrauchen weniger Strom und benötigen weniger Platz.

In kleinen und mittleren Unternehmen besteht die Meinung, dass diese Technologie nur von großen Unternehmen nachgefragt wird. Dies ist jedoch nur einer der Mythen über Virtualisierung. Sie verhindern jedoch, dass Manager und Spezialisten die Lösung in vollem Umfang nutzen können.

Virtualisierung ist dasselbe wie Cloud Computing. Diese beiden Konzepte sind unterschiedlich. Cloud Computing wird dank derselben Virtualisierung möglich. Der Begriff selbst impliziert den Zugriff auf bestimmte gemeinsam genutzte Computerressourcen über das Internet. Es können Daten oder Programme sein. Die Servervirtualisierung kann ohne den Einsatz von Cloud-Technologien verwendet werden. Sie können auch später verwendet werden, um die Funktionen der Plattform zu erweitern.

Virtualisierung ist nur für große Unternehmen von Interesse. Nach diesem Mythos ist die Lösung für kleine und mittlere Unternehmen, die eine komplexe und teure Lösung einsetzen müssen, nicht rentabel. Unabhängig von der Größe des Unternehmens ist Virtualisierung eine rentable Lösung. Im Rahmen eines kleinen Unternehmens ist es durchaus möglich, dass sich alle Dienste auf virtuellen Maschinen befinden, die auf einer Hardwareplattform ausgeführt werden. Dies vermeidet den Kauf zusätzlicher Server. Für ein kleines Unternehmen können ihre Kosten beeindruckend sein. Tatsächlich sind möglicherweise bereits zwei oder mehr Server virtualisiert.

Die Virtualisierung verringert die Gesamtsystemleistung erheblich. In der Praxis stellt sich heraus, dass moderne Prozessoren selten die gesamte Hardwareleistung zu 100 Prozent nutzen. Meistens arbeitet das Gerät im Halbschlaf im Leerlauf. Dies gilt insbesondere für Domänencontroller, Domänennamensdienste und Antivirus-Anwendungscenter. Es ist einfach irrational, jedem dieser Dienste einen eigenen Dienst zuzuweisen. Es ist also durchaus möglich, einige nicht arbeitsintensive Dienste auf virtuelle Maschinen zu übertragen und auf einem einzigen Hostsystem zu sammeln. Es wird keinen Leistungsabfall geben. Aber Sie sollten auch keine vorschnellen Entscheidungen treffen. Jedes System hat seine eigene mögliche Leistungsobergrenze, die bei der Virtualisierung berücksichtigt werden sollte. Bei Verwendung einer virtuellen Maschine lohnt es sich, Leistungstests durchzuführen und erst dann einen neuen Dienst auf diesem Host bereitzustellen. Es ist zu berücksichtigen, dass jede virtuelle Maschine bis zu 20% zusätzliche Ressourcen benötigt, als sie für ihre eigene Wartung benötigt. Und das Host-System selbst benötigt freie Kapazität.

Für die Virtualisierung ist spezielle Hardware erforderlich. Dieser Mythos wird ergänzt durch erschreckende, wie für einen unwissenden Spezialisten, die Wörter Blade-System, spezialisierte Server usw. Dieser Mythos ist jedoch dank der Präsentationen und Konferenzen entstanden, die von Herstellern teurer Spezialgeräte wie HP oder IBM abgehalten wurden. Solche Besprechungen demonstrieren Geräte zum Erstellen virtueller Lösungen, die gleichen Blade-Systeme. Der Mythos basiert jedoch auf falschen Thesen. Es ist bequem, teure und bewährte Systeme zu verwenden, die speziell für die Virtualisierung entwickelt wurden. Tatsächlich können virtuelle Dienste jedoch auf normaler Hardware bereitgestellt werden, sofern sie die Aufgaben hinsichtlich der Leistung erfüllen. Es stimmt, es gibt immer noch einige Einschränkungen. Moderne Hypervisor-Programme zum Organisieren eines virtuellen Host-Systems unterstützen möglicherweise einige Hardware nicht. Selbstorganisierte Server sind daher möglicherweise nicht immer die Lösung. Bei nicht standardmäßigen RAID-Controllern und Netzwerkkarten können Probleme auftreten. Trotzdem gibt es bestimmte Tricks. Sie können beispielsweise ein RAID programmgesteuert erstellen oder eine Netzwerkkarte hinzufügen, die der Hypervisor verarbeiten kann. Selbst ein alter HP G4-Server kann ohne zusätzlichen Aufwand leicht zu einem "Zuhause" für einige anspruchslose virtuelle Maschinen werden. Dies spart Platz im Rack und gibt kein Geld für einen neuen Server aus.

Alle hochwertigen Virtualisierungssoftware ist kostenpflichtig und teuer. Es ist kein Zufall, dass sie sagen, dass freier Käse nur in einer Mausefalle ist. Aber wie trifft dies auf Hypervisoren zu? Tatsächlich ist das Bild hier optimistisch. Es gibt viele kostenlose Produkte auf dem Markt, wie z. B. VMware ESXi, Citrix XenServer und Windows 2008 Standard (64 Bit) Hyper-V Core, die die erforderlichen Aufgaben lösen. Dies sind alles Junior-Versionen leistungsstarker kommerzieller Lösungen. Die Engine wird jedoch genauso verwendet wie die älteren bezahlten Kollegen, dieselbe Ideologie der Arbeit und das Format der virtuellen Maschinen. Die Entwickler glauben, dass mit dem Wachstum des Unternehmens und der Entwicklung seiner Infrastruktur ein Übergang zu kostenpflichtigen Lösungen stattfinden wird, die die Funktionalität der Plattform erweitern. Dies kann ohne Neuinstallation virtueller Maschinen erfolgen. Wenn wir die Funktionen von kostenpflichtigen und kostenlosen Programmen vergleichen, stellt sich heraus, dass es durchaus möglich ist, die Grundfunktionen frei zu nutzen: Hypervisor, Konvertierung, Arbeiten mit Speichern verschiedener Typen, Verschieben virtueller Maschinen zwischen Hostservern, ohne die Arbeit zu unterbrechen.

Virtualisierungssysteme sind schwer zu warten. Heute werden fast alle modernen Virtualisierungssysteme über eine grafische Anwendung verwaltet. Liebhaber der Feinabstimmung stehen zur Verfügung, um mit der Befehlszeile zu arbeiten. Der Administrator muss nicht mehr in den Serverraum gehen, um den Arbeitsspeicher und den Speicherplatz zu erhöhen und einen Prozessor hinzuzufügen. All dies kann heute direkt von Ihrem Arbeitsplatz aus erledigt werden, indem die virtuelle Umgebung des Produktionsservers in der Konsole verwaltet wird.

Virtualisierung ist unzuverlässig. Diese Anweisung basiert auf der Annahme, dass ein Fehler im Hostsystem zur Beendigung mehrerer darauf basierender virtueller Maschinen führt. Dieses Risiko wird jedoch durch die Geschwindigkeit der Systemwiederherstellung ausgeglichen, wenn eine Sicherung der virtuellen Maschine vorhanden ist. Im Durchschnitt ist eine Systemwiederherstellung in nur einer Drittelstunde abgeschlossen. Die Wiederherstellung besteht darin, die Dateien der virtuellen Maschine auf einen anderen Server zu übertragen. Große industrielle Lösungen ermöglichen im Allgemeinen eine schnelle Replikation. In diesem Fall führt selbst der Ausfall eines Hardwareservers nicht zum Stopp der beteiligten Dienste.

Moderne Virtualisierungssysteme wie Citrix XenServer und VMware verwenden das Bare-Metal-Prinzip, dh sie werden direkt auf "Bare-Metal" installiert. Der Kern des Systems ist das Unix-Betriebssystem, das äußerst zuverlässig und gut vor Viruserkrankungen geschützt ist. Ein solches System ist wirtschaftlich und in seinem Code optimiert, ohne unnötige Dinge. Der Hypervisor wird also nicht durch fremde Aufgaben abgelenkt. Die Hardware-Zuverlässigkeit kann durch den Kauf zuverlässiger Hardware sichergestellt werden. Sie können es sich angesichts der Gesamteinsparungen bei den Servern leisten. Und dies wird Ihnen helfen, Hardwareprobleme für lange Zeit zu vergessen. Die Entscheidung für den Einsatz der Virtualisierungstechnologie muss sorgfältig abgewogen werden. Bei sorgfältiger Planung verspricht das Ergebnis weniger problematisch zu sein als einige ältere, kostengünstige Server in einer herkömmlichen Konfiguration.

Es ist schwierig, einen intelligenten Spezialisten für die Bereitstellung eines Virtualisierungskomplexes zu finden. Gute IT-Spezialisten sind auf dem Markt gefragt. Bei Virtualisierungssystemen ist das Bild dasselbe. Die gute Nachricht ist, dass die wichtigsten Produkte in diesem Bereich von Microsoft, Citrix und VMware immer noch gut dokumentiert sind. Es finden ständig Treffen von Spezialisten mit Vertretern von Unternehmen und Systemintegratoren statt. Sie werden die aufregendsten Fragen beantworten. Auf jeden Fall wird sich selbst ein unerfahrener Spezialist nicht in einem Vakuum befinden. Natürlich sollten Sie Ihre Infrastruktur nicht einem Studenten anvertrauen, der als Administrator arbeitet. Er wird Erfahrung sammeln, aber was wird mit dem Unternehmen passieren? Heutzutage gibt es immer mehr professionelle Systemadministratoren mit Grundkenntnissen beim Aufbau von Virtualisierungssystemen.

Virtualisierung ist ein Allheilmittel für alle Probleme. Virtualisierung kann wirklich Wunder wirken, wenn es darum geht, Verwaltbarkeit, Effizienz und Energieeinsparung zu verbessern. Aber sie wird es nicht alleine tun. Einige IT-Experten untersuchen das Problem nicht aus allen Blickwinkeln und glauben, dass die Umstellung auf virtuelle Lösungen alle Probleme lösen wird. Dies ist jedoch keine magische Pille. Wenn es kein effektives Management gibt und die Vorteile der Virtualisierung nicht betont werden, wird dies nicht den gewünschten Effekt bringen.

Die Virtualisierung ist nicht für leistungsstarke E / A-Anwendungen geeignet. Dieser Mythos entstand vor langer Zeit, als gerade die ersten Hypervisoren aufgetaucht waren. Solche Komplexe verwendeten irrational alle Ressourcen des Host-Servers. Seitdem hat die Virtualisierungstechnologie große Fortschritte gemacht. Daher hat Vmware kürzlich eine Version seines ESX-Servers vorgestellt, die mehr als hunderttausend Operationen pro Sekunde von E / A-Daten auf einem Host ausführen kann.

Um virtuelle Maschinen verwenden zu können, müssen Sie Linux kennen. In den ersten Versionen von Hypervisoren in derselben VMware wurde vorgeschlagen, mit der Befehlszeile der Linux-Konsole zu arbeiten, um auf einige der Steuerelemente zuzugreifen. Obwohl diese Host-Option noch heute verfügbar ist, wird sie von den meisten Administratoren nicht mehr verwendet. Viele Hypervisoren laufen auf einer Windows-basierten Benutzeroberfläche. Hypervisoren werden einfacher und klarer, indem sie Fachleuten helfen, diese Lösung zu nutzen.

Virtualisierung ist eine Softwareschicht, die Anwendungen verlangsamt. Dieser Mythos ist nur teilweise wahr. Einige Lösungsanbieter wie VMware und Microsoft bieten ihre Lösungen unter Windows oder Linux an. Aber die gleiche Vmware ESX (i) ist ein Hypervisor, der auf Bare Metal läuft. Auf diese Weise können Sie die Nutzung von Serverressourcen ohne Softwareschicht in Form eines Betriebssystems maximieren.

Sie können Microsoft Exchange und SQL Server nicht virtualisieren. Vor einigen Jahren, als Single-Core-Prozessoren der Standard waren, wurde nicht empfohlen, solche Services mit ihrer konstanten Arbeitslast zu virtualisieren. Moderne Plattformen arbeiten jedoch mit 4 und 8 Kernen mehrerer Prozessoren. Jetzt können selbst die zeitaufwändigsten Dienste erfolgreich in einer virtuellen Umgebung implementiert werden. Der Schlüssel zum Lastausgleich ist die richtige Planung und das richtige Verständnis der Technologie.

Die Virtualisierung funktioniert nur mit Servern. Viele Unternehmen profitieren von der Desktop-Virtualisierung. Dies bietet den Vorteil einer zentralen Verwaltung, eines gemeinsamen Ansatzes und verbesserter Optionen für die Notfallwiederherstellung. Mit einem Thin Client oder einer Clientanwendung können Sie von überall auf der Welt eine Verbindung zu Ihrem Desktop herstellen. Disk Imaging-Technologien können die Datenspeicheranforderungen reduzieren, indem unnötige Kopienkopien vermieden werden.

Die Virtualisierung ist unsicher. Jede Software kann als unsicher angesehen werden. Durch Anwenden von Best Practices für Netzwerk-, Speicher- und Betriebssysteme können Sie jedoch eine wirklich sichere Umgebung erstellen. Mit der Virtualisierung können Sie Ihre eigenen Sicherheitsstandards festlegen, Richtlinien anpassen und Tests anhand der Mindestanforderungen ausführen.

Schau das Video: Virtualization Explained (September 2020).