Jump to content

Server-Software für Desktop-Virtualisierung


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Hallo Forum,

mir ist klar, dass das eine Anfängerfrage ist, aber ich habe im Forum schon ein wenig gesucht und nicht die gesuchten Antworten gefunden.

 

Mein Ziel ist, ca. 5 – 10 Desktop-Clients zu vitualisieren, eventuell aber auch die Server.

 

Die erste Frage ist also, ob es schon sinnvoll ist, so wenige Desktops auf einem Server zu virtualisieren oder ob man das besser lokal auf den Client-Computern macht? Mit VirtualBox oder so.

 

Und was genau als VIrtualisierungs-Server definiert werden kann. Denn ich setze bereits virtaulisierte Desktops (Win 7) und Server (XP, Win-2003-S, Zarafa) ein – allerdings laufen die alle in einer VMware-Fusion-Installation. Das ist wohl keine richtige Lösung – oder doch? Fusion ist eher als Lösung für eine VM gedacht, oder?

 

Die zweite Frage ist, welche Server-Lösung für so wenige Desktops angemessen ist?
In dem Zusammenhang gelingt es mir leider nicht, den Jungle aus Lösungen selbst zu durchdringen. ESXi, Sphere, Hyper V, Xen, KVM, Compiz, Virtuozzo, Plesk – ich verstehe nicht mehr, was da was ist.
Manchmal lese ich auch, dass etwas kostelos ist, aber man braucht eine kostenpflichtige Software für die Steuerung – sowas irritiert mich sehr.

 

Weiß jemand ein (deutschsprachiges) Forum, in dem solche Anfängerfragen diskutiert werden? Oder SItes mit Vergleichstabellen?

 

Vielen Herzlichen Dank!

 

Link zu diesem Kommentar

Also grundsätzlich kann eine VDI (Hyper-V als Basis, Win Srv 2012 R2 macht es unglaublich einfach im Aufbau) auch schon bei 10 Clients sinnvoll genutzt werden - aber die Frage ist, welches Ziel die Desktopvirtualisierung verfolgt. Wenn es darum geht, Kosten zu sparen dürfte sich das wohl eher nicht rechnen. Ein Fat-Client ist für 500€ gut ausgestattet zu bekommen, ein Thin-Client oder Zero-Client kostet aber auch zwischen 200 und 300€, du brauchst jetzt aber noch nen vernünftigen Server, wenn du Hochverfügbarkeit haben willst sogar mehrere, dann auch noch ein Storage, da kommen schnell 5000-10000 zusammen, ohne das es besonders toll ist. Da hast du die Einsparungen bei den Clients durch die Serverkosten mehrfach wieder aufgefressen. Und in der Verwaltung sind die Einsparungen wohl auch kaum zu spüren...

 

Was wäre denn für euch der Grund, auf Desktopvirtualisierung zu setzen?

Link zu diesem Kommentar

Moin,

also grundsätzlich ist VDI eine tolle Sache.

Wir haben uns das mittlerweile einige Male zeigen lassen (VMWare View bzw. Horizon). Allerdings schrecken uns die Kosten! 

Neben den bereits genannten Kosten für die notwendige Serverinfrastruktur sind natürlich auch die Lizenzkosten von Microsoft nicht unerheblich.

Eine alternative zum Einsatz von VDI ist der Einsatz von Blade-Servers. Hier hat jeder User eine dedizierte HW zur Verfügung, so dass normale Windows-Lizenzen genutzt werden können (SB/OEM). HP hat diesbezüglich Einiges im Sortiment.

Gerade, wenn die Nutzerzahl auch mittel bzw. langfristig überschaubar bleibt ist das durchaus eine mögliche Alternative.

Wir nutzen hier für unsere Mitarbeiter im Außendienst/Homeoffice Microsoft RDS. Auch eine Option, die zumindest unsere Anforderungen abdeckt.

 

Gruß

Dirk   

Link zu diesem Kommentar

Moin,

 

bei den Servern ist es relativ simpel: so viel virtualisieren wie geht (natürlich nicht wild drauf los, sondern vorher genau planen).

 

Bei den Clients würde ich es vom Anwendungsfall abhängig machen. Die MS Lizenzierung für virtuelle Clients ist imho suboptimal (zumindest für den Kunden). Eventuell ist ein angepasstes Server OS als Clientersatz ausreichend.

 

Bei der Wahl des Hypervisors würde ich im Hinterkopf behalten, dass für MS Workload auch MS Lizenzen benötigt werden - egal welcher Hypervisor eingesetzt wird.

 

Ein Desktop-Hypervisor (Client Hyper-V, VMWare Workstation/Player usw.) ist eher was zum Entwickeln, Testen und Spielen.

 


Weiß jemand ein (deutschsprachiges) Forum, in dem solche Anfängerfragen diskutiert werden?

MCSEboard ;)

Link zu diesem Kommentar

Also erst mal herzlichen Dank an alle für die Informationen.

 

Momentan habe ich ja bereits 2 Windows 2003-Server sowie einen Zarafa-Server virtualisiert. Dazu eine Windows 7-Client, den die User via RDP nutzen.
Allerdings alles in der Desktop-Lösung VMware Fusion auf einem MacPro mit 2 Xeon und 32GB RAM. Das funktioniert auch. Aber ist wohl nicht im Sinne des Erfinders, oder? Eine Desktop-Lösung für die Server-Virtualisierung kommt mir irgendwie undersized vor. Zum Beispiel, weil die VMs auf dem Server alle in einem grafischen Fenster laufen. In einer richtigen Server-Lösung hätten die sicherlich kein GUI auf dem Server, nehme ich an. Das kostet bestimmt Performance. Außerdem habe ich Performance-Probleme auf der (virtuellen) Netzwerk-Schnittstelle: ich komme bei Ordnern mit vielen kleinen Dateien auf 6MegaByte/Sek. zwischen echtem Client und virtuellem Wimdows-Server (von Hardware zu Hardware kopiert der selbe Ordner mit 30MB/Sek). Das könnte vielleicht daran liegen, das eine Desktop-Lösung nicht auf Performance getrimmt ist.
 
Hintergrund meiner Frage sind nicht die Kosten, die will ich nicht unbedingt senken. Aber auch nicht steigern. Tausende von Euro für eine Lösung, wie sie in Rechenzentren für Tausende von Webservern eingesetzt werden, wolle ich nicht ausgeben. Deshalb fallen VMware und Parallels schon mal weg denke ich; zumal ich vollkommen undurchsichtig finde, welche Teile es kostenlos gibt, welche nicht, was die jeweiligen OpenSource-Versionen (z. B. VMware Server) nicht können, ob das Sackgassen sind etc.
Abgesehen davon finde ich das Konzept OpenSource sehr reizvoll: die Software ist kostenlos, man kauft also nicht die Katze im Sack. Die Firmen verdienen mit Support. Das finde ich fair.
 
Es geht mir eher um Komfort: ich finde es wesentlich praktischer, zehn virtuelle Maschinen auf einem Server ins Backup aufzunehmen, als 10 Clients separat zu sichern (zumal das übers Netz auch nur unnötig lange dauert und die Rechner über Nacht anbleiben und Strom verbrauchen würden).
 
▶︎ Für mich ist wohl die Frage, ob KVM, Xen, OracleVM Server oder Proxmox.
Gestern Abend habe ich mir als erstes Proxmox angesehen. Das ist schon mal intuitiv zu bedienen. Und auf Deutsch! Das finde ich bei einer so komplexen Technik sehr hilfreich.
Die anderen werde ich mir auch noch anschauen und bin sehr offen für Tipps, welche aus eurer Sicht davon besonders zu empfehlen sind, welche nicht und warum. Das würde mir unnötig Zeit ersparen (man muss ja nicht selber das Rad neu erfinden).

 

So, jetzt bin ich ja mal gespannt, wer das noch alles liest.

 

 

Link zu diesem Kommentar

Abgesehen davon finde ich das Konzept OpenSource sehr reizvoll: die Software ist kostenlos, man kauft also nicht die Katze im Sack. Die Firmen verdienen mit Support. Das finde ich fair.

Open Source ist eine feine Sache. Ob man mit FOSS und einem Supportvertag am Ende des Tages wirklich besser unterwegs ist, sollte man genau betrachten. Nicht nur finanziell, sondern auch in Bezug auf die Integrationsfähigkeit der Produkte und die Verfügbarkeit von qualifiziertem IT Personal für den Betreib.

 

Bei MS muss niemand die Katze im Sack kaufen. Es gibt die gängigen Produkte als Dowmload im Technet Eval Center.

http://technet.microsoft.com/de-de/evalcenter

 

Es geht mir eher um Komfort: ich finde es wesentlich praktischer, zehn virtuelle Maschinen auf einem Server ins Backup aufzunehmen, als 10 Clients separat zu sichern (zumal das übers Netz auch nur unnötig lange dauert und die Rechner über Nacht anbleiben und Strom verbrauchen würden).

 

▶︎ Für mich ist wohl die Frage, ob KVM, Xen, OracleVM Server oder Proxmox.

Gerade beim Thema Backup und Hypervisor kann es sehr spannend werden.

Lässt sich die geplante Umgebung wirklich vollständig und konsistent über den Hypervisor sichern?

Lassen sich die gewünschten Wiederherstellungsziele auch erreichen? Bietet ein einziges Backupprodukt die Möglichkeit, den Hypervisor, die VMs oder Objekte/Dateien innerhalb der VMs wiederherzustellen oder werden verschiedene Backuplösungen benötigt weil beim Hypervisor gespart wurde?

 

 

Momentan habe ich ja bereits 2 Windows 2003-Server sowie einen Zarafa-Server virtualisiert. Dazu eine Windows 7-Client, den die User via RDP nutzen.

Den Windows 7 Client blende ich einfach mal aus.

Zwei virtuelle Windows Server auf einem Host könntest Du mit einer WS 2012 Standard Lizenz abdecken.

Mit Hyper-V als Hypervisor wäre Windows Server Backup verfügbar. Damit gibt es für die Windows Systeme schonmal ein geeignetes Backup ohne zusätzliche Kosten. Beim Zarafa hängt es vom Unterbau ab. Bei einer unterstützten Distribution, ist ein online Backup der VM möglich.

Link zu diesem Kommentar

Also ich muss hier mal einwerfen ob es nicht sinvoll ist, in Vmware vSphere Essentials Bundle und Veeam zu investieren. 700€ und Du hast ne VM Soft und Backup erschlagen.

 

LG Lars

 

Seh ich auch so. Da hast du support mit drin, eine große Community mit Fachforen die dir dabei immer schnell helfen können und 1000 Anleitungen auf Youtube. Letzten beiden Sachen findest du vermehrt auch bei Hyper-V, die von dir genannten Lösungen würde ich ohne Support in einer Firma nicht einsetzen.

Auch den ESXi von VMWare gibt es kostenlos und in deutsch (das selbe gilt für Hyper-V). Ob deine Hardware unterstützt wird bei den "richtigen" VM Host OS solltest du vorher prüfen und dabei gleichzeitig deine Anforderungen definieren. Das sieht alles sehr wild aus bei dir.

Link zu diesem Kommentar
  • 3 Wochen später...

Anforderungen: Sind doch eh immer die gleichen. Auf Knopfdruck sollen Programme innerhalb ner halben Sekunde offen sein, Zip-Vorgänge sollen zackig sein. Verfügbarkeit so hoch wie möglich und ein allfälliger Rebuild trotzdem schnell. Man braucht daher in Kleinumgebungen ebenso ein potentes Storage wie in grösseren. Imho viel schwieriger zu sizen, die ganzen Berechner funktionieren da eh nicht, weil ein einzelner ausgelasteter Desktop (wenn ers heute nicht ist, dann morgen) die Umgebung dann schon in die Knie zwingen kann. Daher: Viel hilft viel.

 

In grösseren Umgebungen kann man da auf allerlei Zusatzmaterial, Caching und komplexe Infrastruktur zurückgreifen. Im kleinen muss man für die gleiche Leistung eben etwas tricksen und möglichst OnBoard-Material verwenden um die Gesamt-Komplexität, anzahl Zusatzsoftware/Hardware und im Endeffekt Kosten möglichst tief zu halten und trotzdem eine potente, möglichst ausfallsichere, schnell wiederherstellbare Umgebung zu haben.

 

Zur Lizenzierung: Server OS (Datacenter), RDP-Lizenzierung. --> Langer Supportzeitraum, Kauflizenzen (Zusatzlizenzen wie Virenscanner etc. beachten!)

 

Zur Hardware: Host mit hoher Taktrate, Storage mit tiefer Latenz + viel IO. Das entscheidet über Top oder Flop bei der Akzeptanz der User die SSD's verwöhnt sind. Ich nehme mix aus Enterprise SSD's und HDD's. Der grösste Fehler ist am Storage zu sparen. Ne halbe 15k Festplatte pro Desktop in nem Stripe im RAID 10 ist nicht so schlecht. Enterprise SSD's bringen die Kisten zum fliegen.

 

Umsetzung: Meine Vorgehensweise für Kleinumgebungen und Desktopvirtualisierung (Mittlerweile mach ichs für Server identisch) findet man hier im Forum über die Suche. Mag man oder nicht. Viel Power fürs Geld bei imho hoher Sicheheit isses allweil.

bearbeitet von Weingeist
Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...