-
Gesamte Inhalte
1.027 -
Registriert seit
-
Letzter Besuch
Beiträge erstellt von IT-Shrek
-
-
Hallo,
LACP bietet im typischen Hyper-V Use Case keinen Performance-Vorteil und nur in einem einzigen und in der Praxis sehr unwahrscheinlichem Szenario einen Verfügbarkeits-Vorteil, der bei dir jedoch auch nicht zu tragen kommt. Mit einem Switch unabhängigem, dynamischen Team bist du hier - wie in den allermeisten anderen Fällen auch - besser beraten.
Beste Grüße,
Shrek
-
Hallo,
mit Windows Server 2012 R2 ist der Performance-Unterschied zwischen fixer und dynamischer VHDX kaum messbar im Praxiseinsatz, meine Kunden setzen daher fast ausschließlich dynamische Platten ein.
Beste Grüße,
Shrek
-
Hallo,
eine Chance die Anwendung als Service laufen zu lassen besteht nicht?
Hier ist schonmal ein Workaround für minimierte RDP-Fenster:
Beste Grüße,
Shrek
-
Anmerkung am Rande:
Das Präsentieren von Userfiles, sollte nach Möglichkeit nicht über Domain-Controllern erfolgen, sodass sich der Sharepoint-Server dafür sogar besser eignet als die DCs.
Beste Grüße,
Shrek
-
gefällt mir auf den ersten Blick recht gut das Teil.
Shrek
-
Hallo,
Wenn der VMM da im selben Cluster läuft gibt es das altbekannte Henne-Ei-Problem und es muss manuell nachgefrickelt werden.
wie bereits erwähnt ist der VMM eine reine Management Maschine und verschickt Management-Befehle an Hyper-V Hosts, übernimmt aber keine Hypervisor-Funktionen. Daher sehe ich hier kein "altbekanntes" Henne-Ei-Problem. Eine eigene Management-Domain bzw. ein Forest ist best Practice in High-Security Umgebungen.
Beste Grüße,
Shrek
-
Hallo,
dynamische VHDX-Dateien sind auch für die Produktion heute Best Practice, dazu ein vernünftiges Monitoring wenn man ein Storage-Overcommitment / Thin Provisioning dadurch betreibt um von Doso beschriebene Situationen zu vermeiden.
Beste Grüße,
Shrek
-
Hallo,
Azure Subscriptions bleiben einige Zeit im Account nach Ablauf, damit man die Chance hat die Daten zu retten. Nach einiger Zeit (ca. 3 Monate bei mir jedoch immer +- ein paar Wochen) werden diese entfernt.
Beste Grüße,
Shrek
-
Hallo,
Windows Server 2012 R2 Standard gibt dir das Recht für eine physische Serverinstallation sowie 2 VMs darauf. Das physische OS ist gedacht zur Virtualisierung (Hyper-V). Wenn du Hyper-V als Hypervisor einsetzt, kannst du dein Vorhaben einsetzen.
Laut dieser Site: http://www.altaro.com/hyper-v/virtual-machine-licensing-hyper-v/ ist es möglich, noch eine VM statt zwei VMs einzusetzen, wenn man andere Rollen auf dem Host OS installiert, habe dazu jedoch noch keine Verifizierung aus MS Quellen gesehen.
Was spricht denn dagegen Hyper-V zur Virtualisierung einzusetzen statt VirtualBox?
Beste Grüße,
Shrek
-
Hallo,
Derzeit wird man das aber noch nicht bzw. kaum zu vetretbaren Kosten hinbekommen
wenn es um pure IOPs geht, was bei Virtualisierung ja oft genug der Fall ist, gibt es oft genug einen echten Kostenvorteil durch Storage Spaces.
Beste Grüße,
Shrek
-
Hallo,
hier ist ein guter Artikel, der die Einrichtung beschreibt:
Beste Grüße,
Shrek
-
Hallo,
Shared VHDX-Dateien unterliegen noch einigen Einschränkungen, wie z.B.:
- Keine Host Level Backups
- Kein Hot-Resizing
- Keine Storage Live Migrationen
Die Lage der VHDX-Datei sollte daher so gewählt werden, dass die o.a. Einschränkungen so wenig Probleme wie möglich bereiten, aber Backup und co trotzdem sicher gestellt sind.
Der Ablageort muss Shared Storage sein, also ein CSV oder ein SMB3 Share. Ein SMB3 Share ermöglicht die Nutzung clusterübergreifend, wenn du deinen Guest-Cluster über mehrere Host-Cluster verteilen möchtest.
Ein zusätzliches CSV ist dafür nicht erforderlich.
Beste Grüße,
Shrek
-
Hallo,
als Best Practice hat sich eine Lun pro Cluster Knoten, bei größeren Clustern eine Lun pro 2-4 Knoten bewährt.
Beste Grüße,
Shrek
- 1
-
Hallo,
wir haben mehrere Projekte umgesetzt, wo ein Single-User-Server günstiger war als eine Client-OS-Lizenzierung. Hier waren rein wirtschaftliche Gründe ausschlaggebend.
Die "üblichen" Anwendungen haben dabei auch keine Schwierigkeiten gemacht, da sie ja auch Terminal-Server / RDSH tauglich sind.
Beste Grüße,
Shrek
-
Hallo,
Das Feature fehlt mir bei Hyper-V komplett bzw. lässt sich das in kleineren Umgebungen schwer automatisieren.
kann ich so nicht bestätigen. Ich habe immer mindestens einen USB-Stick in der Tasche, mit dem eine vollständige Zero-Touch Installation von Hyper-V inkl. Clustering erfolgt. Dauer je nach Hardware 30-40min.
Beste Grüße,
Shrek
-
Hallo,
Wenn du wirklich nur eine IP für den Host und deine VMs hast geht es via NAT wie von Zahni beschrieben.
Wenn du jedoch für die VMs ausreichend Adressen hast aber nur eine für den Host, folgendes Vorgehen:
Switch mit externer Anbindung. Haken setzen bei "'gemeinsame Verwendung mit dem Verwaltungssystem". Dann erhälst du eine vNIC für den Host, dem du die "eine" IP-Adresse gibst, der vSwitch selbst benötigt keine weitere IP-Adresse und deine VMs können darüber nach draußen kommunizieren.
Beste Grüße,
Shrek
-
Hallo Kersten,
ich würde zunächst mit Perfmon sowohl die Host-VM als auch die Gast-VM überprüfen (http://technet.microsoft.com/en-us/magazine/2008.08.pulse.aspx).
Dazu kannst du ja mal bitte deine Umgebung beschreiben, insbesondere die Netzwerkkonfiguration samt ipconfig/all vom Host.
Beste Grüße,
Shrek
-
Hallo Dukel,
alles ne Frage der Anforderungen, die wir in diesem Fall nicht kennen. Ich würde, wenn ich schon virtualisiere, auch nie einen DC für andere Dienste wie File oder DHCP Services missbrauchen, sondern jeweils kapseln, aber all das ist nicht Teil der Fragestellung.
Beste Grüße,
Shrek
-
Hallo Norbert,
wo bei dir "spürbar" anfängt, kann ich dir nicht sagen, meistens spürt die IT von Strom- und Klimakosten ja leider sowieso nichts, messbar aber alle mal.Und jeder Server mehr will nicht nur durch WSUS gepacht werden, sondern gehört dann ins Monitoring, ins Backup, mit AV versehen, inventarisiert, lizenziert, etc.
Dass die Notwendigkeit eines zweiten DCs besteht mag vielleicht so sein, ist aber nicht zu erkennen, daher bezeichne ich ihn als unnötig. Ich bin ja ein Freund von Redundanz, aber die Anforderung ist hier nuneinmal nicht zu erkennen, auch nicht in der Fragestellung des TO. Multiple DCs sind eine HA Option, keine DR Option. Durch eine applikationsspezifische HA-Lösung steigt die Komplexität der Lösung, im vorliegenden Fall ist die VM darüber hinaus Fileserver was ebenso berücksichtigt werden müsste.
Ich gebe dir Recht, dass die Unterschiede nicht groß sind, messbar aber auf alle Fälle.Beste Grüße,
Shrek
-
Hallo Norbert,
aber eindeutig ja, ebenso wie die Kosten einen unnötigen Server einzurichten und zu warten.
Beste Grüße,
Shrek
-
Hallo ssd,
nebenbei: 99,9% meiner Kunden-DCs replizieren sich nicht alle 15 Sekunden...
Warum eine VM laufen lassen und Betriebskosten verschlingen (Strom, Klima, etc.), wenn ich Sie nur im DR-Fall benötige?
Beste Grüße,
Shrek
-
Hallo,
die Storage-Konfiguration ist tatsächlich hier interessant.
Alternativ dazu habe ich solche Phänomene schon einmal gesehen, als ein Core-Sleep vom Host nicht korrekt umgesetzt wurde.
http://blogs.technet.com/b/virtualpfe/archive/2012/09/14/hyper-v-and-bios-power-plans-c-states.aspx
Beste Grüße,
Shrek
-
Hallo,
typischerweise Bluescreen des Servers, nach dem Reboot, im schlimmsten Fall Entfernen der CPU alles ok. Replica Failover ist meistens aufwändiger. Automatisches Replica-Failover ist möglich über Powershell / SCO Scripts oder Hyper-V Recovery Manager, empfehle ich aber nicht.
Beste Grüße,
Shrek
-
- 1
Hat der Hyper-V genügend Speicher oder braucht er braucht er noch ein bißchen..
in Virtualisierung
Geschrieben · bearbeitet von IT-Shrek
Hallo,
seit Windows Server 2012 R2 regelt Hyper-V das von alleine. Der Host wird sich in deinem Szenario aber nicht mehr als 3-4GB RAM "gönnen" als Reserve für VMs und benötigt etwa 2GB RAM für den Betrieb, du bist in dem Szenario also gut aufgestellt, was den Host-RAM angeht; über andere Themen dieser Konfig kann man sicherlich streiten ;-)-
Beste Grüße,