Jump to content

IT-Shrek

Expert Member
  • Gesamte Inhalte

    1.027
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von IT-Shrek

  1. Hallo, seit Windows Server 2012 R2 regelt Hyper-V das von alleine. Der Host wird sich in deinem Szenario aber nicht mehr als 3-4GB RAM "gönnen" als Reserve für VMs und benötigt etwa 2GB RAM für den Betrieb, du bist in dem Szenario also gut aufgestellt, was den Host-RAM angeht; über andere Themen dieser Konfig kann man sicherlich streiten ;-)- Beste Grüße,
  2. Hallo, LACP bietet im typischen Hyper-V Use Case keinen Performance-Vorteil und nur in einem einzigen und in der Praxis sehr unwahrscheinlichem Szenario einen Verfügbarkeits-Vorteil, der bei dir jedoch auch nicht zu tragen kommt. Mit einem Switch unabhängigem, dynamischen Team bist du hier - wie in den allermeisten anderen Fällen auch - besser beraten. Beste Grüße, Shrek
  3. Hallo, mit Windows Server 2012 R2 ist der Performance-Unterschied zwischen fixer und dynamischer VHDX kaum messbar im Praxiseinsatz, meine Kunden setzen daher fast ausschließlich dynamische Platten ein. Beste Grüße, Shrek
  4. Hallo, eine Chance die Anwendung als Service laufen zu lassen besteht nicht? Hier ist schonmal ein Workaround für minimierte RDP-Fenster: http://www.networkautomation.com/urc/knowledgebase/running-interactive-tasks-in-minimized-remote-desktop-windows/4ecdf43e03470/ Beste Grüße, Shrek
  5. Anmerkung am Rande: Das Präsentieren von Userfiles, sollte nach Möglichkeit nicht über Domain-Controllern erfolgen, sodass sich der Sharepoint-Server dafür sogar besser eignet als die DCs. Beste Grüße, Shrek
  6. IT-Shrek

    VMM Network Builder

    gefällt mir auf den ersten Blick recht gut das Teil. Shrek
  7. IT-Shrek

    Implementierung SCVMM

    Hallo, wie bereits erwähnt ist der VMM eine reine Management Maschine und verschickt Management-Befehle an Hyper-V Hosts, übernimmt aber keine Hypervisor-Funktionen. Daher sehe ich hier kein "altbekanntes" Henne-Ei-Problem. Eine eigene Management-Domain bzw. ein Forest ist best Practice in High-Security Umgebungen. Beste Grüße, Shrek
  8. Hallo, dynamische VHDX-Dateien sind auch für die Produktion heute Best Practice, dazu ein vernünftiges Monitoring wenn man ein Storage-Overcommitment / Thin Provisioning dadurch betreibt um von Doso beschriebene Situationen zu vermeiden. Beste Grüße, Shrek
  9. Hallo, Azure Subscriptions bleiben einige Zeit im Account nach Ablauf, damit man die Chance hat die Daten zu retten. Nach einiger Zeit (ca. 3 Monate bei mir jedoch immer +- ein paar Wochen) werden diese entfernt. Beste Grüße, Shrek
  10. Hallo, Windows Server 2012 R2 Standard gibt dir das Recht für eine physische Serverinstallation sowie 2 VMs darauf. Das physische OS ist gedacht zur Virtualisierung (Hyper-V). Wenn du Hyper-V als Hypervisor einsetzt, kannst du dein Vorhaben einsetzen. Laut dieser Site: http://www.altaro.com/hyper-v/virtual-machine-licensing-hyper-v/ ist es möglich, noch eine VM statt zwei VMs einzusetzen, wenn man andere Rollen auf dem Host OS installiert, habe dazu jedoch noch keine Verifizierung aus MS Quellen gesehen. Was spricht denn dagegen Hyper-V zur Virtualisierung einzusetzen statt VirtualBox? Beste Grüße, Shrek
  11. Hallo, wenn es um pure IOPs geht, was bei Virtualisierung ja oft genug der Fall ist, gibt es oft genug einen echten Kostenvorteil durch Storage Spaces. Beste Grüße, Shrek
  12. Hallo, hier ist ein guter Artikel, der die Einrichtung beschreibt: http://blogs.technet.com/b/canitpro/archive/2013/10/09/step-by-step-create-a-site-to-site-vpn-between-your-network-and-azure.aspx Beste Grüße, Shrek
  13. Hallo, Shared VHDX-Dateien unterliegen noch einigen Einschränkungen, wie z.B.: - Keine Host Level Backups - Kein Hot-Resizing - Keine Storage Live Migrationen Die Lage der VHDX-Datei sollte daher so gewählt werden, dass die o.a. Einschränkungen so wenig Probleme wie möglich bereiten, aber Backup und co trotzdem sicher gestellt sind. Der Ablageort muss Shared Storage sein, also ein CSV oder ein SMB3 Share. Ein SMB3 Share ermöglicht die Nutzung clusterübergreifend, wenn du deinen Guest-Cluster über mehrere Host-Cluster verteilen möchtest. Ein zusätzliches CSV ist dafür nicht erforderlich. Beste Grüße, Shrek
  14. Hallo, als Best Practice hat sich eine Lun pro Cluster Knoten, bei größeren Clustern eine Lun pro 2-4 Knoten bewährt. Beste Grüße, Shrek
  15. Hallo, wir haben mehrere Projekte umgesetzt, wo ein Single-User-Server günstiger war als eine Client-OS-Lizenzierung. Hier waren rein wirtschaftliche Gründe ausschlaggebend. Die "üblichen" Anwendungen haben dabei auch keine Schwierigkeiten gemacht, da sie ja auch Terminal-Server / RDSH tauglich sind. Beste Grüße, Shrek
  16. Hallo, kann ich so nicht bestätigen. Ich habe immer mindestens einen USB-Stick in der Tasche, mit dem eine vollständige Zero-Touch Installation von Hyper-V inkl. Clustering erfolgt. Dauer je nach Hardware 30-40min. Beste Grüße, Shrek
  17. Hallo, Wenn du wirklich nur eine IP für den Host und deine VMs hast geht es via NAT wie von Zahni beschrieben. Wenn du jedoch für die VMs ausreichend Adressen hast aber nur eine für den Host, folgendes Vorgehen: Switch mit externer Anbindung. Haken setzen bei "'gemeinsame Verwendung mit dem Verwaltungssystem". Dann erhälst du eine vNIC für den Host, dem du die "eine" IP-Adresse gibst, der vSwitch selbst benötigt keine weitere IP-Adresse und deine VMs können darüber nach draußen kommunizieren. Beste Grüße, Shrek
  18. Hallo Kersten, ich würde zunächst mit Perfmon sowohl die Host-VM als auch die Gast-VM überprüfen (http://technet.microsoft.com/en-us/magazine/2008.08.pulse.aspx). Dazu kannst du ja mal bitte deine Umgebung beschreiben, insbesondere die Netzwerkkonfiguration samt ipconfig/all vom Host. Beste Grüße, Shrek
  19. Hallo Dukel, alles ne Frage der Anforderungen, die wir in diesem Fall nicht kennen. Ich würde, wenn ich schon virtualisiere, auch nie einen DC für andere Dienste wie File oder DHCP Services missbrauchen, sondern jeweils kapseln, aber all das ist nicht Teil der Fragestellung. Beste Grüße, Shrek
  20. Hallo Norbert, wo bei dir "spürbar" anfängt, kann ich dir nicht sagen, meistens spürt die IT von Strom- und Klimakosten ja leider sowieso nichts, messbar aber alle mal.Und jeder Server mehr will nicht nur durch WSUS gepacht werden, sondern gehört dann ins Monitoring, ins Backup, mit AV versehen, inventarisiert, lizenziert, etc. Dass die Notwendigkeit eines zweiten DCs besteht mag vielleicht so sein, ist aber nicht zu erkennen, daher bezeichne ich ihn als unnötig. Ich bin ja ein Freund von Redundanz, aber die Anforderung ist hier nuneinmal nicht zu erkennen, auch nicht in der Fragestellung des TO. Multiple DCs sind eine HA Option, keine DR Option. Durch eine applikationsspezifische HA-Lösung steigt die Komplexität der Lösung, im vorliegenden Fall ist die VM darüber hinaus Fileserver was ebenso berücksichtigt werden müsste. Ich gebe dir Recht, dass die Unterschiede nicht groß sind, messbar aber auf alle Fälle. Beste Grüße, Shrek
  21. Hallo Norbert, aber eindeutig ja, ebenso wie die Kosten einen unnötigen Server einzurichten und zu warten. Beste Grüße, Shrek
  22. Hallo ssd, nebenbei: 99,9% meiner Kunden-DCs replizieren sich nicht alle 15 Sekunden... Warum eine VM laufen lassen und Betriebskosten verschlingen (Strom, Klima, etc.), wenn ich Sie nur im DR-Fall benötige? Beste Grüße, Shrek
  23. Hallo, die Storage-Konfiguration ist tatsächlich hier interessant. Alternativ dazu habe ich solche Phänomene schon einmal gesehen, als ein Core-Sleep vom Host nicht korrekt umgesetzt wurde. http://blogs.technet.com/b/virtualpfe/archive/2012/09/14/hyper-v-and-bios-power-plans-c-states.aspx Beste Grüße, Shrek
  24. Hallo, typischerweise Bluescreen des Servers, nach dem Reboot, im schlimmsten Fall Entfernen der CPU alles ok. Replica Failover ist meistens aufwändiger. Automatisches Replica-Failover ist möglich über Powershell / SCO Scripts oder Hyper-V Recovery Manager, empfehle ich aber nicht. Beste Grüße, Shrek
  25. Hallo, einfach hiergegen prüfen: http://www.windowsservercatalog.com/ Shrek
×
×
  • Neu erstellen...