Jump to content

ccwurm

Members
  • Gesamte Inhalte

    118
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von ccwurm

  1. ccwurm

    Serverhardware Hyper-V

    Nein, SQL-Server oder Exchange-Server laufen nicht auf dem System. Es handelt sich um eine bunte Mischung an VMs, bei denen aber keine extrem große IO-Last zu erwarten wäre. Im Grunde sind viele VMs alte Kisten, die virtualisiert wurden.
  2. ccwurm

    Serverhardware Hyper-V

    Guten Morgen, wir konfigurieren hier gerade Server für ein aktuelles Projekt. Zwei Systeme ohne zentralen Speicher, Windows Server 2012 R2 Hyper-V Datacenter (sind vorhanden). Wichtig ist Kapazität, Ausfallsicherheit bzw. Verfügbarkeit ist zweitrangig. Ich freue mich auf Eure Gedanken dazu. Geplant sind derzeit zwei Server (Dell PowerEdge R720xd) mit je: 3 TB Raid10 (VMs) + 600GB Raid1 (System) [insg. 12 HDDs SAS 15K] 192 GB RAM Intel Xeon E5 2,4 GHz 12 Kerne x 2 (24 Kerne) 3 Quad 1Gb NICs (12 Gb Ports) 1 Dualport 10Gb NIC etc. Ein weiterer PCIe Port ist noch frei (z.B. für Netzwerkkarte) und es kann bei Bedarf noch genügend RAM nachgelegt werden. Platten sind voll bestückt. Die Konfiguration stellt in etwa unseren hochgerechneten Bedarf an Ressourcenanforderung dar, basierend auf den Erfahrungen der letzten Jahre mit den jetzigen Servern. Einzelne VMs sollen mit dem Replica-Feature zumindest "höher verfügbar" gemacht werden. Die 10Gb NICs sollen für Livemigrationen unter den beiden Systemen verwendet werden und für die Replikation. Was ist Eure Meinung dazu. Schöne Grüße Andreas
  3. Alles klar. Danke dir für deinen Support! Gruß
  4. Na spitze. Habe gerade erfahren, dass wir trotz SA für den SCVMM 2008 R2 Workgroup Edition nicht upgradeberechtigt für den 2012er sein sollen. Es soll dafür schlicht kein Upgradepfad existieren. Soso. :nene: Aber ehrlich gesagt bin ich mir gar nicht sicher, ob das jetzt für uns eine gute oder schlechte Nachricht ist. Ich finde den neuen SCVMM extrem komplex und unüberschaubar. Zumindest im Vergleich zum Vorgänger. Viele neue Funktionen, die wir allesamt eigentlich gar nicht benötigen, die aber alles viel komplizierter machen. Ich bin echt kein Feind von Neuerungen, sofern sie mir einen Vorteil bringen. Nun, mal sehen was wir hier machen. Gruß
  5. Sorry, habe die zweite Seite des Threads erst jetzt gesehen. Hier die Meldung: "Migration check for virtual machine TestVM failed to create a planned virtual machine in the target host. Detailed error message: The Virtual Machine Management Service failed to establish a connection for a Virtual Machine migratino with host xxxxx: No connection could be made because the target machine actively refused it. (0x8007274D)." Interessanterweise haben die beiden Hosts beim Anstoßen des Migrationsassistenten bereits zweimal die IP-Konfiguration verloren (vom Switch, der nicht die IP des LiveMig Netzes hat, also sozusagen der Switch für das Standardnetz). Hat beim ersten Mal eine Weile gedauert, bis ich darauf gekommen bin. Spricht eigentlich was dagegen, den Standard vSwitch statt der Logical Switches an den Hosts zu verwenden? Vor allem wenn man keine erweiterten Funktionen wie Isolation benötigt? Gruß
  6. Mhh, jetzt scheitern meine Live Migrationen. Eine Site im Logical Network ist dafür definiert, ein Switch auch (weil zwei phys. Nics ohne Teaming), die vEthernet-Adapter haben jeweils IPs aus dem neuen Netz (192.168.40.0/24) und sind gegenseitig pingbar. Außerdem, wie o.a., habe ich das Subnetz für Incoming Live Migrations definiert. Diese Seite habe ich schon zu Rate gezogen, weil ich auch den Fehler (0x8007274D) im Migrationsassistenten des VMM bekomme. Über diese Seite bin ich darauf gekommen und auch die DNS-Einstellungen getestet. Gruß.
  7. Dann werde ich mir das nochmal näher ansehen. Habe im VMM keinen Menüpunkt dazu gefunden, allerdings finde ich im VMM in den Eigenschaften eines Hosts den Punkt Migration Settings, da kann man das Subnet für Incoming Live Migrations definieren. Ich muss in den Einstellungen des Uplink Port Profiles eine Network Site definieren, zu der Verbindung hergestellt werden soll. Ohne eine Site komme ich an dem Punkt sonst nicht weiter. Einen IP-Pool habe ich mir allerdings nicht erstellt, da ich glaube den im VMM bei meinem Aufbau nicht zu benötigen. Gut. Danke für deine Unterstützung, bin jezt schon deutlich weiter gekommen! Schöne Grüße.
  8. Danke für deine Unterstützung. Zunächst muss ich kurz klarstellen, dass sich seit meinem vorletzten Post und den letzten Screenshots meine Herangehensweise schon wieder etwas geändert hat, deshalb auch zwei Logical Switches. Du schreibst das ein Logical Switch gereicht hätte, aber wenn ich kein Nic-Teaming betreibe und ich pro Logical Switch nur eine physikalische Nic per Uplink Port Profil an diesen anbinden kann, dann bleibt mir doch pro phys. Nic nur jeweils ein neuer Logical Switch? BTW, macht denn Switch Indipendent Teaming performanemäßig Sinn? Bis zum Failoverclustermanager bin ich noch garnicht vorgedrungen, zumal wir leider noch keinen Sharedstorage haben, wie in einem anderen Thread schon angesprochen. Hier muss ich morgen im VMM nachsehen. Also komme ich um die Nutzung verschiedener IP-Netze nicht herum. Definiert als mehrere Sites im einzigen Logical Network? Untereinander geroutet müssen sie ja nicht sein, denke ich. Und Namensauflösung macht dann der Adapter im "Hauptnetz", der DNS Einträge definiert hat, wenn Namensauflösung für z.B. Live Mig. überhaupt nötig ist? Deine Testumgebung würde bis aufs Teaming dann meiner Vorstellung entsprechen. Danke auch für die Links, den von hyper-v-Server.de kannte ich noch nicht. Sorry für die vielen Fragen die ich noch habe, aber die Brennen mir alle noch unter den Nägeln und ich möchte es gerne richtig verstehen. :) Die verlinkten Seiten sind teilweise sehr umfangreich, aber sie erläutern nicht so sehr die Basics, sondern setzen schon etwas weiter oben an. Ach und die Virtualisierungsoptionen im Logical Network und im Logical Switch benötige ich nicht, weil ich keine Isolierung benötige, richtig? Danke und Gruß.
  9. Meine Konfig sieht jetzt foldendermaßen aus: So sehen die Netzwerkadapter jetzt auf einem der beiden Hosts aus. Woher weiß jetzt zum Beispiel ein Host, dass er für den Management-Traffic die "Management vNic" nutzen soll? Über das definierte Port profile? An nichts anderem könnte er es doch fest machen? Gleiches gilt für Migrationsdaten und die VMs vNics. Danke und Gruß
  10. OK. Ich würde gerne ein paar JPGs mit Konfigscreenshots hochladen, allerdings habe ich dazu wohl nicht die Berechtigung? "Du kannst Dateien bis zu Hochladen ist nicht erlaubt hochladen (max. Einzeldateigröße: 12MB)" Gruß
  11. Daniel, danke für deine Antwort! Ich habe mir das Netzwerkschaubild auf der verlinkte Seite angesehen. Mir ist aber immer noch nicht ganz klar, wie die einzelnen Komponenten für die jeweiligen Aufgaben (Management, VMs, ec.) sinnvoll eingesetzt werden. Also in unserem Fall haben wir ja ein großes Subnetz, eben das 172.16.0.0/16. Alle Server und Clients befinden sich in diesem Netz. Es gibt zwar noch andere Netze, die werden allerdings für andere Systemlandschaften verwendet (SAP, etc.). Als Ziel möchte ich möglichst wenig Komplexität haben. Deshalb habe ich ein Logical Network, ein Uplink Profil und ein Logical Switch angelegt. Anschließend noch ein VM Network (von dem ich dachte, dass es nur für den Zugriff der VMs auf Logical Networks gedacht ist). Die enstprechenden Hosts haben jetzt zwei Netzwerkkarten. Ich klinke also über den Punkt Virtual Switches am Host den Logical Switch ein und verknüpfe ihn mit einer physikalischen Netzwerkkarte und einem (dem einzigen) Uplink-Profil. So, jetzt muss ich doch die vNics erstellen? Diese repräsentieren dann die eigentlichen Netzwerkkarten im Server, nur auf virtuelel Art und Weise? Wenn ich jetzt eine vNic für das Management (Management- und Livemigraiontraffic) erstellen möchte, dann gebe ich der vNic z.b. den Namen Management und trotzdem muss die Karte einem VMNetwork zugeordnet sein? (obowhl ich dachte, dies wäre nur für vNics notwendig, die für VMs durchgereicht werden sollen?). An dem Punkt hänge ich dann schon. Irgendwo habe ich hier einen Denkfehler. :( Gruß Andreas
  12. Hallo Kollegen, ich bin langsam echt am verzweifeln. Habe mir eine Testumgebung mit Server 2012 und SCVMM 2012 SP1 auf drei Rechnern installiert (einer SCVMM, zwei VMHosts). Aber ich blicke bei dem neuen Networking-Konzept einfach nicht komplett durch. Habe diverse Artikel durch und auch einige Techneteinträge, aber es macht einfach nicht Klack! Was ich bis jetzt verstanden habe ist, dass es durch die Netzwerkvirtualisierung die Möglichkeit gibt, mehrere gleiche IP-Netze auf den Hosts parallel zu betreiben, usw. Aber das sind Featues, die ich nicht benötige. Ich möchte einfach meine Testumgebung an unser LAN anbinden. Leider habe ich bis jetzt immer die Konnektivität der Hosts mit dem SCVMM getrennt. Was ich bis jetzt gemacht habe: 1. Ich habe ein Logical Network angelegt ohne Virtualisierungsoption und darin eine Site "Firmenname" mit unserem internen IP-Netz 172.16.0.0/16 VLAN 0 2. Dann habe ich zunächst ein Uplink Port Profile erstellt, Load balacing algorithm: HyperVPort, SwichIndependent 3. Im nächsten Schritt habe ich einen Logical Switch erstellt und ihm das Uplink Port Profile zugewiesen (Bis hier hin habe ich verstanden, das dies so eine Art Template ist, das beim Erstellen eines virtuellen Switch Verwendung findet?) 4. Anschließend habe ich den Hosts das Logical Network im Netzwerkadapter eingeklinkt und einen Virtualswich erstellt 5. Jetzt habe ich die Verbindung zu den Hosts verloren (habe nur eine Netzwerkkarte in den Rechnern) 6. Ich habe dann die gleiche Geschichte nochmal gemacht und dem Logical Switch noch das Hostmanagement Profil zugewiesen, weil ich dachte dies hält mir vielleicht die Managementkonnektivität aufrecht. Aber Pustekuchen. Ehrlich gesagt erschließen sich mir die ganzen Zusammenhäge der einzelnen Stationen und Teile nur schwer. Für Hinweise zu einer einfachen "Alles ins gleiche LAN und testweise über nur einen Netzwerkadapter" wäre ich euch echt dankbar! Danke und Gruß
  13. Ja, auch das ist mir klar. Aber weißt du wie auf dieses Argumnt reagiert wurde? Frage: "Wie oft ist in der Vergangenheit ein Host abgestürzt?" Antwort: "Noch nie, aber..." Ich sag doch, lass uns nicht darüber diskutieren. Ich sehe das niht anders wie du. Gruß
  14. Ach Dukel, lass uns nicht über diesen Punkt diskutieren. Ich freue mich über das "Shared Nothing Live Migration", damit habe ich wenigstens die Möglichkeit im gleichen Stil meine VMs umzuziehen und Hosts zu warten als hätte ich nen Shared Storage. Die Migration der VMs dauert halt nur länger. Derzeit bedeutet eine Quickmigration immer, dass die VM mehrere Sekunden nicht erreichbar ist. In Zukunft nur noch ein, zwei Sekunden! Hat jemand von euch die Datenbank für den SCVMM 2012 SP1 auf einem "nicht supporteten" SQL Server 2008 R2 (ohne SP1) laufen? Technische Probleme damit?
  15. Klar, aber ich habe es leider nicht geschafft meine Chefs von dieser Sache ebenfalls zu überzeugen und adäquate Speichersysteme anzuschaffen. Aber abwarten, das krieg ich noch hin.
  16. Das weiß ich. Allerdings hat es mir die Möglichkeit geboten, VMs im laufenden Betrieb zwischen den Hosts zu verschieben und nur eine sehr kurze Downtime in Kauf zu nehmen. In Server 2012 soll diese Funktion sogar noch verbessert worden sein, so dass auch ohne Shared Storage bei der Migraton auf einen anderen Host nur ein, zwei Pings verloren gehen. Gruß
  17. Alles klar, aber Quickmigration klappt (zumindest unter 2008 R2 SP1) ohne Probleme. Du meinst vielleicht Livemigration? Oder ist das im 2012er anders?
  18. Danke euch für eure Antworten! Nach euren Beiträgen denke ich, dass ich tatsächlich eine Neuinstallation des SCVMM 2012 SP1 auf einem neuen Blech hochziehen werde. Ich habe nicht viele Templates oder andere Anpassungen vorgenommen, so dass eine saubere Neuinstallation wahrscheinlich sauberer und leichter ist. Ich überlege noch in welche Reihenfolge ich dann die Hyper-V Hosts in die neue Umbegung überführe. Im Augenblick denke ich an folgendes Szenario: Ich befreie einen der drei Hyper-V Hosts von seinen VMs indem ich diese auf die anderen beiden Quickmigriere. Anschließen plätte ich diesen Host und installiere ihn mit Server 2012 inkl. Hyper-V Rolle frisch und binde ihn in den SCVMM 2012 SP1 ein. Jetzt würde ich die anderen beiden Hosts so wie sie sind mit Hyper-V Server 2008 R2 SP1 in den SCVMM 2012 SP1 einbinden und die VMS (soweit von den Kapazitäten möglich) auf den einzelnen 2012er Host migrieren. Jetzt nehme ich die beiden Hyper-V Server wieder aus dem SCVMM 2012 SP1 raus und installiere sie ebenfalls mit Server 2012 und füge sie wieder dem SCVMM 2012 hinzu. VMs verteilen und fertig. Was denkt ihr dazu? Gruß
  19. Spiele auch immer mehr mit diesem Gedanken. Inwiefern meinst du das? Also pro oder contra für eine frische Installation? Gruß
  20. Hi Necron, insgesamt möchte baldmöglichst schon auf den aktuellsten Stand. Also auch beim Betriebssystem der Hosts. Allerdins werde ich hier die Datacenter-Editionen installieren, da wir neulich Lizenzen nachgelegt haben. Fraglich ist halt nur der Weg dorthin. Gruß
  21. Hallo Leute, wir betreiben bei uns in der Firma folgenden Aufbau: Windows Server 2008 R2 SP1 mit SCVMM 2008 R2 SP1 (lokale Datenbank, lokales Systemkonto als Nutzer, lokale SCVMM Library) 3x Hyper-V Server 2008 R2 SP1 (jeweils dem SCVMM zugeordnet, kein Shared Storage und damit kein Cluster) Ich habe schon diverse Migrationsleitfäden gefunden, die jeweils relativ ähnlich die Herangehensweise folgendermaßen (stark vereinfacht) schildern: - Datenbank auf supporteten SQL-Server migrieren - Vorhandene SCVMM Installation deinstallieren (retain data) - Neuen SCVMM 2012 installieren und Datenbank einbeziehen So, dann bin ich allerdings maximal auf SCVMM 2012 (nicht SP1), weil wohl SCVMM 2012 SP1 nur unter Windows Server 2012 läuft. Wie geht man dann am besten weiter? Ich spiele auch schon mit dem Gedanken einen neuen SCVMM 2012 SP1 auf Server 2012 bereitzustellen und nach und nach die Hosts von VMs zu befreien, mit Server 2012 bereitzustellen und dem neuen SCVMM hinzuzufügen und anschließend die VMs nach und nach auf die neuen Server 2012 umzuziehen? Was meint ihr? Habt ihr hier schon Erfahrungen in ähnlicher Umgebung gemacht? Gruß ccwurm
  22. Danke Nils, allerdings habe ich ja oben geschrieben, dass ein zentraler Speicher aus Kostengründen nicht machbar ist. Ich denke deshalb brauche ich zu den geclusterten Storageservern auch nichts mehr schreiben. Ich wollte eigentlich mehr Kommentare zur HDD-Konfiguration (Raid...) Danke und Gruß
  23. Danke für den Hinweis. Allerdings wird man dafür wohl 10Gbit Ethernet Adapter brauchen um eine ordentliche HDD Performance an den Hosts zu haben. Außerdem verschiebe ich den single point of failure dadurch auch nur auf einen anderen Punkt und erhöhe dadurch die Ausfallsicherheit nicht wirklich. Fällt der Storage Server aus sind alle VMs aus. Ohne Storage Server müssten hierfür schon beide Virtualisierungshosts gleichzeitig ausfallen. Ich denke wenn schon zentraler Speivher, dann auch richtig Ausfallsicher und mit performanter Anbindung. Grüße
×
×
  • Neu erstellen...