Jump to content

Christoph_A4

Members
  • Gesamte Inhalte

    209
  • Registriert seit

  • Letzter Besuch

Reputation in der Community

10 Neutral

Über Christoph_A4

  • Rang
    Junior Member
  1. 2 VMs nutzen eine einzelne Pass-Through Disk

    Bei dieser Ausgangssituation würde ich mir manchmal wünschen, dass man derartige Features einfach nicht mehr supportet werden, dann hätte man zumindest Klarheit und führt die Administratoren nicht aufs Glatteis. Aber das ist wiederum ein anderes Thema. Das Storage ist bei beiden SQL-Nodes quasi identisch angebunden, 2 HBA-Controller pro Node, eine LUN. An die VMs durchreichen hätte allerdings auch ähnlich unschöne Nebeneffekte in Hinsicht auf Funktionsumfang und Fehleranfälligkeit richtig?
  2. 2 VMs nutzen eine einzelne Pass-Through Disk

    Hallo Nils, ein MS SQL-Cluster (2 Nodes aus 2x Blech) soll virtualisiert werden. Ich möchte diese Pass-Through-"Möglichkeit" möglichst direkt vom Tisch haben, unser HyperV-Cluster stellt rund 150 VMs zur Verfügung, bei keiner kam es auch nur ansatzweise zu dieser Anforderung, die jetzt zumindest im Raum steht. Verstehe ich das richtig, sofern wir von einer Cluster-LUN ausgehen (was bei uns möglich wäre): Grundsätzlich kann ich zwei VMs gleichzeitig an die Cluster-LUN anbinden? Die "Lösung" die LUN direkt an die VMs durchzureichen, birgt halt auch neues Fehlerpotential.
  3. 2 VMs nutzen eine einzelne Pass-Through Disk

    Hallo, ich habe im www keine zufriedenstellende Aussage gefunden. Ich sammel Argumente gegen die Nutzung von Pass-Through Disks (fibre chanel) unter HyperV (WS2012r2). Ich will keine Grundsatzdiskussion anfeuern, ich weiß, dass es quasi keine Argumente mehr Pro-Pass-Through gibt. Ich will lediglich die Restzweifel beseitigen. Es wurde nach der Möglichkeit gefragt eine Ausfallsicherheit zu schaffen, und zwar mit folgender Möglichkeit: 2 VMs greifen auf eine einzige Passthrough-Disk zu. Beschreibungen deuten daraufhin, dass dies per se (sowohl active/passive, als auch active/active) nicht möglich ist. Ist das korrekt?
  4. Live-Storagemigration online - Gastsystem relevant?

    Hallo, vielen Dank für die Antworten. Hiermit konnten wir die Restbedenken auf ein Minimum reduzieren. Für denjenigen, der in nächster Zeit die selbe Frage hat und auf diesen Thread stößt: Wir haben die angesprochenen VMs migriert, von Debian7 bis 9 war alles dabei, keinerlei Probleme.
  5. Live-Storagemigration online - Gastsystem relevant?

    Hi Nobby, der klassische ein-zwei ICMP-Paket-Ausfall wäre nicht das Problem. Wichtig wäre mir, ob es dabei Wurscht ist, was innerhalb der VM als OS läuft? Ja, sind sie. Nur mit der Einschränkung: Online-Backup nicht möglich.
  6. Hallo, ich wollte mich an dieser Stelle gerne einmal von euch absichern lassen. Wir sind dabei diverse VMs via Storagemigration online auf einen anderen Speicherplatz zu ziehen. Darunter sind auch Linux-VMs, deren Gastsystem-OS in der Supportmatrix für online-Snapshots nicht freigegeben sind. Jetzt die Frage: Ist das Gastbetriebssystem bei der online-Storagemigration überhaupt von Relevanz? Heißt, könnten wir hier auf Probleme stoßen, die damit zusammenhängen, dass die VMs nicht online gesichert werden dürfen? Oder ist es der Storagemigration völlig egal was sich auf Gastsystem-Ebene befindet? Wir müssen sicherstellen, dass die Storagemigration ohne Unterbrechung der VM stattfindet. Vielen Dank schon mal im Voraus. Grüße
  7. 3 Node-Failovercluster unter HyperV -> 2 Nodes fallen aus

    Hi, das widerspricht doch allerdings dem Prinzip des dynamic quorums oder nicht? https://www.markou.me/2016/04/dynamic-quorum-in-windows-server-2012-failover-clustering/
  8. Hi, einfache Frage, ich will diese gar nicht mit (wahrscheinlich) unnötigen Zusatzinfos versehen. Plastisches, ausgedachtes Szenario: 3 HyperV-Server im Failoverclusterverbund unter Windows Server 2012r2. Kein Quorum. 2 Server hängen ein einer Steckdosenleiste. Diese wird aus Versehen ausgeschaltet, heißt, es ist nur noch 1 Server online. 1. Frage: Clusterdienst und die virtuellen Server laufen weiter? Oder Clusterdienst wird heruntergefahren und die virtuellen Server damit ebenso? 2. Frage: 2 Server werden geplant ordentlich heruntergefahren. Clusterdienst und die virtuellen Server laufen weiter? Oder Clusterdienst wird heruntergefahren und die virtuellen Server damit ebenso? Vielen Dank schon mal im Voraus für eure Antworten.
  9. HyperV-Failovercluster - Cluster online mit 1 von 4 Hosts?

    Hallo, ja, da gebe ich euch grundsätzlich Recht. Ok, sorry, wollte zu Begin nicht zu viele Informationen in den Raum stellen, jetzt sind diese aber nötig: Wir planen eine Storage-Umstellung, bei der es relevant ist, welchen Zustand der Clusterdienst zu welchem Zeitpunkt annimmt. Deswegen ist dieser zwigend "interessant".
  10. HyperV-Failovercluster - Cluster online mit 1 von 4 Hosts?

    Eine andere Frage, die sich mir stellt: Wir werden alle 4 Nodes nacheinander herunterfahren. Wird sich der Clusterservice nach dem Shutdown des 3.Hosts von selbst beenden, oder ist sich der Clusterdienst bewußt, dass die Nodes ordnungsgemäß heruntergefahren wurden und die VMs laufen im "One-Node-Cluster" weiter? Und eine zweite Frage: Wenn man den Clusterdienst vorher nicht explizit beendet und alle Nodes heruntergefahren hat, wird der Clusterdienst automatisch wieder online gehen?
  11. HyperV-Failovercluster - Cluster online mit 1 von 4 Hosts?

    Vielen Dank für die Antowrten. Sorry, hab die Version nur in den Tags vermerkt, ist WS2012r2 @ Nils2k: Kann man sicher sein, dass der Artikel sich auch auf HyperV-Failovercluster bezieht? Hier steht er unter der Rubrik "Windows Server-Failoverclustering (WSFC), mit SQL Server"
  12. Hallo, wir werden demnächst ein Szenario aufbauen, in dem wir beantwortet haben müssten, ob wir den 4-Host-Cluster online nehmen können, wenn nur ein Host online ist. D.h. wir fahren vorher alle Server runter, der Clusterdienst ist damit offline. Darauf folgend fahren einen Host hoch und wollen den Cluster starten. Jetzt die eigentliche Frage: Geht das? Wie sieht es damit mit dem Voting eines jeden Servers aus? Wir haben ja, wie gesagt, 4 Server und ein quorum-Laufwerk. Fallen 3 Server aus (Als mehr als 50%), wird der Cluster somit ordnungsgemäß heruntergefahren, um ein „Split-brain“-Zustand zu verhindern. Also dürfte es doch so ausschauen, dass der Cluster erst online gehen kann, wenn mehr als 50% der Server online sind, oder? Oder setzt das „saubere Herunterfahren“ der Server diesen Mechanismus aus? Vielen Dank im Voraus.
  13. Hallo, im SCVMM gibt es pro Objekt (VM) bekanntlich die Möglichkeit "Custom Properties" mit Texten zu versehen. Das ganze stellt sich per default dar in den Bezeichnungen "custom1" bis "custom10", deren Textfeld man in den VM-Eigenschaften jeweils beschreiben kann. Mir fehlt nun die Möglichkeit diese Inhalte via powershell auszulesen. Konkret meine ich: Wir haben das custom property "custom1" befüllt. In der VM-Übersicht des SCVMM haben wir diese Eigenschaft "custom1" eingeblendet. Wunderbar. Diese Übersicht möchte ich per Powershell ausgeben, inklusive aller Eigenschaften, die per default bereits eingeblendet werden. Leider kann ich die Inhalte dieser "custom1" nicht auslesen.
  14. Guten Morgen, ganz kurze Frage, ich finde dazu nichts Konkretes: Wir verwenden in unserer HyperV-Failovercluster-Umgebung (Server 2012 R2) eine Quroum-Disk als Witness. Diese Disk liefert eine LUN unseres Storage-Systems. Es scheint nicht von Relevanz zu sein, ich frage dennoch mal sicherheitshalber: Wie partitioniert man dieses Volume, MBR oder GPT? Gruß und vielen Dank im Voraus für etwaige Antworten.
  15. Hallo, kurze Rückmeldung: Die Vernunft hat gesiegt, wir werden die Gastsysteme so bestücken können, wie ursprünglich geplant. Vielen Dank für eure Anmerkungen.
×