Jump to content

Hyper-V Failover Cluster Fragen


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Hallo zusammen,

 

ich wurde auf Arbeit mit dem Thema betraut, einen Hyper-V Failover Cluster zu erstellen und hätte da einige Fragen.

 

Momentan stehen mir zwei ältere Server zum Testen zur Verfügung auf denen ich Windows Server 2008 R2 Datacenter aufgesetzt habe. Beide Server sind in unsere Domain eingebunden und heißen "srv-hyperv1" und "srv-hyperv2". In beiden Servern habe ich effektiv zwei Festplatten (eigentlich vier, die über Hardware-Raid 10 zu zwei Festplatten zusammengefasst sind), eine kleine für das Betriebssystem und eine große für die Nutzdaten.

 

Folgendes Konzept habe ich mir überlegt:

 

Ich würde gerne beide Server zu einem Failover Cluster zusammenfassen und darauf Hyper-V laufen lassen. Das ist auch kein Problem und lässt sich ohne Probleme umsetzten. Mein Problem ist der Storage. Ich würde gerne die jeweils zweite Festplatte (die für die Nutzdaten) von beiden Servern "spiegeln" und im Cluster einbinden. Wenn dann ein Server ausfällt, sind die Daten genauso auf dem Failover Node des Clusters vorhanden und es kommt zu keinem Gesamtausfall.

 

Um das Konzept umzusetzten habe ich mir sowohl DFSN und iSCSI-Ziele angeschaut. Mit beiden kann ich Storage erstellen, den ich in den Cluster einbinden könnte. Das Problem ist allerdings das mit der Spiegelung.

 

Hat hier jemand auf diesem Gebiet Erfahrung und kann mir einen Tipp geben?

 

Als Anmerkung: Grundsätzlich wäre das ganze auch über unsere NetApp via iSCSI umsetzbar. Allerdings handelt es sich hier um eine massive Menge an Daten, die dann Sekündlich über unser Netzwerk transportiert werden müsste und daher halte ich meinen Ansatz für sinnvoller.

 

Vielen Dank schonmal für eure Hilfe!

 

LG, Tauchsieder
 

 

 

Link zu diesem Kommentar

Moin,

 

so auch nicht mit Windows Server 2012 R2 umsetzbar. So gar nicht sinnvoll umsetzbar.

 

Abgesehen von speziellen Hardware-Systemen sind für VM-Cluster sowohl unter Hyper-V wie auch unter vSphere und allen anderen Hypervisoren immer zentrale Storage-Systeme nötig.

Warum genau willst du das nicht mit eurem NetApp-System umsetzen? Genau sowas nutzt man in der Regel dafür.

 

Und warum soll es ein veraltetes Betriebssystem sein?

 

Gruß, Nils

bearbeitet von NilsK
Link zu diesem Kommentar

Für eine Testumgebung tut es evtl. ein drittes Gerät mit einem iSCSI Target, sei es das in 2008r2 eingebaute oder Starwind Virtual San Free. Falls irgendwie möglich, würde ich das Ganze auch besser mit 2012r2 umsetzen, Hyper-V hat sehr viele coole Features dazubekommen. Shared Nothing Migration und Live Storage Migration möchte ich nicht mehr missen.

bearbeitet von Doso
Link zu diesem Kommentar

Moin,

 

geht das hier um einen reinen Test, oder soll das Konstrukt 1:1 in die Produktion übernommen werden?

 

Zum reinen Testen: Starwind Virtual SAN free https://www.starwindsoftware.com/starwind-virtual-san-free

 

Produktiv: siehe die Antworten oben

 

 

Edit: Mal wieder zu langsam :(

bearbeitet von Dunkelmann
Link zu diesem Kommentar

Vielen Dank für eure Antworten.

 

@NilsK: Da die Datenmenge die auf die NetApp geschrieben und somit über das Netzwerk gejubelt wird sehr hoch ist, wollte ich das Ganze lokal auf dem Server lösen.

Mit alt meinte ich die Server, nicht das Betriebssystem. :)

 

@zahni: Wir wollen das Ganze mit vorhandenen Mitteln umsetzten und keine neue Software dazukaufen. Danke trotzdem für die Anregung.

 

@Dunkelmann: Es soll nach dem Test produktiv umgesetzt werden.

 

Nachdem meine "Lösung" wohl keine ist, weil nicht umsetzbar, wäre dann die Lösung mit der NetApp die Beste? Gibt es noch eine anderen "bessere" Vorschlag?

Link zu diesem Kommentar

 

@NilsK: Da die Datenmenge die auf die NetApp geschrieben und somit über das Netzwerk gejubelt wird sehr hoch ist, wollte ich das Ganze lokal auf dem Server lösen.

Mit alt meinte ich die Server, nicht das Betriebssystem. :)

 

@zahni: Wir wollen das Ganze mit vorhandenen Mitteln umsetzten und keine neue Software dazukaufen. Danke trotzdem für die Anregung.

 

 

Hm, was glaubst Du, worüber die Daten bei Deiner Wunschlösung synchronisiert werden müssten?

Eine Netapp ist, wenn man die Anbindung richtig macht, performant. ISCSI ist hier nicht  unbedingt die beste Wahl. Seit 2012 müsste man die VHDs auch auf SMB 3.0 Freigaben legen können, was eine Netapp auch kann.

In jedem Fall sollten aber dedizierte NICs oder HBAs (FC) verwendet werden.

 

Ach  ja, eine Netapp müsste man kaufen ;)

Link zu diesem Kommentar
Nachdem meine "Lösung" wohl keine ist, weil nicht umsetzbar, wäre dann die Lösung mit der NetApp die Beste? Gibt es noch eine anderen "bessere" Vorschlag?

NetApp ist ok.

Bei nur zwei Nodes und wenn keine Skalierbarkeit erforderlich ist, ginge auch ein shared SAS.

 

 

Wir wollen das Ganze mit vorhandenen Mitteln umsetzten und keine neue Software dazukaufen. Danke trotzdem für die Anregung.

Du schreibst von Hochverfügbarkeit, willst aber nichts ausgeben - finde den Wiederspruch.

Link zu diesem Kommentar

Hallo NilsK,

 

wir haben momentan einen Server, auf dem zwei Anwendungen laufen. Diese zwei Anwendungen mögen sich nicht. Deshalb wollen wir die Anwendungen via Hyper-V statt auf einem phyiskalischen Server auf zwei Virtuellen Servern laufen lassen, damit sich die Programme "frei entfalten" können. Später sollen dann auch noch ein paar andere Anwendungen auf dem Server mit eigenen Hyper-V Instanzen laufen.

 

Damit das Ganze auch eine High Availability Lösung ist, wollen wir uns einen zweiten Server kaufen und diesen zu einem Failover Cluster zusammenschließen.
Da wir bereits zwei Windows Server 2008 R2 Datacenter Lizensen haben, wollen wir es mit Windows umsetzten. Siehst du eine andere Lösung, als einen Failover Cluster?

 

LG, Tauchsieder

Link zu diesem Kommentar

Moin,

 

welche Anforderungen bestehen genau an die Verfügbarkeit? Welche Ausfallzeiten sind für das Unternehmen tolerierbar? (Damit meine ich nicht: Wann wird es unbequem, sondern: Wann entsteht ein gravierender Schaden?) Eine Antwort wie "es soll immer laufen" oder "es darf halt nicht ausfallen" ist hier nicht zielführend.

 

Failover-Clustering wird häufig deutlich unterschätzt, das scheint mir auch hier der Fall zu sein. Damit ein Cluster wirklich das leistet, was man (üblicherweise) von ihm erwartet, muss er sorgfältig aufgebaut werden und ist alles andere als ein preisgünstiges Konstrukt. Für einen Hyper-V-Cluster braucht es neben den Hosts ein zentrales Storage und eine Netzwerk-Infrastruktur. Beide müssen so beschaffen sein, dass sie selbst nicht zum Ausfallpunkt werden. Und selbstverständlich wird zwischen den Hosts und dem Speichersystem erheblicher Netzwerktraffic entstehen - nicht zuletzt deshalb braucht es dafür ein separates Netzwerksegment.

 

Windows Server 2008 R2 ist bereits aus dem Mainstrem-Support gelaufen - das ist ungünstig für ein System, auf das ihr euch künftig verlassen können wollt. Zudem hat 2008 R2 sowohl für Hyper-V als auch fürs Clustering einige Einschränkungen, die heute nicht mehr zeitgemäß sind.

 

Wenn das Budget begrenzt ist, lassen sich die Anforderungen ja vielleicht auch ohne Cluster erfüllen, etwa durch ein gut aufgebautes Recovery-Konzept oder Cold-Standby-Konstrukte.

 

Gruß, Nils

bearbeitet von NilsK
Link zu diesem Kommentar

Hallo NilsK,

 

danke für die ausführliche Antwort.

 

Das Budget ist in der Tat sehr begrenzt, sonst hätte ich von vorn herein Windows Server 2012 R2 genommen.

Da es sich bei dem Ganzen, um nur intern verwendete Programme handelt, wäre eine Ausfallzeit von maximal 30 Minuten denkbar. Länger sollte es allerdings definitiv nicht sein.

 

Ich sehe folgende Möglichkeiten:

 

1. Man verwendet einen Failover Cluster und speichert die HyperV Images auf unserer NetApp.

  • Vorteil: Extrem schnelle Disaster Recovery
  • Nachteil: Hohe Kosten wg. Kauf eines zweiten Servers und vielleicht sogar "zu schnelle" Disaster Recovery, weil wir ja ca. 30 Minuten Zeit haben.

2. Man verwendet den vorhandenen Server als Hauptserver und installiert auf einem zweiten Server ebenfalls die HyperV Rolle. Die .vhd's der HyperV Instanzen speichert man komplett auf der NetApp. Fällt dann ein Server aus, bindet man die Images von der NetApp auf dem Backup Server ein und lässt sie dort laufen, bis der Hauptserver wieder zur Verfügung steht.

  • Vorteil: Geringe Kosten
  • Nachteil: Vielleicht zu langsame Disaster Recovery?

3. Man verwendet den vorhandenen Server als Hauptserver und installiert auf einem zweiten Server ebenfalls die HyperV Rolle. Die .vhd's der HyperV Instanzen speichert man Lokal auf dem Hauptserver und zieht alle fünf Minuten einen Snapshot auf die NetApp.

  • Vorteil: Geringe Kosten
  • Nachteil: Extrem hohe Belastung des Netzwerks weil alle fünf Minuten mehere Terrabyte an Daten übers Netzwerk geschleust werden. So vermutlich nicht umsetzbar, weil unser Netzwerk dafür zu langsam ist.

 

Das wären meine Ansätze. Siehst du noch weitere?

 

Danke schonmal für die Antwort.

 

LG, Tauchsieder

Link zu diesem Kommentar

Moin,

 


Das Budget ist in der Tat sehr begrenzt, sonst hätte ich von vorn herein Windows Server 2012 R2 genommen.

Da es sich bei dem Ganzen, um nur intern verwendete Programme handelt, wäre eine Ausfallzeit von maximal 30 Minuten denkbar. Länger sollte es allerdings definitiv nicht sein.

 

 

hm, irgendwie hatte ich mit so einer Antwort gerechnet. Das ist sozusagen prototypisch. Nimm es mir nicht übel, aber: Das ist völlig illusorisch.

 

Ich hatte nach der maximal tolerierbaren Ausfallzeit gefragt. Wenn du sagst, die liegt bei 30 Minuten - dann heißt das: Ab Minute 31 beginnt der Schaden für euer Unternehmen so groß zu werden, dass das Unternehmen in seiner Existenz bedroht sein könnte.

 

Wirklich?

 

Wenn das so ist, wie kommt es dann, dass für eine Vorkehrung dagegen kein ausreichendes Budget zur Verfügung steht? Ist euer Unternehmen weniger wert als ein paar 10.000 Euro?

Hier passen also ein paar Dinge nicht zusammen.

 

Um es deutlich zu sagen: Eine Ausfallzeit von unter 30 Minuten ist absolute Königsklasse. Dafür geben Unternehmen, die sowas brauchen, siebenstellige Summen aus.

 

Wir verlassen hier den Bereich, den man in einem Forum sinnvoll behandeln kann. Meine Empfehlung ist: Lass dir einen kundigen Berater kommen, der mit euch in Ruhe die Anforderungen entwickelt und Möglichkeiten und Grenzen aufzeigt.

 

Gruß, Nils

Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...