Jump to content

Hyper-V Cluster mit DC/Exchange als Gast


mchgbh
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Moin,

 

für das bislang diskutierte Szenario hat vSphere exakt null Vorteile. Dafür den Nachteil von vierstelligen Euro-Summen als Zusatzkosten.

 

Man braucht bei Aufbau mit Hyper-V nicht zwingend einen separaten DC. Es ist trotzdem zu empfehlen, und das gilt mit vSphere exakt genauso - nicht wegen des Clusters (der startet seit Windows 2012 auch ohne erreichbaren DC), sondern wegen der allgemeinen Abhängigkeit der Infrastruktur von AD. Ein Recovery geht meist erheblich schneller, wenn man sich nicht erst um das AD kümmern muss, weil es auf dem physischen DC bereits läuft.

 

Exchange und DC auf derselben Server-Instanz ist ein No-go. POP-Connectoren sind das heute auch.

 

"Verfügbarkeitslösungen", die auf Batches beruhen, sind niedlich, manchmal auch pfiffig, aber in den meisten Situationen kaum ernst zu nehmen.

 

Und im Übrigen wird hier wieder mal das Pferd von der falschen Seite aufgezäumt: Zuerst wäre zu klären, was denn überhaupt die Anforderungen sind. EIn Wort wie "ausfallsicher" reicht da bei Weitem nicht aus.

 

Gruß, Nils

Link zu diesem Kommentar

Danke für die rege Diskussion. Insbesondere NilsK, dem ich jetzt antworten möchte:

 

Ziel: Ausfälle außerhalb von Stromausfällen sollen so unwahrscheinlich sein, dass sie eigentlich nicht auftreten (99,95+). Ich würde ungerne in genaue Berechnungen einsteigen, da ich so eine Kalkulation mal für möglichen Datenverlust machen durfte und die genauen Berechnungen sind imo bei diesem Szenario overkill.

 

Wenn zwei Maschinen sich gegenseitig durch HA im Fehlerfall vertreten und automatisch unter 15 Minuten umschalten, ist das ausreichend. Die Ersatzmaschine sollte dann aber bis zu 14 Tage "höchstwahrscheinlich" durchlaufen können. 

 

Soeben habe ich gelesen, dass es bei der Kombination Exchange + DC wohl mehr technische Probleme gibt, die zu Zeiten von SBS (derzeit SBS 2011 im Einsatz) nicht relevant waren. Bis jetzt habe ich aber noch kein "Killerargument" gefunden, dass mir eine Genehmigung von einem weiteren Server mit Lizenzen erbringt. 

 

Ich würde noch mal gerne auf eine meiner grundlegenden Fragen zurück kommen:

3.A) Wenn ich einen DC und ein Exchange auf einem (oder zwei) virtualisierten Server/n habe und der darunter liegende Hyper-V Server geclustert ist, wird die VM/s dann bei Ausfall einer Maschine ordnungsgemäß übergeben?

Link zu diesem Kommentar

Bei einem Ausfall wird die VM nicht übergeben, sondern auf dem anderen Cluster-Teilnehmer neu gestartet. So als Ob die den Stecker gezogen hast.

Damit wären die 15 Minuten ja realistisch. Das klingt super!

 

Nun zur Lizenfrage, ob ich das richtig verstehe:

Wenn ich zwei Hyper-V Knoten habe und somit 2x 2012 R2 Standard und dadrauf die beiden "echten" Server (DC und Exchange), dann reichen also die beiden Server Lizenzen aus. Für den DC nun noch die CALs für den Fileserver und den Exchange die CALs für Exchange drauf und gut ist. Richtig?

Link zu diesem Kommentar

Moin,

 

dass das "Overkill" sei, stelle ich in Abrede. Wenn das so ist, gibt es keine Anforderung an Hochverfügbarkeit.

 

Zu dem Konstrukt ist hier schon ausreichend gesagt worden. Wenn man es ordentlich macht, kann es einfache Hardware-Ausfälle so überbrücken, dass man nur geringe Ausfallzeiten hat. Man mache sich aber nichts vor: Eine empfindliche fünfstellige Summe wird es immer kosten, und dabei gibt es dann noch viele Szenarien, die eben doch lange Ausfallzeiten bedeuten können. Damit wären wir dann wieder bei den Anforderungen ...

 

Auch zu den Lizenzen ist das Wichtigste gesagt. Zwei Hosts mit je einer Standard-Lizenz reichen für zwei geclusterte VMs aus. Für Exchange braucht es dann noch SA, damit die VM den Host wechseln darf ("License Mobility").

 

Gruß, Nils

Link zu diesem Kommentar

Dafür bekomme ich ein Nutanix Block aus der NX-1000 Serie...

Und was soll man damit?

Leider ist mir noch immer kein hyperconvergentes System untergekommen das im Bereich Massenspeicher ordentlich skaliert.

NX-1000 /node, max 4 nodes:

1x SSD* [480 GB, 800 GB, 1.2 TB or 1.6 TB]

2x HDD* [2 TB, 4 TB or 6 TB]

 

Da passen also grade mal nutzbare 6TB rein bei was für IO-Werten? Kann das die SSD wieder retten? Sinnvoll betsückt hat das Teil also 2TB+SSD nutzbar. Bei 4nodes sind das dann 8TB+SSDs.

 

Zwei Pizzaboxen und ein ISCSI-Filer sind flexibler und sollten auch für 25K zu finden sein.

Link zu diesem Kommentar

2 Pizzaboxen sind aber ein bis zwei Nodes weniger als in einer NX-1xxx. Zudem sind das bis zu 1,6 TB SSD und 12 TB (roh) pro Node. Da geht schon ganz ordentlich was rein. Den Rest erledigen Dedup, Compression und EC. Kalte Daten landen auf NL, heiße Daten auf SSDs. Workloads kann man auch direkt auf SSD pinnen, wenn man Spaß daran hat. Aus der Praxis kann ich sagen: IO Probleme hatte keiner meiner Kunden mit Nutanix, auch nicht bei fetten Exchange Installationen (die siet 2007 eh deutlich entspannter sind was IO angeht), noch bei SAP oder Baan. Speicher reicht doch nicht? Pack eine NX-6035c dazu (Storage-only). Ein Block der NX-3000 Serie löst nicht selten ein ganzes Rack mit Servern und Storage bei Kunden ab. Und die freuen sich immer wie die Schneekönige wie schön einfach der Kram auf einmal ist. So gewinne ich auch die Projekte: Man stellt ihnen eine NX-1000 hin, lässt sie mit dem Hypervisor ihrer Wahl testen, wirft mal einen Workload rüber und die Kunden wundern sich wo die Leistung auf einmal herkommt. Dann plant man die neue HW, liefert sie und bringt die PoC HW zum nächsten Kunden.

 

Zwei Pizzaboxen + iSCSI Filer können ein ziemliches Gefrickel sein, wenn Nutanix Prism und Acropolis der Maßstab sind.

 

Am Ende ist die HW aber egal, denn es geht um das Design und vor allem um die Betriebskosten. Nur CAPEX zu betrachten ist zu kurz gedacht. Und gerade wenn es um OPEX geht, ist Nutanix derzeit ganz weit vorne. Ich werde von Kunden dafür bezahlt schlanke, skalierbare und automatisierte Infrastrukturen zu bauen. In den letzten Jahren habe ich einige Projekte mit Nutanix gehabt, unter anderem wurden zwei Flexpods abgelöst (hattest du mal in einem anderen Thread erwähnt). Gerade die operativen Kosten sind in allen Fällen gesunken. Kunden die erweitert haben, waren geradezu entsetzt wie einfach das war. Box ins Rack und nach spätestens weiterne 30 Minuten bin ich vom Hof geritten. Und am Ende hatten sie mehr Compute und Storage. Die typische Nutanix-Installation dauert i.d.R. nicht länger als drei bis vier PT. Oft bekommen die Marktbegleiter dann den kalten Angstschweiß auf der Stirn und faseln was von "unseriös" und "Nutanix kennt doch keiner, Vendor Lock-in...bla bla bla".

 

Bei Interesse, mal bei dem Kollegen querlesen: http://www.joshodgers.com/category/nutanix/. Auch sehr empfehlenswert: http://nutanixbible.com/

bearbeitet von DocData
Link zu diesem Kommentar

Noch ein Nachtrag zu diesem Thema:

 

Ich habe ja je 2012 Standard 2 Virtualisierungen frei, könnte also im Falle eines Failover Clusters aus 2 Servern 4 VMs starten. Nun fällt ein Knoten aus und es ist nur noch einer da... laufen dann alle 4 VMs weiter?

 

Dank im Voraus.

Falsch, wenn du zwei Knoten und für jeden Knoten nur eine Lizenz hast, darfst du nur zwei vms nutzen.. Für 4 benötigst du 4 Lizenzen.

Link zu diesem Kommentar
  • 2 Wochen später...

Korrekt.

 

Die einzige Lösung, wenn auch inzwischen deutlich teurer als in der Anfangszeit von Win2012, ist eine Datacenter Lizenz. Und die wirft einem Finanztechnisch direkt einen Knüppel zwischen die Beine.

 

@Nutanix-Thema

SaaS hat Vor- und Nachteile. Für so kleine Umgebungen ist es in meinen Augen zuviel Geld. Wenn ich es richtig mache nehme ich 10G Switche und die tun in der Anschaffung weh. Dazu Netzwerkkarten etc.

Dann wird das "normale" Netz nicht vom iSCSI getrennt und im Fehlerfall reisst es mir alles auseinander.

 

Sorry - too much.

Link zu diesem Kommentar

Moin,

 

Die einzige Lösung, wenn auch inzwischen deutlich teurer als in der Anfangszeit von Win2012, ist eine Datacenter Lizenz. Und die wirft einem Finanztechnisch direkt einen Knüppel zwischen die Beine.

 

naja, es ist doch einfach ein Rechenspiel. Schon seit mehreren Jahren liegt bei fast allen Rechenmodellen der Break-even zwischen Datacenter und Standard bei um die 12 VMs. Betreibe ich also eine bis 12 VMs in meinem Cluster, reicht die Standard-Edition (eine oder mehrere). Betreibe ich mehr VMs, ist die Datacenter Edition günstiger.

 

Man kann sich nun darüber beschweren, dass die Windows-Lizenzierung immer an die Hardware gebunden ist, man also für "dieselbe" VM "mehrere" Lizenzen vorhalten muss. Aber dass Datacenter einem "direkt einen Knüppel zwischen die Beine" werfe, ist dann doch arg übertrieben.

 

 

@Nutanix-Thema

SaaS hat Vor- und Nachteile. Für so kleine Umgebungen ist es in meinen Augen zuviel Geld. Wenn ich es richtig mache nehme ich 10G Switche und die tun in der Anschaffung weh. Dazu Netzwerkkarten etc.

Dann wird das "normale" Netz nicht vom iSCSI getrennt und im Fehlerfall reisst es mir alles auseinander.

 

Da geht jetzt was durcheinander. Nutanix hat mit SaaS nichts zu tun. Und Nutanix arbeitet auch nicht mit iSCSI, das ist ja gerade der Witz.

Gerade für kleinere Umgebungen können die Nutanix-Boxen durchaus auch finanziell interessant sein. Aber das würde jetzt hier zu weit führen.

 

Gruß, Nils

Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...