Jump to content

Hyper-V Cluster


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Hallo Leute ich brauche mal wieder euer fachmännische Hilfe bzw. euren Rat bezüglich der Netzwerkkonfiguration.

 

Habe diverse Whitepapers und Bestpractises gelesen, aber keine kann mir in meinem Fall wirklich helfen.

 

Hardware:

2x Server 2008 Datacenter Vollinstallation mit Hyper-V Rolle

1x FC Storage

Pro Server habe ich sechs physikalische 1GB Netzwerkkarten zur Verfügung.

 

Geplant ist ein Hyper-V-Failover-Cluster mit 2 Nodes.

Im Hyper-V sollen erstmal Testweise 3 virtuelle Maschinen (Server) laufen.

Das Storage ist über FC angebunden, daher wird dafür keine von den sechs Netzwerkkarten benötigt und stehen frei zur Verfügung.

 

Frage ist nun: Wie verteile ich die Netzwerkkarten am Besten um die optimale Performance herauszuholen?

 

Weist man jeder virtuellen Maschine seine eigene Netzwerkkarte zu?

Nehme ich für den Heartbeat die eigentliche Karte worüber der Host im Netzwerk angesprochen wird? Soll nur ein virtuelles Netzwerk erstellt werden und die physikalischen Karten geateamd werden?

 

Für einen Tipp wäre ich sehr dankbar.

 

-------Edit---------

Hab gerade gemerkt, dass ich im falschen Bereich gepostet habe.

Bei Möglichkeit bitte in "Virtualisierung" verschieben. Danke!

bearbeitet von dalmatino
Link zu diesem Kommentar

Hallo!

 

Eine Netzwerkkarte würde ich generell nur als Interconnect verwenden - bestenfalls als direktes Crossover. Der Interlink hat einen automatischen Fallback auf das Public-Netzwerk, allerdings solltest du hierbei die Reihenfolge der NICs in den Systemeinstellungen beachten.

 

Wenn du nicht mehr Maschinen als vorhandene NICs hast, empfiehlt sich eine dedizierte Zuweisung...

Selbst wenn du mehrere virtuelle Netzwerkkarten auf einer physikalischen laufen lassen möchtest, kann ich persönlich nur von (Software) Teaming abraten. Die Erfahrung bezieht sich zwar nur auf HP-Server, aber sobald der Treiber nur den geringsten Fehler erkennt, schaltet er das komplette Team ab :)

 

Gruß

Örnst

Link zu diesem Kommentar

Moin,

 

Eine Netzwerkkarte würde ich generell nur als Interconnect verwenden - bestenfalls als direktes Crossover.

 

nö, keine gute Idee. Mit Crossover beschränkt man sich auf zwei Hosts im Cluster, was gerade bei Hyper-V nicht sinnvoll ist. Und: Wenn bei einem Crossover-Link einer der Hosts nicht reagiert, hat der andere keinen Netzwerklink mehr und wird damit auf Fehler laufen. Also: Switch dazwischen.

 

Bei 6 vorhandenen NICs würde ich auch durchaus zwei für Heartbeat nutzen. Ohne Team, einfach nebeneinander.

 

Wenn du nicht mehr Maschinen als vorhandene NICs hast, empfiehlt sich eine dedizierte Zuweisung...

 

:confused: Warum sollte sich das empfehlen? Es gibt kaum Szenarien, in denen eine VM auch nur ansatzweise eine NIC auslastet. Würde ich also wirklich nicht machen, jedenfalls nicht pauschal.

 

Selbst wenn du mehrere virtuelle Netzwerkkarten auf einer physikalischen laufen lassen möchtest, kann ich persönlich nur von (Software) Teaming abraten.

 

Wenn man es richtig macht, geht das durchaus. Siehe die Verweise in meinen oben geposteten Links.

 

Gruß, Nils

Link zu diesem Kommentar

Dedizierte Zuweisungen, um den Netzwerkverkehr einfach zu trennen. Optimale Performance, nicht optimale Verwaltbarkeit.

Warum sollte er alle Verbindungen auf einer NIC laufen und den Rest vergammeln lassen?

 

Wenn man es richtig macht, geht das durchaus. Siehe die Verweise in meinen oben geposteten Links.

selbst der Support sagt, dass der Teamingtreiber höhere Fehleranfälligkeit hat (Chips/ FW, was auch immer). Clustering würde ich hierüber grundsätzlich nicht machen.

 

Das mit dem Crossover seh ich ja noch ein. Aber bei zwei Servern (wie hier) sehe ich den Switch eher als Fehlerquelle. Wenn der (einzige) Gegenüber nicht erreichbar ist, wird es ihm auch herzlich egal sein, wenn der Adapter auf "not linked" steht.

Könnte mir eher das Gegenteil vorstellen - wenn der Adapter down ist, wird er sofort versuchen, das Interlink übers Public zu machen?!

 

Bei 6 vorhandenen NICs würde ich auch durchaus zwei für Heartbeat nutzen. Ohne Team, einfach nebeneinander.

Jopp, hat was :)

Link zu diesem Kommentar

Hi, danke erstmal.

 

Jetzt habe ich leider ein kleines Verständnisproblem.

Manchmal sieht man ja vor lauter Bäumen den Wald nicht mehr.

 

Du erwähnst folgende Dinge in deinem Artikel:

 

 

Host-Administration: Ist damit die physikalische NIC des Datacenter-Servers gemeint?

Sprich den Hyper-V Rollenträger.

 

Ist der Heartbeat jetzt auch gleich die Cluster-IP-Adresse? Und wie kann ich die nebeneinander konfigurieren?

 

Wenn ich jetzt nich völlig verwirrt bin, würde ich es jetzt so konfigurieren:

 

Server1

NIC1: IP: 192.168.0.1 - für den Host

NIC2: IP: 192.168.0.2 - Cluster-IP-Adresse (redundanter Heartbeat)

NIC3: IP: 192.168.0.3 - Cluster-IP-Adresse (redundanter Heartbeat)

NIC4: IP: 192.168.0.4 - virtueller Switch für VM1

NIC5: IP: 192.168.0.5 - virtueller Switch für VM2

NIC6: IP: 192.168.0.6 - virtueller Switch für VM3

 

Server 2 genau so nur mit anderen IP-Adressen.

Link zu diesem Kommentar

Also ist dann ja quasi die Cluster-Adresse auch gleich die Host-Adresse? Bzw. kann ich der Host-Karte einfach noch eine zusätzliche IP verpassen?

 

NIC1: IP: 192.168.0.1 + IP:192.168.0.200 - für den Host / Cluster-IP-Adresse

NIC2: IP: 192.168.0.2 - redundanter Heartbeat

NIC3: IP: 192.168.0.3 - redundanter Heartbeat

NIC4: IP: 192.168.0.4 - virtueller Switch für VM1

NIC5: IP: 192.168.0.5 - virtueller Switch für VM2

NIC6: IP: 192.168.0.6 - virtueller Switch für VM3

 

Wäre das jetzt so korrekt?

Link zu diesem Kommentar

Achso - nein :)

 

Jeder Host in deinem Clustersystem benötigt seinen eigenen Hostname & IP.

 

Die Clustergruppe "Quorum" benötigt eine eigene IP. Sie wird dann nach außen hin publiziert und spiegelt den Inhaber der Gruppe wieder.

 

 

Bsp.:

 

Hostname a = server1 (ip 10.0.0.1)

Hostname b = server2 (ip 10.0.0.2)

clustername = cluster1 (ip 10.0.0.3)

 

Je nachdem würde ein Mstsc auf "cluster1" den Remotedesktop desjenigen Servers geben, der die Clustergruppe mit dem Clusternamen "cluster1" beherbergt.

 

Das Interconnect sollte nicht öffentlich erreichbar sein und hat demnach mit den geclusterten Anwendungen nichts zu tun.

Link zu diesem Kommentar

Also von vorne :D

 

Cluster-IP 192.168.0.200 (Wird nur in der Clusterverwaltung eingetragen)

Die Verwaltung übernimmt dann vermutlich den Eintrag im DNS?

 

 

NIC1: IP: 192.168.0.1 - für den Host, welches auch gleich die Administrationsschnittstelle ist

NIC2: IP: 192.168.1.2 - redundanter Heartbeat

NIC3: IP: 192.168.1.3 - redundanter Heartbeat

NIC4: IP: 192.168.0.4 - virtueller Switch für VM1

NIC5: IP: 192.168.0.5 - virtueller Switch für VM2

NIC6: IP: 192.168.0.6 - virtueller Switch für VM3

 

Den Heartbeat habe ich jetzt in ein anderes Netz gepackt (192.168.1.x).

 

So jetzt aber? :D

Link zu diesem Kommentar

Es wird wärmer :)

 

Die Zuweisung ClusterIP<->Gruppeninhaber übernimmt der Clusterservice.

Der DNS registriert nur die IP der Clustergruppe.

 

IP-Adressen für die einzelnen virtuellen Switche zu verteilen ist nur notwendig, wenn dein Host auf die VM-Clients zugreifen muss. In dem Fall reicht allerdings eine Adresse aus dem jeweiligen Subnet aus (die Switche sind ja sowieso virtualisiert und Traffic geht über den Host).

Die jeweiligen IP-Adressen müssen dem neuen virtuellen Adapter zugewiesen werden - der physikalische läuft "unkonfiguriert" im Hintergrund.

 

Generell würde ich dir eine Schritt-für-Schritt-Anleitung empfehlen, wenn du noch nie einen Cluster von Grund auf gebaut hast. Hier ist sogar eine für Hyper-V :)

Hyper-V: Using Hyper-V and Failover Clustering

 

Der "Best Practices Analyzer" unter 2008/R2 hilft dir nach der Grundkonfiguration ebenfalls weiter :)

 

Gruß

Örnst

Link zu diesem Kommentar
Die Zuweisung ClusterIP<->Gruppeninhaber übernimmt der Clusterservice.Der DNS registriert nur die IP der Clustergruppe.

So habe ich das auch gemeint. Hab mich vielleicht nur unverständlich ausgedrückt.

 

Den Artikel habe ich bereits gelesen.

Mir ging es in erster Linie darum, wie man die Netzwerkkarten am besten verteilt bzw. konfiguriert.

Wie gesagt, ich habe bisher nie eine konkrete Anleitung dazu gefunden.

 

Die jeweiligen IP-Adressen müssen dem neuen virtuellen Adapter zugewiesen werden - der physikalische läuft "unkonfiguriert" im Hintergrund

Ist mir auch klar. Aber wenn ich diese vorneweg konfiguriere und im Hyper-V zuweise, übernimmt er doch die IP-Einstellung in der virtuellen Karte.

 

Also muss ich doch jetzt im Hyper-V-Manager 3 virtuelle Netzwerke erstellen.

Die 3 Netzwerke jeweils auf eine Karte verknüpfen.

Dann die virtuelle erstellte Netzwekkarte der dementsprechenden VM zuweisen.

Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...