Jump to content

W2012R2 Failovercluster Netzwerkkommunikation


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Hallo zusammen,

 

ich habe ein Fehler in einem HyperV Failovercluster mit 2 Knoten (Windows Server 2012 R2). (Siehe Anhang)

Bei dem Cluster Test erhalte ich im Punkt Netzwerkkommunikation Fehler bei der UDP Port 3343 Verbindung.

 

Der Cluster besteht aus 4  LACP Teams

=> 1. Mgmt+LM (Zugriff Server und LiveMigration)

=> 2. VMN (Nutzung ausschließlich für die VMs)

=> 3. SAN (Verbindung zum zentralen SAN Storage)

=> 4. CSV (Für die Cluster Kommunikation)

 

Alle Netze (Bis auf Punkt 2, da dieser keine Adresse auf dem Host System hat) haben unterschiedliche Netze, welche durch VLANs abgetrennt und nicht geroutet werden. Die HyperV Server versuchen jetzt jedoch von jedem Quell Team (1, 3 & 4) den zweiten Server auf den Teams (1, 3 & 4) zu erreichen. Dies schlägt natürlich mehrmals fehl, da z.b. von der Quelle SAN auch nur das Ziel SAN erreicht werden kann und nicht das Ziel CSV. Diese Fehlermeldung hatte ich vor ca. 2 Monaten bei der Einrichtung noch nicht.

 

Weiß jemand, wie ich das Problem lösen kann, oder hat jemand einen Tipp für mich, wo ich nachschauen könnte?

 

PS: die Metric der Teams wurde per PowerShell bereits eingerichtet (CSV 100, Mgmt+LM 500, SAN Automatisch über 7000)

 

 



Das Thema hat sich erledigt. Während dem bearbeiten des Anhangs konnte ich feststellen, dass es doch ein Routing zwischen SAN und Mgmt+LM gab. Dies habe ich entfernt und die Fehlermeldung ist nun nicht mehr vorhanden.

bearbeitet von AJCY
Link zu diesem Kommentar

Moin,

 

darüber hinaus erscheint es mir etwas unortrhodox, ausgerechnet Management und Live Migration zu koppeln. Das Management-Netz nutzt du, um die Hosts zu verwalten sowie für deren Anbindung an AD und WSUS. Die Live Migration hingegen findet nur zwischen den Hosts statt, da willst du normalerweise möglichst wenig anderen Traffic.

 

Ohne näher draufgeschaut zu haben, käme mir als Skizze Folgendes in den Sinn:

  • Team 1: VM-Netz, vSwitch drauf, keine Konfig im Management-OS
  • 2 Karten ohne Team, aber mit MPIO für das SAN (vermutlich iSCSI) - i.d.R. alles außer IP abschalten, eigenes iSCSI-Netz, kein Routing, kein DNS/WINS
  • 2 Karten oder ein Team für Cluster, CSV und Live Migration - Protokollbindungen weitgehend belassen, aber ein eigenes Netz und i.d.R. kein Routing, kein DNS/WINS
  • 1 Karte oder Team für Management - normale Konfiguration

Das Management-LAN zu separieren, ergibt nur dann Sinn, wenn es auch tatsächlich ein separates Management-LAN gibt. Das ist in vielen mittleren Umgebungen nicht der Fall - dann könnte man das Management über dasselbe Netz laufen lassen wie die VMs.

 

Denkbar wäre auch ein großes Team aus sechs Karten für VM, Cluster und Management mit mehreren vNICs in der Parent Partition und Separation über VLANs und Bandbreiten-Garantien (geht nur per PowerShell). Das iSCSI würde ich auch in dem Fall über zwei separate Karten mit MPIO laufen lassen.

 

Gruß, Nils

Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...