Jump to content

Hyper-V & virtual Switches


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Hallo,

 

ich möchte einen Hyper-V 3.0 Cluster mit 2 Host bauen.

In meinen Servern habe ich je 6 Netzwerkports (je 1Gbit). Meine Überlegung ist nun, ob ich zwei virtuelle Switche baue, einmal mit NIC Teaming (LACP + Hyper-V Ports) mit 4 Ports und einen mit einem NIC Teaming (LACP + Adress Hash) mit 2 Ports.

 

Den Switch mit den 4 Karten würde ich für die VMs verwenden und den Switch mit den 2 Karten für das Management, wo ich vier virtuelle NICs für CSV,LiveMigration,Heartbeat,iSCSI hinzufügen würde.

 

Was meint ihr zu dem Thema NIC-Aufteilung bzw. wie würdet ihr das lösen?

Link zu diesem Kommentar

Moin,

 

wenn es um Gbit-Karten geht, würde ich zumindest für iSCSI immer dedizierte Karten nehmen und diese weder in einem Team noch über vNICs ansprechen. Das ist unter anderem eine Supportfrage - die meisten iSCSI-Systemhersteller werden das nicht akzeptieren.

 

Bei sechs Gigabit-Karten würde ich bei einem klassischen Design bleiben: Ein Team mit 2 Karten für die VMs, zwei separate Karten (kein Team) für die Clusternetze und zwei Karten (kein Team) mit MPIO für iSCSI. Um das Management zu separieren (was in den meisten kleinen und mittleren Umgebungen keinen Sinn hat, weil es dort in Wirklichkeit keine Management-LANs gibt), bräuchte man noch mindestens eine weitere Karte.

 

LAN-Separation mit vNICs im Management OS würde ich nur mit 10GE machen.

 

Gruß, Nils

bearbeitet von NilsK
Link zu diesem Kommentar

Moin,

 

@NilsK: sind 2 Gbit-Karten für VMs genug?

 

das kann man ohne genaue Analyse der VMs und ihres Lastprofils kaum beantworten. Lass es mich aber so sagen: In praktisch allen mittelständischen Umgebungen, die ich betreue, reichen zwei Gbit-Karten für die auf den Hosts laufenden VMs völlig problemlos aus.

 

2 separate Karten für iSCSI kann ich verstehen, aber sind die restlichen Karten nicht irgendwie "verschwendet"?

 

Wir sprechen ja hier nur noch über zwei Karten. Da der Cluster-Interconnect für den Cluster existenzkritisch ist und noch dazu auch Live Migration und CSV darüber laufen, sehe ich da keine Verschwendung.

 

@Necron: Ja der SCVMM 2012 SP1 kommt auch ...

 

Für zwei Hosts? Überleg dir das gut. Der Overhead ist nicht zu verachten.

 

Gruß, Nils

Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...