Jump to content

SMB Multichannel nutze nur 2 von 4 Adaptern, und dann noch die Falschen...


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Servus...es geht um zwei Server 2019 welche die FailoverCluster Rolle installiert haben, und als ClusterStorage den eigenen internen Speicher nutzen der intern über iSCSI angebunden ist, bereitgestellt durch die Datacore SanSymphony Software (wird gesynct über 2x 16Gbs FC undmittels MultiPath über 2x 10Gbs überkreuz verbunden)

 

die beiden LiveMigration 10G Netzwerke existieren auch auf den 2. Knoten genau so, stecken auch in einem Subnet und im selben VLAN.

das selbe gilt auch für die Management Karten die geteamt sind, sowie für das BackupNetz und die ClusterCommunication.

 

 

was mich stark wundert ist: Wenn ich vom Knoten1(HV01) auf Knoten2 (HV02) eine große VHDX Kopiere welche NICHT im Clustershare ist, sondern wirklich auf der lokalen SAS SSD Liegt - dannn nimmt Windows immer bevorzugt die backupNetz Netzwerkkarte und die ClusterCommunication zum übertragen der großen Datei. Da kopiert er zwar schon mit 200MB/s dank SMB3.0 , aber warum zum geier nutzt windows da nicht einfach die beiden 10G Karten im MultiChanel SMB3.0 betrieb?

Das macht Windows erst dann, wenn ich die BackupNetz karte und die Cluster Com karte deaktiviere - erst dann geht er über beide 10G Karten. gut, da kopiert er auch nur mit 1GB/s aber das könnte an den SAS SSDs liegen...er nutzt dann aber auch wirklich beide 10G karten.

 

Die Nic Teams die zu sehen sind sind als LACP HASH eingerichtet.

 

Ich habe schon die Metrik manuell auf 1 und 2 gesetzt bei den beiden LiveMigration karten...aber ignoriert Windows trotzdem und nimmt bevorzugt die anderen karten...Windows könnte ja auch das Management NicTem mit nutzen - machts aber auch nicht. Verstehe ich nicht diese logik...

 

 

Eine Livemigration der VMs nutz auch immer nur ein LAN Adapter, obwohl 2 Migrationen gleichzeitig durchgeführt werden

 

Netzwerk HV01.jpg

Link zu diesem Kommentar
  • 2 Wochen später...

*Update* Habs rausgefunden:

die 1G Onboard karten sind ja Inte x722 Karten - diese unterstützen RDMA (iWARP) - die anderen 10G Karten unterstützen aber kein RDMA...Windows bevorzugt immer RDMA Karten - egal wie schnell diese angebunden sind. Sobald auch nur eine RDMA aktivierte 1G Karte drin steck neben vier 10G nicht RDMA fähige Karten, nutzt SMB3.0 immer diese eine RDMA fähige karte:pfui1:

RDMA auf den X722 Karten deaktivert (wird da eh nicht gebraucht da über die schnittstellen nur wenige kByte übertragen werden) und schon Schwankt SMB3.0 auf die 10G karten um. Komisch sind dennoch die EInbrüche aller paar Gb datentransfer (Testdatei war 35Gb groß)

Netzwerk HV01.jpg

bearbeitet von Assassin
Link zu diesem Kommentar

naja aber einbrüche die auf 0 gehen dürfen auch da nicht passieren. Das Storage von dem Kopiert wurde und das Ziel Storage sind zwei SAS12G Enterprise SSDs im Raid1. Klar hängt da noch ein Raidcontroller davor mit 2GB Cache (PRAID EP420i) aber am controller cache wirds wohl nicht liegen, da müsten viel häufiger einbrüche kommen bei einer 35GB datei

Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...