Jump to content

10Gbit-Netzwerkkarten unter Hyper-V


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Hallo,

 

mal eine "blöde" Frage zum Thema NIC`s. Geplant ist eine dual Port 10Gbit Nic in einem Hyper-V zu verbauen um intern zwischen den VM`s maximale Bandbreite zu haben. Wenn man die NIC's jetzt an einen 1GBit Switch anschliesst (die NIC ist natürlich abwärtskompatibel, eine HPE 535T) ist dann intern immer noch 2x10GBit Bandbreite vorhanden? Geht einfach darum sich einen neuen Switch zu sparen, nach extern spielt die Bandbreite keine Rolle, es wird eh nur per RDP von Remotestandorten aus darauf zugegriffen.

 

Danke schon mal vorab.

 

Chris

Link zu diesem Kommentar
vor 26 Minuten schrieb Chris_30:

Hallo,

 

mal eine "blöde" Frage zum Thema NIC`s. Geplant ist eine dual Port 10Gbit Nic in einem Hyper-V zu verbauen um intern zwischen den VM`s maximale Bandbreite zu haben.

Dazu benötigst du keine externe Netzwerkkarte. Intern wird 10G+ kommuniziert. Da kommt’s dann auf deine Hardware an. Das kannst du auf der vNetzwerkkarte in den Einstellungen in der VM sehen.

bearbeitet von MurdocX
Link zu diesem Kommentar

Hi,

 

wenn es dir nur um die Netzwerkkommunikation der VMs untereinander auf einem einzelnen HyperV Host geht, dann ist die physikalische NIC irrelevant (solange es nicht um SR-IOV geht).

 

vor 2 Minuten schrieb MurdocX:

Intern wird 10G kommuniziert.

Das ist erstmal nur eine "Anzeige". Da geht i.d.R. alles was der "VMBus hergibt". An der Stelle ist mir neulich aufgefallen, dass nach "der Migration" von LBFO + vSwitch auf SET 20G angezeigt wird. :)

 

Gruß

Jan

Link zu diesem Kommentar
vor 16 Minuten schrieb MurdocX:

Dazu benötigst du keine externe Netzwerkkarte. Intern wird 10G+ kommuniziert. Da kommt’s dann auf deine Hardware an. Das kannst du auf der vNetzwerkkarte in den Einstellungen in der VM sehen.

Hm, im Vswitch von unseren alten 2016 Host Kiste steht die HP 331 1GBit NIC drin - und die VM's zeigen bei Ihrer virtuellen NIC aber auch nur 1GBit an ...

 

Heisst ich sollte einen zweiten vSwitch als internen konfigurieren damit dieser nicht hardwareabhängig mit voller Bandbreite läuft? Der bestehende ist als extern konfiguriert, die VM's müssen per RDP erreichbar sein.

bearbeitet von Chris_30
Ergänzung
Link zu diesem Kommentar
vor 24 Minuten schrieb Chris_30:

Hm, im Vswitch von unseren alten 2016 Host Kiste steht die HP 331 1GBit NIC drin - und die VM's zeigen bei Ihrer virtuellen NIC aber auch nur 1GBit an ...

 

Heisst ich sollte einen zweiten vSwitch als internen konfigurieren damit dieser nicht hardwareabhängig mit voller Bandbreite läuft? Der bestehende ist als extern konfiguriert, die VM's müssen per RDP erreichbar sein.

Mein Post bezog sich auf die gleiche Thematik wie @mwiederkehr bzgl. der internen Kommunikation unter den VMs.
 

Alles was zum Host oder raus vom Host geht, unterliegt der Geschwindigkeit der Netzwerkarte(n) und deren Konfiguration (Team).

 

 

vor 50 Minuten schrieb testperson:

An der Stelle ist mir neulich aufgefallen, dass nach "der Migration" von LBFO + vSwitch auf SET 20G angezeigt wird. :)

OT: Dann lass ich mich mal überraschen. Bekomme drei neue Knoten für S2D und HyperV. (:

Link zu diesem Kommentar
  • 1 Monat später...
vor 2 Minuten schrieb Wolke2k4:

1. Bei früheren Hyper-V Installationen ist es mir oft vorgekommen, dass die VMs 10GBit an den virtuellen NICs der VMs angezeigt haben. Das ist mir zuletzt kaum noch vorgekommen... Weiß jemand, womit das zusammenhängt?

Seit Hyper-V von Server 2016 und neuer wird nur noch der physische Speed angezeigt, davor waren es immer 10G, egal was die Physik drunter konnte.

 

Ich habe die Erfahrung gemacht, das „echte“ Serverkarten mit eigener CPU alles wesentlich beschleunigen.

 

:-)

Link zu diesem Kommentar

Moin,

 

Der VMBus läuft sozusagen unterhalb der VM. Er ist die Kommunikations-Infrastruktur des Hosts, die immer genutzt wird. Bei einer Kommunikation zu einer VM, die auf einem anderen Host läuft, leitet der Host den Traffic hinaus ins physische Netzwerk. Läuft die Ziel-VM auf demselben Host, dann muss er das ja nicht tun.

 

Oder kurz: laufen die VMs auf denselben Host, dann kannst du nicht verhindern, dass sie über den VMBus kommunizieren. Selbst wenn sie auf verschiedenen Hosts laufen und das Netzwerk beteiligt ist, dann spielt der VMBus eine entscheidende Rolle.

 

Dass der Netzwerkadapter Auslastung zeigt, liegt daran, dass der Traffic aus Sicht des Betriebssystems ja über das Netzwerk geht. Wie dieses beschaffen ist, spielt an der Stelle keine Rolle.

 

Gruß, Nils

Link zu diesem Kommentar

Danke Nils für die Erläuterung!

 

Ich möchte noch mal auf meine Problemkonstellation zurückkommen:

 

Ich muss aktuell Troubleshooting betreiben, weil ich eine Umgebung mit einer Anwendung habe, bei der alle Server virtualisiert sind. Eine bestimmte Anwendung benötigt auf den virtuellen Terminal Servern (1x 2008R2 und 1x 2016) ca. 30 bis 45 Sekunden zum starten.

Auf einem relativ neuen PC, der mit 1GBit an das Netzwerk und damit an die VMs angebunden ist benötigt der Start der Anwendung hingegen nur unter 15 Sekunden...

 

Wir haben es hier mit einem einzigen Hyper-V Server zu tun. Die besagte Anwendung startet auf den Terminal Servern deutlich langsamer als auf dem PC, für den der VMBus ja nicht zur Verfügung steht. Während die TS VMs damit volle VMBus Bandbreite nutzen können, kräpelt der Anwendungsstart bei über 30 Sekunden herum.

Die Anwendung ist, was die Runtime und Startumgebung anbelangt, m.E. recht altbacken: Es wird auf eine Batch verwiesen, die dann wiederum verschiedene Aktionen startet um die Laufzeitumgebung zu initiieren. Soweit ich das verfolgen konnte, werden hier viele kleine Dateien aus dem über ein DFS Laufwerk bereitgestellten Anwendungsordner gezogen. Die Netzwerkauslastung ist gering, es sind aber viele kleine Dateien.

Bei dem besagten PC spielt sich haargenau der gleiche Start ab: Viele kleine Datein, hier nur 1GBit Netzwerk zur Verfügung... und trotzdem startet diese Maschine die Anwendung in unter 15 Sekunden.

 

Wenn es nur der Anwendungsstart wäre, OK. Leider sind noch später innerhalb der Anwendungen andere Funktionen im Spiel, die ebenfalls eine schlechte Performance zeigen. Daher gehe ich davon aus, dass alles irgendwie zusammen hängt.

 

Übrigens haben wir die gleiche Anwendung noch in anderen Umgebungen laufen, auch unter ESXI/VMWare... dort geht der Anwendungsstart auf Terminal Server (auch mit Citrix VA) auch deutlich schneller...

Link zu diesem Kommentar
vor 5 Minuten schrieb Wolke2k4:

Auf einem relativ neuen PC, der mit 1GBit an das Netzwerk und damit an die VMs angebunden ist benötigt der Start der Anwendung hingegen nur unter 15 Sekunden...

 

Das ist fast immer ein Problem der Terminalserver mit fairshare usw. Ich kenne solche grottigen Programme auch, aber es liegt nicht an der Netzwerkgeschwindigkeit, sondern da kommt dann tatsächlich die CPU Taktung (viele Cores mit relativ geringer Frequenz = 2,1Ghz usw. gegen PCs die inzwischen 3,4Ghz haben) zum Tragen.

Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...