Jump to content

10Gbit-Netzwerkkarten unter Hyper-V


Recommended Posts

Hallo,

 

mal eine "blöde" Frage zum Thema NIC`s. Geplant ist eine dual Port 10Gbit Nic in einem Hyper-V zu verbauen um intern zwischen den VM`s maximale Bandbreite zu haben. Wenn man die NIC's jetzt an einen 1GBit Switch anschliesst (die NIC ist natürlich abwärtskompatibel, eine HPE 535T) ist dann intern immer noch 2x10GBit Bandbreite vorhanden? Geht einfach darum sich einen neuen Switch zu sparen, nach extern spielt die Bandbreite keine Rolle, es wird eh nur per RDP von Remotestandorten aus darauf zugegriffen.

 

Danke schon mal vorab.

 

Chris

Link to post
vor 26 Minuten schrieb Chris_30:

Hallo,

 

mal eine "blöde" Frage zum Thema NIC`s. Geplant ist eine dual Port 10Gbit Nic in einem Hyper-V zu verbauen um intern zwischen den VM`s maximale Bandbreite zu haben.

Dazu benötigst du keine externe Netzwerkkarte. Intern wird 10G+ kommuniziert. Da kommt’s dann auf deine Hardware an. Das kannst du auf der vNetzwerkkarte in den Einstellungen in der VM sehen.

Edited by MurdocX
Link to post
vor 5 Minuten schrieb mwiederkehr:

Falls Du die Kommunikation zwischen VMs auf dem gleichen Host meinst: die ist unabhängig von den physischen Adaptern und deren Geschwindigkeit.

Top, danke für die Info. Dann spare ich mir die NIC komplett und mache nur ein Team aus den vorhandenen 1GBit NIC's des DL380 Gen10

Link to post

Hi,

 

wenn es dir nur um die Netzwerkkommunikation der VMs untereinander auf einem einzelnen HyperV Host geht, dann ist die physikalische NIC irrelevant (solange es nicht um SR-IOV geht).

 

vor 2 Minuten schrieb MurdocX:

Intern wird 10G kommuniziert.

Das ist erstmal nur eine "Anzeige". Da geht i.d.R. alles was der "VMBus hergibt". An der Stelle ist mir neulich aufgefallen, dass nach "der Migration" von LBFO + vSwitch auf SET 20G angezeigt wird. :)

 

Gruß

Jan

Link to post
vor 16 Minuten schrieb MurdocX:

Dazu benötigst du keine externe Netzwerkkarte. Intern wird 10G+ kommuniziert. Da kommt’s dann auf deine Hardware an. Das kannst du auf der vNetzwerkkarte in den Einstellungen in der VM sehen.

Hm, im Vswitch von unseren alten 2016 Host Kiste steht die HP 331 1GBit NIC drin - und die VM's zeigen bei Ihrer virtuellen NIC aber auch nur 1GBit an ...

 

Heisst ich sollte einen zweiten vSwitch als internen konfigurieren damit dieser nicht hardwareabhängig mit voller Bandbreite läuft? Der bestehende ist als extern konfiguriert, die VM's müssen per RDP erreichbar sein.

Edited by Chris_30
Ergänzung
Link to post
vor 24 Minuten schrieb Chris_30:

Hm, im Vswitch von unseren alten 2016 Host Kiste steht die HP 331 1GBit NIC drin - und die VM's zeigen bei Ihrer virtuellen NIC aber auch nur 1GBit an ...

 

Heisst ich sollte einen zweiten vSwitch als internen konfigurieren damit dieser nicht hardwareabhängig mit voller Bandbreite läuft? Der bestehende ist als extern konfiguriert, die VM's müssen per RDP erreichbar sein.

Mein Post bezog sich auf die gleiche Thematik wie @mwiederkehr bzgl. der internen Kommunikation unter den VMs.
 

Alles was zum Host oder raus vom Host geht, unterliegt der Geschwindigkeit der Netzwerkarte(n) und deren Konfiguration (Team).

 

 

vor 50 Minuten schrieb testperson:

An der Stelle ist mir neulich aufgefallen, dass nach "der Migration" von LBFO + vSwitch auf SET 20G angezeigt wird. :)

OT: Dann lass ich mich mal überraschen. Bekomme drei neue Knoten für S2D und HyperV. (:

  • Like 1
Link to post

OT/

seit Server 2016 und auch bei Server 2019 wird in den virtuellen Karten der Clients nur noch das angezeigt, was die Physik im Host macht.

 

Hast du ein Team mit zwei 1G Karten, zeigt die virtuelle NIC die ja auch dem vSwitch basiert 2Gbit an.

 

Gerade bei uns geschaut, die 2*10G wird im Gast zu 20Gbit

 

:-)

/OT

Link to post
  • 1 month later...
vor 2 Minuten schrieb Wolke2k4:

1. Bei früheren Hyper-V Installationen ist es mir oft vorgekommen, dass die VMs 10GBit an den virtuellen NICs der VMs angezeigt haben. Das ist mir zuletzt kaum noch vorgekommen... Weiß jemand, womit das zusammenhängt?

Seit Hyper-V von Server 2016 und neuer wird nur noch der physische Speed angezeigt, davor waren es immer 10G, egal was die Physik drunter konnte.

 

Ich habe die Erfahrung gemacht, das „echte“ Serverkarten mit eigener CPU alles wesentlich beschleunigen.

 

:-)

Link to post

Moin,

 

Der VMBus läuft sozusagen unterhalb der VM. Er ist die Kommunikations-Infrastruktur des Hosts, die immer genutzt wird. Bei einer Kommunikation zu einer VM, die auf einem anderen Host läuft, leitet der Host den Traffic hinaus ins physische Netzwerk. Läuft die Ziel-VM auf demselben Host, dann muss er das ja nicht tun.

 

Oder kurz: laufen die VMs auf denselben Host, dann kannst du nicht verhindern, dass sie über den VMBus kommunizieren. Selbst wenn sie auf verschiedenen Hosts laufen und das Netzwerk beteiligt ist, dann spielt der VMBus eine entscheidende Rolle.

 

Dass der Netzwerkadapter Auslastung zeigt, liegt daran, dass der Traffic aus Sicht des Betriebssystems ja über das Netzwerk geht. Wie dieses beschaffen ist, spielt an der Stelle keine Rolle.

 

Gruß, Nils

Link to post

Danke Nils für die Erläuterung!

 

Ich möchte noch mal auf meine Problemkonstellation zurückkommen:

 

Ich muss aktuell Troubleshooting betreiben, weil ich eine Umgebung mit einer Anwendung habe, bei der alle Server virtualisiert sind. Eine bestimmte Anwendung benötigt auf den virtuellen Terminal Servern (1x 2008R2 und 1x 2016) ca. 30 bis 45 Sekunden zum starten.

Auf einem relativ neuen PC, der mit 1GBit an das Netzwerk und damit an die VMs angebunden ist benötigt der Start der Anwendung hingegen nur unter 15 Sekunden...

 

Wir haben es hier mit einem einzigen Hyper-V Server zu tun. Die besagte Anwendung startet auf den Terminal Servern deutlich langsamer als auf dem PC, für den der VMBus ja nicht zur Verfügung steht. Während die TS VMs damit volle VMBus Bandbreite nutzen können, kräpelt der Anwendungsstart bei über 30 Sekunden herum.

Die Anwendung ist, was die Runtime und Startumgebung anbelangt, m.E. recht altbacken: Es wird auf eine Batch verwiesen, die dann wiederum verschiedene Aktionen startet um die Laufzeitumgebung zu initiieren. Soweit ich das verfolgen konnte, werden hier viele kleine Dateien aus dem über ein DFS Laufwerk bereitgestellten Anwendungsordner gezogen. Die Netzwerkauslastung ist gering, es sind aber viele kleine Dateien.

Bei dem besagten PC spielt sich haargenau der gleiche Start ab: Viele kleine Datein, hier nur 1GBit Netzwerk zur Verfügung... und trotzdem startet diese Maschine die Anwendung in unter 15 Sekunden.

 

Wenn es nur der Anwendungsstart wäre, OK. Leider sind noch später innerhalb der Anwendungen andere Funktionen im Spiel, die ebenfalls eine schlechte Performance zeigen. Daher gehe ich davon aus, dass alles irgendwie zusammen hängt.

 

Übrigens haben wir die gleiche Anwendung noch in anderen Umgebungen laufen, auch unter ESXI/VMWare... dort geht der Anwendungsstart auf Terminal Server (auch mit Citrix VA) auch deutlich schneller...

Link to post
vor 5 Minuten schrieb Wolke2k4:

Auf einem relativ neuen PC, der mit 1GBit an das Netzwerk und damit an die VMs angebunden ist benötigt der Start der Anwendung hingegen nur unter 15 Sekunden...

 

Das ist fast immer ein Problem der Terminalserver mit fairshare usw. Ich kenne solche grottigen Programme auch, aber es liegt nicht an der Netzwerkgeschwindigkeit, sondern da kommt dann tatsächlich die CPU Taktung (viele Cores mit relativ geringer Frequenz = 2,1Ghz usw. gegen PCs die inzwischen 3,4Ghz haben) zum Tragen.

Link to post

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...