Jump to content

Gateway konfig. verloren auf Server Datacenter 2019 Ver. Build 17763


Direkt zur Lösung Gelöst von Nobbyaushb,
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Hallo zusammen,

 

ich möchte es kurz auf diesen Server wie oben beim Titel sehen könnt, läuft die Version 17763 und jeden Mittwoch starten wir den Server neu.

 

Beim letzten Neustart, hat er die Netzwerkkonfiguration verloren, sodass er im lokalen Netz nicht mehr erreichbar war. Ich habe dieses Szenario noch nie erlebt, die VM läuft ein ESXi und hatte mehrere Jahre gar keine Prob. 

 

Ich wäre euch sehr dankbar, wenn ihr mir paar Ratschläge geben könnt. 

 

image.png.5fd5484e7ed969cd79de63f75223e12b.png

bearbeitet von logos27
Link zu diesem Kommentar

Ich habe sowas auf nahezu allen VM auf einer Hyper-V Umgebung gesehen, nachdem auf dem Host die Treiber für die Netzwerkkarte(n) erneuert wurden.

Da waren zwei Mellanox X4 Dualport 50G und zwei Intel X520 10G drin

Durch das Update der RDMA Karten hatte sich scheinbar die Reihenfolge der Karten geändert

Auf jeden Fall hatten alle VM neue LAN Adapter, lustigerweise einige aber die richtige IP aber ohne Gateway oder VLAN 

Link zu diesem Kommentar
vor 18 Stunden schrieb cj_berlin:

Moin,

 

meistens ist so etwas darauf zurückzuführen, dass die virtuelle Netzwerkkarte darunter sich soweit geändert hat, dass sie als neu erkannt wurde.

 

Ist denn die gesamte Konfiguration (wie Du im Text schreibst) oder nur der Default Gateway (wie Du im Betreff schreibst) verloren gegangen?

@cj_berlin ich bedanke mich vorerst, und zwar fehlte nur die GW Eintragung-Morgen wird der Server neu gestartet und ich werde parat aktiv sein, weil ich die Befürchtung habe, dass dies nochmals geschieht. 

vor 17 Stunden schrieb NorbertFe:

Kenn ich von Hyper-V aber auch, dass sich unter bestimmten Bedingungen nur das Gateway "verabschiedet", alles andere (IP, DNS usw.) aber alles erhalten bleibt.

Und deine Lösung war ?

Link zu diesem Kommentar
vor 18 Stunden schrieb cj_berlin:

Moin,

 

meistens ist so etwas darauf zurückzuführen, dass die virtuelle Netzwerkkarte darunter sich soweit geändert hat, dass sie als neu erkannt wurde.

 

Ist denn die gesamte Konfiguration (wie Du im Text schreibst) oder nur der Default Gateway (wie Du im Betreff schreibst) verloren gegangen?

Ich möchte noch dazu ergänzen, dass vor einigen Wochen der ESXi Cluster von 7,9 auf 8.0 geupgradet wurde. 

vor 12 Stunden schrieb Nobbyaushb:

Ich habe sowas auf nahezu allen VM auf einer Hyper-V Umgebung gesehen, nachdem auf dem Host die Treiber für die Netzwerkkarte(n) erneuert wurden.

Da waren zwei Mellanox X4 Dualport 50G und zwei Intel X520 10G drin

Durch das Update der RDMA Karten hatte sich scheinbar die Reihenfolge der Karten geändert

Auf jeden Fall hatten alle VM neue LAN Adapter, lustigerweise einige aber die richtige IP aber ohne Gateway oder VLAN 

Noch zu ergänzen, was notwendig vor einigen Woche habe ich unseren ESXi Cluster aktualisiert von 7,9 auf 8.0 - könnte das auch ein Störungsfaktor sein – bezüglich der RDMA Karten?

Link zu diesem Kommentar
vor 6 Minuten schrieb Nobbyaushb:

Sind denn RDMA Karten in dem Host?

Oder anders gefragt - was für LAN Adapter sind in dem Host, Hersteller, Typ?

Der Host ist von wem?

Ja, das sind RDMA Netzwerkkarten, und zwar: Intel(R) Ethernet 10G 4P X520/I350 rNDC und schon sehe ich, dass die Treiber nicht aktuell sind, kann dies auch ein Auslöser sein?

https://www.vmware.com/resources/compatibility/detail.php%3FdeviceCategory%3Dio%26productid%3D36016 

Link zu diesem Kommentar
  • Beste Lösung
vor 20 Stunden schrieb logos27:

Ja, das sind RDMA Netzwerkkarten, und zwar: Intel(R) Ethernet 10G 4P X520/I350 rNDC und schon sehe ich, dass die Treiber nicht aktuell sind, kann dies auch ein Auslöser sein?

Die Intel X520 ist keine RDMA Karte

Und natürlich zieht man den Treiber hoch, wenn man ein Upgrade fährt - egal ob Hyper-V oder ESX

 

Nachtrag - ich habe bei Intel geschaut

https://www.intel.com/content/www/us/en/support/articles/000031905/ethernet-products/700-series-controllers-up-to-40gbe.html

 

bearbeitet von Nobbyaushb
Link zu diesem Kommentar
vor 1 Stunde schrieb Nobbyaushb:

Die Intel X520 ist keine RDMA Karte

Und natürlich zieht man den Treiber hoch, wenn man ein Upgrade fährt - egal ob Hyper-V oder ESX

 

Nachtrag - ich habe bei Intel geschaut

https://www.intel.com/content/www/us/en/support/articles/000031905/ethernet-products/700-series-controllers-up-to-40gbe.html

 

Herzlichen Dank sage ich dann, kann man es während des Aktiven betrieb machen, da die ESXi Hosts bei einem KH in Betrieb sind?

Woran Unterschied sich genau eine RDMA Karte Gegensatz zu einer ILO/IMM NIC

Link zu diesem Kommentar

Moin,

vor 57 Minuten schrieb logos27:

Herzlichen Dank sage ich dann, kann man es während des Aktiven betrieb machen, da die ESXi Hosts bei einem KH in Betrieb sind?

Wenn das ein Cluster ist - egal welcher Hyper-Visor - erst den bzw. erst mal einen Knoten auf Stand bringen (dazu natürlich in den Wartungsmodus und alle VM auf den/die anderen Host verschieben)

Alles aktualisieren, schauen das der Knoten sauber gebootet hat

Dann zunächst eine VM zurückschieben und gucken, wie diese sich verhält, speziell die virtuelle Netzwerkkarte

Ist das alles OK, weitere VM zurückschieben - jedesmal prüfen

Sind wieder alle VM drauf, die auf diesen Host gehören, die restlichen VM dahin schieben und das ganze mit dem zweiten / den restlichen Host wiederholen

Ein Cluster kann ja durchaus aus mehr als nur einem Host bestehen...

vor einer Stunde schrieb logos27:

Woran Unterschied sich genau eine RDMA Karte Gegensatz zu einer ILO/IMM NIC

Eine "normale" Karte - egal ob NIC oder was anderes - wird über den Bus vom Mainboard bzw. der CPU(s) gesteuert

Eine RDMA-Karte hat einen eigenen Bus-Controller und entlastet damit das Board und die CPU(s)

Somit könnte eine RDMA-Karte den maximal möglichen Durchsatz von 133Gbit/sec auf einem Intel-Board erreichen - wenn genug PCIexpress Lanes angesprochen werden können

In einem Board mit neuen AMD CPU(s) wären das theoretisch 200Gbit/sec

Eine Mellanox X5 Dual 100G kann somit ihren vollen Datendurchsatz von 200Gbit/sec in einem Board mit Intel CPU(s) nie erreichen

Achtung, das ist eine super-kurz-Version gewesen!

 

:-)

Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...