Jump to content

Probleme mit dynamischem Arbeitsspeicher und Office 365?


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Hallo zusammen

 

Bei einem Kunden, welcher Terminalserver für seine Kunden betreibt, stürzt seit letzter Woche ungefähr jeden Tag eine VM ab. Man sieht im Failover Cluster Manager, dass die VM neu gestartet wurde. In der VM selbst sieht man kurz vor dem Absturz einen Eintrag von "Hyper-V-Guest-Drivers" mit ID 7 und folgendem Text:

"The dynamic memory driver memory operation [Remove memory] failed with error: STATUS_SUCCESS."

 

Danach noch ein paar Minuten panische Meldungen von diversen Anwendungen über ungültige Speicherzugriffe und dann startet die VM neu.

 

Ich vermute mal, dass der Hyper-V den Arbeitsspeicher reduziert, die VM das aber irgendwie nicht richtig mitbekommt und die Daten im zu entfernenden Speicher nicht wegschreibt oder verwirft.

 

Die Hosts sind alle WS2019, die VMs hauptsächlich auch. Abstürze gab es bei diversen VMs, die eine Gemeinsamkeit haben: auf allen ist Office 365 installiert. (Das könnte auch Zufall sein, allerdings ist die Wahrscheinlichkeit dafür gering, denn nur auf ca. 20% der VMs ist Office 365 installiert.)

 

Da es die VMs schon länger gibt, aber die Probleme erst seit letzter Woche auftreten, vermute ich ein Problem im Zusammenhang mit den Windows Updates vom Juli.

 

Ist euch in der Richtung etwas bekannt? Im Internet finde ich aktuell nichts dazu.

 

Oder ist dynamischer Arbeitsspeicher ganz grundsätzlich eine doofe Idee? Ich sehe den Sinn bei Terminalservern, deren Nutzer sich alle in der gleichen Zeitzone befinden, jedenfalls nicht direkt.

Link zu diesem Kommentar

Ehrlich gesagt würde ich produktiv nie dynamischen Arbeitsspeicher einsetzen. Bringt eh fast immer irgendwann Ärger, nicht immer nachvollziehbaren. Für einen Terminalserver sowieso lieber nicht. Aber ob das hier das Problem war, ist schwierig zu beantworten. Manchmal reichen ein paar User mehr, oder User mit einem anderen Arbeitsbild wie vorher, dass es Ärger in irgend einer Form gibt. Ich würde einfach mal auf fix umstellen und beobachten. ;)

Theoretisch dürfte es aber auch bei dynamischer Zuweisung nix im Speicher verwerfen, weil ja dann einfach auf die Platte in die Auslagerungsdatei geschrieben wird und die Latenz ins übelste ansteigt. Normal wird dann alles einfach grottig langsam. Klar, wäre möglich das nicht alle Programme damit klar kommen aber hier tippe ich eher auf ein Problem mit der Speicher-Bereinigung als der dynamischen Zuteilung selbst, da ist dann irgendwann alles so voll, dass eben auch die System-Befehle nicht mehr sinnvoll funktionieren und evtl. auch die dynamische Speicherzuteilung in die Knie zwingt (wenn das mehrere Maschinen machen). Wer auch immer das verursacht. Not-Updates und mittlerweile auch normale Updates kann ich mir da durchaus aus Verursacher vorstellen bei der Qualität der letzten paar Jahre. Falls Speicher-Bereinigung ein Problem ist (Habe ich öfter gesehen wenn office Bibliotheken/Apis in anderer Software genutzt werden), dann hilft oft ein durchstarten in der Nacht, sofern machbar. Dann hat die Maschine wieder einen Tag Zeit alles zuzumüllen :rolleyes:

 

Daher mein Tipp: Umstellen auf fixe Speicherzuordnung, beobachten, falls immer noch ein Problem, jede Nacht durchstarten und beobachten. Eventuell der Ursache auf den Grund gehen.

Wenn es mit durchstarten zuverlässig getan ist, das auch möglich ist, habe ich es mir abgewöhnt zuviel Zeit zu investieren, die ist meist verloren. Manchmal werden Probleme gefixt und manchmal kommen neue dazu. Aber wenn es mit durchstarten getan ist, ist es sehr oft ein Treiber oder Speicherbereinigungsproblem einer Applikation und selten Windows selbst. :rolleyes:

Link zu diesem Kommentar

Vielen Dank für Deine Antwort. Ich gehe auch von einem Problem bei der Speicherbereinigung aus. Die VM wird vom Host eine Anforderung "mach Platz, ich räume Dir x GB Speicher ab" bekommen und muss diesen Speicher dann frei machen. Caches leeren, oder wenn das nicht reicht halt auslagern. Damit hinten abgeschnitten werden kann, müssen allenfalls Speicherbereiche "defragmentiert" werden. Wenn da irgendwas schief geht, ist fertig lustig. Die Software selbst sollte daran eigentlich nicht beteiligt sein, die greift ja nur auf ihren virtuellen Adressraum zu und das Betriebssystem muss die Zugriffe auf physische Speicheradressen übersetzen.

 

Wie es aktuell aussieht, könnte es auch ein Problem vom Host sein nach den Updates: eine VM wird täglich neu gestartet und die hat jetzt schon mehrmals nur mit den anfänglichen vier GB gestartet und nie mehr bekommen, obwohl sie normalerweise bei um 18 GB läuft und 24 GB als Limit hat. Aber ja, einen Server mit vier GB zu starten, von dem man weiss, dass er dann um die 20 GB benötigt, wenn sich die Benutzer anmelden, ist recht sinnfrei.

 

Mit fixem Speicher gab es bis jetzt keine Abstürze mehr.

Link zu diesem Kommentar

Jo, die VM kann aber auch nur korrekt bereinigen wenn die Applikationen ihrerseits den Speicher sauber freigeben. Das wird dann manchmal selbst mit fixer Speicherzuteilung ein Problem. Dann helfen oft nur Neustarts. Aber eben, sinnlos ist es eigentlich eh. Wenn eine VM den Speicher benötigt, dann benötigt sie ihn. Ansonsten könnte man ihr auch einfach weniger geben. ;-)

Ist ja sowieso schon lästig genug wenn ein OS statt im RAM in der Auslagerungsdatei rumwurstelt, dann muss der RAM von dem sie ausgeht tatsächlich zu haben, nicht auch noch in der Auslagerungsdatei der VM auf Hostebene rumwursteln. Das muss eigentlich Ärger geben. Eigentlich ist dieses dynamische Zeugs meiner Meinung nach nur für Migrationen, Hostausfälle wos nicht anders geht oder Testumgebungen sinnvoll aber nicht für den Normalbetrieb. :aetsch2:

bearbeitet von Weingeist
Link zu diesem Kommentar
Gerade eben schrieb mwiederkehr:

Ja, in Testumgebungen mag ich dynamischen Arbeitsspeicher. Dort arbeitet man mal auf einer VM, dann auf einer anderen. Oder man macht auf einem DC Windows Updates. Dann kann er kurz mehr Speicher verwenden und danach ist er wieder bei unter einem Gigabyte. Für irgendwas wurde der dynamische Arbeitsspeicher ja erfunden. :-)

Wohl eher um dem Admin Arbeit zu generieren... :smile2: Meine Meinung dazu: Hauptsächliche Marketing um unterdimensionierte Hardware zu benutzen. Am Ende führt nichts daran vorbei, dass man die physische Leistung für die Spitzenlast bereitstellen muss. Tut man das nicht, dann läuft man irgendwann in Ärger. Entweder man lebt damit, teilt generell weniger zu damit nur auf einer Ebene ausgelagert wird oder stellt halt mehr zu Verfügung. Gilt eigentlich bei allem, IOPS, Latenz, Single-Core Potenz, Dedupe usw. Aber das weisst Du im Grunde ja sicher auch, man verdängt es höchstens ab und an :lol:

Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...