Jump to content

USN-Journal: Preallokieren


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Hallo Leute,

 

 

Kennt jemand eine Möglichkeit, mit welchem man ein USN-Journal vorfertigen könnte? Habe dazu irgendwie keine Flags gefunden.

 

Ziel: Von Anfang an die unglaubliche Fragmentierung des USN-Journals verhindern.

 

1. Ich weiss nicht ob das USN-Journal wenn es voll ist, wieder in die gleichen Sektoren schreibt, einfach am Anfang

2. An und ausschalten für eine Neuerstellung hat zu viele Nebeneffekte die man beachten muss. (Datensicherung, Replikationen etc.)

 

Jemand ne Idee oder sogar ein fertigs Script?

 

 

Ein Ansatz, allerdings keine Ahnung ob und wie das klappt:

Solange Files in einen hohen Bereich der Festplatte schreiben, bis die gewünschte Max-Grösse des Logs erreicht ist.

Allerdings müsste man dazu mit der Windows API schreiben, welche wiederum irgendwo schreibt.

Das heisst vor den Kopiervorgängen muss ein wenig Platz vorhanden sein durch eine Datei die man wieder rauskippt, die gleich gross oder gröser ist, wie die Menge um die das USN-Journal jeweils vergrössert wird oder zumindest kleiner als das File das man kopieren möchte.

 

 

Nützt aber natürlich alles nur, wenn anschliessend die bestehenden Sektoren überschrieben werden.

 

 

Über den Sinn oder Unsinn soll hier nicht diskutiert werden, sondern lediglich ob es technisch geht oder nicht. Falls es geht, wie es eben geht.

 

Grüsse und vielen Dank für Inputs

Link zu diesem Kommentar

Wie gesagt: Ziel wäre das Fragmentieren des USN-Journals zu verhindern bzw. sehr in Grenzen zu halten.

Auf grösseren Volumes mit vielen Änderungen hatte ich da schon über 1000 Fragmente gesehen.

 

 

Wenn nun das Journal tatsächlich effektiv rotierend in den selben Blöcken ist, könnte man es doch genügend gross anlegen und es bleibt dabei. Stören würde es auf alle Fälle nicht. Vielleicht gäbe es sogar ein kleiner Performance-Vorteil?

 

 

Von daher würde es mich interessieren, was evtl. Wege wären, die zum Ziel führen könnten.

Link zu diesem Kommentar

Erwarte bessere

1. Performance, da HD-Köpfe weniger springen müssen (Fragmentierte Files, sowohl für das Log als auch die anderen Files die so automatisch fragmentiert werden)

2. Bessere, schnellere oder weniger Rechenintensives Dedupe, dabei dürften wenig fragmentierte Files auch eher vorteilhaft sein

3. Bessere Recovery-Voraussetzungen schaffen (versehentlich gelöschte Files z.B.)

 

 

Vor allem bei letzterem habe ich die Erfahrung gemacht, dass dies deutlich einfacher ist mit einem defragmentierten System.

Eine auf eine grosse Fläche verteiltes USN-Journal verhindert eine einfache und saubere Defragmentierung. Zudem ist die Defragmentierung deutlich zeitaufwendiger und braucht mehr Schreiboperation.

 

Wenn das mit verhältnissmässig einfachem Aufwand möglich ist, dann wären diese Dinge quasi umsonst zu haben, ohne dass man irgendwas beachten muss.

Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...