Jump to content

Dateien migrieren mit welchen tool?


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Hallo Zusammen,

 

wir haben eine Applikation welche Dokumente auf einem Fileserver nutzt (ca. 300GB, 1 Mio Daten)!

Die Applikation soll in eine komplett neue Umgebung und Niederlassung neu aufgesetzt werden.

VPN Verbindung steht.

Die Datenbank der Applikation wurde erfolgreich auf dem neuen Applikationsserver aufgesetzt

 

Zielsetzung: Nun muss der Dokumentenordner ebenfalls migiriert werden.

Aufgrund der hohen Datenmenge muss die Migration an einem Wochenende laufen.

Wie bekomme ich die vielen Daten migriert?

Am liebsten hätte ich gerne ein Tool wie DFS welches einmalig ein Vollsync macht und dann je nach Bedarf ein Deltasync.

Ich denke nicht das ich via SMB oder robocopy an einem Wochenende die gesamte Datenmenge über eine 40MBit Uploadleitung migriert bekomme, daher frage ich alle nach einer professionellen Lösung welche auch Deltasnc machen kann.

 

Hat jemand eine passende Idee ?

 

LG Goat

 

 

Link zu diesem Kommentar

Moin,

 

ja, robocopy ist das Tool der Wahl für sowas. Das von Dukel beschriebene Verfahren kriegt man damit sehr gut hin. Außerdem kann robocopy (als eins von wenigen Tools) auch Daten kopieren, auf die der Admin eigentlich gar keine Rechte hat (Schalter /B). Und es hat auch eine Bandbreitensteuerung, ist für das VPN-Szenario also auch gut geeignet.

 

Gruß, Nils

 

Link zu diesem Kommentar
vor 7 Minuten schrieb goat82:

Robocopy ist ja sehr komplex

Als Tipp für den Anfang die Parameter, die ich jeweils setze:

robocopy /e /v /mir /copyall /b /efsraw /XJ /r:0 /w:0 /tee /log:c:\temp\robocopy_log.txt \\quelle\d$\Daten D:\Daten

Erklärung:

/e: Unterverzeichnisse kopieren, inkl. leeren Verzeichnissen

/v: ausführliche Ausgabe

/mir: Dateien spiegeln (in Quelle nicht vorhandene Dateien werden in Ziel gelöscht)

/copyall: alle Dateiattribute (Schreibgeschützt, Archiv, Sicherheitsinformationen, Besitzer etc.) kopieren

/b: im Backup-Modus kopieren (damit können auch sonst nicht zugängliche Dateien wie Benutzerprofile kopiert werden)

/efsraw: EFS-Dateien kopieren, ohne sie zu entschlüsseln (funktioniert sonst nicht, wenn der ausführende Benutzer keinen Schlüssel hat)

/XJ: Links nicht folgen (sonst Endlosschleife bei "App Data" im Profil)

/r:0: keine Wartezeit bei Fehlern

/w:0: keine Wiederholung bei Fehlern

/tee: Ausgabe auf Shell und in Logdatei

 

Damit habe ich schon manchen Server migriert. :-)

 

Ein Knackpunkt bei Dir könnte die sehr grosse Anzahl der Dateien sein, welche abgeglichen werden muss über die schmale Leitung. Bei sehr vielen Dateien dauert das Vergleichen seine Zeit, auch wenn schlussendlich nur wenige Dateien kopiert werden müssen. Das findest Du mit einem Testlauf aber schnell heraus.

Link zu diesem Kommentar

mal dumm gefragt:

 

wäre es hier nicht auch möglich mit einem Backuptool die platte zu klonen, dann dort hin zu fahren, das ganze einmal einzuspielen und alles weitere mit robocopy zu machen?

 

Da würdest du für den ersten Sync die schmale Leitung umgehen und  vorallem auch Fehlern bei der Übertragung vorbeugen

 

Ich würde am Ende auf jeden Fall noch die md5 checksums prüfen wenn die Daten von rechtlicher Relevanz sind

Link zu diesem Kommentar

Ja, wäre es. rsync wäre dann natürlich wieder besser, weil es nur blockbasierte Unterschiede überträgt statt kompletter Dateien - dafür ist halt der Aufwand höher für den Bereitsteller...

 

Das mit den Checksummen kann man sich sparen, wenn man das nur mit seinen eigenen Daten macht - ich wüßte nicht, wann da mal wirklich was großartig schief ging. Aber ja, rechtlich relevant mag ein Argument dafür sein :-)

Link zu diesem Kommentar
vor 8 Stunden schrieb daabm:

Ja, wäre es. rsync wäre dann natürlich wieder besser, weil es nur blockbasierte Unterschiede überträgt statt kompletter Dateien - dafür ist halt der Aufwand höher für den Bereitsteller...

 

Das mit den Checksummen kann man sich sparen, wenn man das nur mit seinen eigenen Daten macht - ich wüßte nicht, wann da mal wirklich was großartig schief ging. Aber ja, rechtlich relevant mag ein Argument dafür sein :-)

Bzw wäre es auch wesentlich sinnvoller, wenn man die 300gb an Daten zusammenpackt in ein 7z paket oder ähnlichem.

Denn eine große Datei lässt sich schneller übertragen als eine Millionen 300 kb Dateien :)

 

Das mit der Rechtlichen Relevanz ist mE schon wichtig. Wenn du mal einen Rechnungsprüfer da hast, der Rechnung X sehen will und die dann nicht funktioniert, weil kaputt, bist du erstmal der Schuldige.

Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...