Jump to content

MooseMan

Members
  • Gesamte Inhalte

    4
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von MooseMan

  1. Danke für die Ergänzungen. Bisher war ich stillschweigend davon ausgegangen, dass die neuen Platten auch an beiden RAID-Controllern ohne Firmware-Änderungen sich als RAID einrichten lassen, nun nehme ich das als Prüfpunkt dazu. Und weiß um potenzielle Widrigkeiten bei Firmware-Updates von RAID-Controllern insbesondere 3ware. Wobei ich mich da langsam frage: macht RAID dann noch so viel Sinn? Irgendwie vereinfacht sich die Geschichte doch deutlich, wenn man die gesamte RAID-Konfiguration (samt ihren Tücken) weglässt. Die Backups gibt's in jedem Fall als Rückfallebene. Richtig toll wäre doch folgendes: aus dem RAID-1 am 3ware Controller eine 500GB-Platte rausziehen, dafür eine 2TB-Platte rein. Das RAID spiegelt sich daraufhin wieder (Inhalt 500 GB-Partitionen auf die 2TB). Halt auf diese zwei Platten. Dann die andere 500 GB raus, wieder eine 2 TB rein. Das RAID spiegelt sich nochmal (Inhalt 2 TB auf 2TB). Soo würde die ganze Geschichte auch einen echten Mehrwert haben. Ggf. sind die Partitionsgrößen dann noch anzupassen. Die RDX-Geschichte überdenk ich auch nochmal. Das interne RDX-Laufwerk könnte ggf. nur via USB 2.0 intern dranhängen, habe ich mir beim letzten Mal nicht so genau angeschaut. Auch wenn das immer noch nicht erklärt, warum das Backup so lang dauert. Ist aber ein anderes Thema. Danke auch für den Tipp mit dem QNAP NAS als Alternative. Externe Backups sind aber Pflicht. Ich möchte insgesamt ein relativ simples System erhalten. Da auf dem Windows Server aber auch Anwendungen laufen, reicht das QNAP NAS (plus USB-Platten) nicht als Gesamtersatz des Servers. Und der Standort hat halt kein VDSL oder Ethernetuplink, insofern sind keine Remote-Backups drin. Höchstens mit aufwendigen Differenz-Backups. Und dann braucht man noch eine vertrauenswürdige Senke, die im Bedarf schnell genug die Daten wieder hergibt. Ich überlege mir das insgesamt nochmal.
  2. Mit deinem Ping hast du doch schon mal ein sehr wertvolles "Mess-Instrument". Hier lohnt sich, auch die konkreten "Ping-Partner" (also Quelle und Ziel) mal mit in die Überlegungen einzubeziehen und zu überlegen, wie sie sich in der Topologie des Netzes physisch darstellen. Es lohnt sich auch, nochmal anzuschauen: * alle Nasen an den 8P8C-Steckern (landläufig: RJ45-Steckern) dran und noch sauber einrastend? Das ist ein sehr häufiges Problem. An einfachen Kabeln sind die Nasen ungeschützt und leiern auch beim Überdehnen, teilweise brechen sie ab. => Abhilfe: Stecker neu machen oder ganzes Kabel. * ausgehandelte Geschwindigkeit zwischen NIC und Switch? (10, 100 oder 1000 MBit/s), also 10BaseT, 100BASE-TX oder 1000BASE-T - bei Windows: "Status von LAN-Verbindung" -> Übertragungsrate, manchmal auch via den LEDs an der NIC, am Switch mit den LEDs anschauen. Manchmal kann man am Switch auf einen Port mit anderer Geschwindigkeit umstecken. * bei 10BaseT, 100BASE-TX: mindestens Cat3-Kabel? Maximal 100m? * bei 1000BASE-T: mindestens Cat5e-Kabel und wichtig, auch alle Dosen und Stecker? Maximal 100m? Wirklich alle 8 Adern durchgängig verbunden? * Manchmal werden/wurden ISDN-Kabel oder -Dosen in Netzen zweckentfremdet. Die reichen aber nicht, je länger das Kabel wird. * Genau so kann man schauen, ob die richtig verdrillten Adernpaare richtig dran sind. Gerade bei allen selbst konfektionierten Kabeln. * testweise auch mal den Switch tauschen. Neuere haben oft ein Energiemanagement, dass die Spannung des Signals an die Entfernung anpasst (überlegung: auf einem kurzen Kabel fällt kaum Spannung ab, also kommt auch mit reduziertem Sendepegel noch genug Empfangspegel an). Dieses Energiemanagement kann man ggf. abschalten. * anderer Punkt: Backplane-Bandbreite des Switches. Die Backplane einfacher Switches kann nicht Full-Wire-Speed auf allen Ports. Ist der Switch dann belastet mit Datenverkehr, verwirft er Pakete. Bei einfachen Switches (vielen Desktop-Switches) ist die Backplane-Bandbreite nicht dokumentiert, bei Markengeräten für den Unternehmenseinsatz in der Regel schon. * Auch am Rechner selbst lohnt sich, mal den Task-Manager/Netzwerk-Tab parallel aufzuhaben. * Am Rechner selbst kann man testweise eine andere NIC oder USB-NIC als Ersatz einsetzen. Bei USB wieder mit den Einschränkungen eines Busses an die Verlässlichkeit. * Als Ersatz für das Kabel mit einem kurzen Kabel und einem Zwischen-Switch versuchen zu ersetzen. Der Rest ist dann probieren und logisches Schließen, wer nicht messen kann. Für alle Ports am Switch, und bzgl. der Komplexität von klein nach groß. Systematisch: Es gibt ordentliche LAN-Tester für Netzwerk-Installationen. Das sind so Handgeräte, wo jeweils für ein Kabel die Tests systematisch ablaufen. Mancher kann sich sowas mal ausleihen. Für ganz exotische Fälle: teilweise sind Funkstrecken (Laserlink, WLAN, WLAN mit Richtantennen, Richtfunk, Sat-Verbindung a la "Sky-DSL") in Netzen, deren Topologie man nicht vollständig kennt. Dann beeinflusst das Wetter und äußere Einflüsse auch die Datenübertragung. So kommen dann auch solche unsteten Pings in einem Ding, was eigentlich ohne Kenntnis der Topologie aussah wie ein LAN.
  3. Danke schon mal bis hierhin! Das stimmt. Aber das System an sich würde weiter auf den 5 Jahre alten Platten laufen. Außerdem senkt es statistisch die Verfügbarkeit, denn beide Systeme müssen ja dann funktionieren. Sobald eines ausfällt, braucht der Server wieder Zuwendung. Das System an sich (Windows, Applikationen) würde nicht von den neuen schnelleren Platten profitieren. (die 2 TB Platten sind schneller als die 5 Jahre alten 500 GB-Platten) Nebenbei würde es ca. 2x10W im Betrieb mehr brauchen. Wärmeentwicklung, die mir verzeichtbar scheint. Zumal dann alle 4 Platten quasi press im 4er Laufwerkskäfig verbaut wären. Heute ist da Platz dazwischen für die Belüftung. Es ist zwar ein Servergehäuse (SuperMicro SC731i-300B), aber eigene Lüfter für die Platten hat es nicht. http://www.servethehome.com/wp-content/uploads/2011/01/Supermicro-SC-731i-300B-internal-shot.jpg Aber ich behalte das als Option im Auge. Denn einfach wäre es. Danke für den Hinweis auf das Bare Metal Recovery in Windows Server 2008. Das kannte ich noch gar nicht. Das scheint so zu gehen: http://www.edvler-blog.de/windows-server-2008-bare-metal-recovery-mit-image-backup/ Aber Image ziehen aus dem laufenden System? Das macht mich ja skeptisch. Und die Wiederherstellungsoptionen sehen auch nicht so umfangreich aus. Vielleicht probier ich das aber auch mal. Wie sage ich dem denn, dass zwar bei der Sicherung 2 Partitionen mit 200 GB und 300 GB brutto gesichert wurden, ich jetzt bei der Wiederherstellung aber 300 GB und 1700 GB gern hätte als neue Partitionsgrößen? Wenn der mir auf die 2 TB Platte dann wieder nur zwei Partitionen macht mit 200 GB und 300 GB habe ich ja nichts gekonnt. ;) Wenn ich mir die Screenshots so anschaue, sieht mir das bei den Wiederherstellungsoptionen irgendwie zuviel nach Windows-Zauber aus. Vielleicht gut, wenn die Ausgangsplatten des Images die gleiche Größe haben wie die Zielplatten des Images, aber für meinen Fall nicht so passend. Auch wenn der die neue Platte dann "intelligent" aus den urspünglichen Verhältnissen 2/5 zu 3/5 aufteilt (also 800 GB zu 1200 GB), wäre das nicht das, was ich will. Und die zweite Sache: ein von DVD (Stand: ca. 2008) gebootetes Windows Server 2008 braucht bestimmt noch extra Treiber für den Zugriff auf das RAID des Intel Chipsatzes. Daran müsste ich dann auch noch denken. Bei Acronis 2014 habe ich ja die Hoffnung, sowas hat der in der Linux-Variante schon "im Bauch". Bei Trueimage habe ich außerdem deutlich mehr Kontrolle und kann die einzelnen Schritte konkret vorgeben (Quell und Zielpartitionen, Partgrößen, welche aktiv ist und so). Aber es ist gut, einen zweiten Weg zu kennen. BTW: USB 3.0 hat das System (von 2010) nicht, müsste ich also als Controller in einen PCI-Express-Steckplatz einbauen (der beschränkt eh schon auf 250 MByte/s Bus-Speed, real kommen dann wohl um 140 MByte/s raus, ok für Platten reicht das). Ich glaube, ich nehme da lieber noch eine SATA-Platte. Es sei denn, ich nehme USB 3.0 dann auch für den Backup-Weg. Aktuell gehen die Backups auf RDX-Cartridges (so SATA-Wechselplatten auf "edel" und "user-kompatibel" gemacht aber mit proprietärer Plattenfirmware). Die aktuellen Medien sind da aber mit 320 GB künftig zu klein. :) Dem Anwender graut schon davor, 5 neue kaufen zu müssen. Neues Backup-Konzept (bis 2 TB) muss ich mir also auch noch parallel überlegen, bevor die Aktion losgeht. Aber nimmt man USB 3.0 mit so einem PCI-E Controller und externe Platten wirklich für professionelles Backup/Restore? Da bin ich nicht von überzeugt. Ich habe mich da im letzten Satz vertippt. Die neuen sind 2 Stück 2 TB Platten. Den Punkt habe ich schon beachtet, dass es über 2 TB Boot-Probleme geben kann. Abseits davon: die neuen Platten haben 4k Sektoren mit 512e Emulation. Da weiß ich, dass ich aufpassen muss, dass die Partitionen an einer 4k-Sektorgrenze starten müssen. Also bei 512Byte-Sektoren an einer durch 8 teilbaren Grenze. Gibt's sonst noch Hinweise?
  4. Hallo, auf einem älteren Windows Server (Beschaffung ca. 2010) ist folgende Konfiguration. Betriebssystem: Windows Server 2008 Standard Edition 32 Bit Board: Supermicro Server Mainboard X8SIL-F (Intel 3420 Chipsatz, Onboard SATA RAID durch den Intel Chipsatz über 6x SATA 3G onboard wäre möglich) RAM: 4 GB CPU: Intel Xeon X3430 Steckkarten: ein 3ware RAID-Controller (2 port SATA) HDD: Zwei Platten SATA 3G a 500 GB sind in einem RAID-1 (Mirror) am 3ware-RAID-Controller. Gesamt also 500 GB. Dort drauf: Partition C: System - 200 GB - da liegt Windows und die Applikationen drauf Partition D: Daten - 300 GB - für Nutzerdaten Alles physisch, nix virtuell. Problem: Die Datenpartition füllt sich langsam mit immer neuen Dateien und ist bei ca. 80%. Ziel: Struktur und gesamte Systeminstallation an sich erhalten, aber auf größere Platten wechseln, z.B. 2x2TB RAID 1(Mirror) = 2 TB. Und dort dann 0,3 TB als Systempartition, 1,7 TB als Datenpartition. Daten sollen dabei übernommen werden. Downtime gering halten. Was ich mich frage: Wie gelingt die Migration so, dass möglichst wenig Probleme auftauchen? Ich habe mir jetzt mal gedanklich diesen Weg zurechtgelegt: Intel-Treiber für das Onboard-RAID installieren (Intel RST) - damit das System später auch davon bootet und keine Treiber-Probleme hat System runterfahren 2 neue Platten (2x 2TB) an die Onboard-SATA-Ports, hochfahren, ins Onboard-RAID-BIOS: dort ein RAID 1 (Mirror) einrichten über die 2 Platten, wieder runterfahren Booten mit Acronis Trueimage von USB-Stick (das ist so ein Mini-Linux, das da zum Einsatz kommt) 2 neue Partitionen auf den 2TB anlegen mit neuen Partitionsgrößen, alte 2 Partitionen 1:1 kopieren lassen (quasi: altes RAID 1 auf neues RAID 1) (wird ein paar Stunden dauern). Was ich schon gecheckt habe: Acronis erkennt das alte RAID-1 am 3ware-Controller und kann davon lesen. Mal schauen, ob es auch das neue am Intel-Controller auch erkennt. System runterfahren die 2 alten Platten 500 GB ausbauen, ggf. auch den 3ware-RAID-Controller Windows Server von den neuen Platten (neues RAID 1) booten lassen => Große Frage: wird das funktionieren? Welche Risiken gibt es da, dass Windows Server doch nicht startet? Hat das schon mal jemand gemacht? Und gibt es einen besseren Weg? Sollte ich ggf. einen zweiten identischen 3ware-RAID-Controller für die Migration kaufen? So dolle ist der aber nicht. Die Downtime soll jetzt auch nicht beliebig ausufern, wie es wäre, wenn man z.B. 2x kopiert. Einmal in ein Image (z.B. übers Netz oder auf eine USB-Platte, beides recht langsam). Dann die alten 500GB-Platten ab, die neuen 3TB wieder an den 3ware, dann die Images zurückspielen. Oder wäre sowas auf jeden Fall zu empfehlen? Das eigentliche Ziel der Aktion: danach wieder 2 Jahre Ruhe haben bzgl. Plattenkapazität. Schon mal danke im Voraus.
×
×
  • Neu erstellen...