Jump to content

Sir_MP

Abgemeldet
  • Gesamte Inhalte

    141
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Sir_MP

  1. Also eher nach der "klassichen Art". Das heißt der Einsatz des Migrationtools macht hier keinen Sinn? Ich denke dieser Vorgang des Hardwaraustausches ist ja keine Seltenheit, daher dachte es es gebe eine Art Automatismus mit dem die Sache möglichst schnell über die Bühne geht.
  2. Hallo zusammen, Ich möchte einen w2k3 Domänencontroller in einem Forest mit seiner kompletten Konfiguration auf eine neue Hardware verschieben. Ziel => ADS, Konfiguration, Datenbestand etc. sollen am Ende auf Quell- und Zielserver übereinstimmen Für mich gibt es eigentlich nur zwei Ansätze. Nur gilt es noch sich für den Richtigen zu entscheiden. Variante 1. Ich downgrade den Quell-Domänencontroller und gebe ihm einen anderen Hostname. Auf dem PDC Emulationsmaster der Root-Domäne lösche ich in der Standortverwaltung alles was mit dem "downgraded" Domänencontroller zu tun hat. Der Ziel-Domänencontroller wird aufgesetzt DNS, ADS etc. eingerichtet. Dann als neuen Standort anlegen, ADS mit dem PDC Emulationsmaster replizieren lassen, globalen Katalog anlegen, Alt-Daten übernehmen und fertig. (Mal kurz und knapp dargestellt) Variante 2. Ich führe den Vorgang unter der Verwendung des Migrationtools ADTM Version 3 aus. Mit dem Tool habe ich bisher nicht gearbeitet, von daher weiss ich nicht ob es eine schnelle sicher und effiziente Lösung ist um von w2k3 nach w2k3 zu migrieren, dazu noch in einer großen Domäne. Gruß, Sir_MP
  3. Der Patch ist für Systeme die noch kein SP1 installiert haben. Wir haben bezüglich der Problematik einen Call bei Microsoft aufgemacht und mit dem 2nd Level Support fast zwei Monate herum experimentiert. Es konnte keine Lösung gefunden werden. Die letzte Möglichkeit wäre ein LiveDebug gewesen. Da die Hardware aber bald ausgetauscht wird und in dem Zug eine Neuinstallation stattfindet, hoffe ich das Problem so auszugrenzen.
  4. Hallo, Ich bin dabei die Zeitsynchronisierung für mehrere DCs in einer Domäne zu konfigurieren. Die Struktur ist mir geläufig. Die Clients synchronisieren mit dem authentifizierten DC und der DC mit dem PDC Emulationsmaster. Der DC mit der PDC-Rolle soll mit einem internen Zeitserver synchronisieren. Dieser ist korrekt eingetragen und ich sehe ihn auch mit net time/querysntp. (Hab den Wert auch in der Registry überprüft) Gebe ich jetzt aber net time an, sehe ich dort nicht den internen Zeitserver sondern den Namen eines anderen DCs in der Domäne. Mit w32tm /resync erhalte ich beim Haupt-DC: Zugriff verweigert Mit net time /set möchte er mit einem untergeordneten DC synchronisieren. (vielleicht weil dieser am schnellsten antwortet !?) Muss man bei der Konfiguration für die Zeitsync des Haupt-DCs (PDC-Emulationsmaster) noch irgendetwas beachten? Das kann doch eigentlich nicht schwer sein. Ich beisse mir hier echt die Zähne aus. Bin für jeden Tipp dankbar.
  5. du kannst diese auch einfach als *.rdp abspeichern. die individuellen einstellungen werden beibehalten. diese dann z.b. als %standort% umbenennen. dann nur einen doppelklick auf das icon und die sitzung wird hergestellt.
  6. ...oder installiere nero burnrights http://www.nero.com/nero6/en/Nero_BurnRights.html dies berechtigt auch NICHT-Admins zum Brennen von CDs mit Nero
  7. hi, ich habe zwei verständnisfragen zur infrastruktur was nlb anbelangt. habe mich jetzt einige zeit theoretisch in die thematik eingearbeitet, aber mir sind trotz allem folgende punkte nicht klar. als beispiel: ich habe drei terminalserver mit jeweils zwei netzwerkarten. diese werden jetzt einfach mal im unicast-modus betrieben. einfach grafisch dargestellt, gilt der aufbau nach diesem prinzip: http://www.dedipower.com/conimages/ent_loadbalancing_hardware.gif 1. ich stelle es mir so vor, dass die beiden netzwerkadapter im server aus redundanz und performancegründen gekoppelt werden. die drei server hängen dann an einem loadbalancer, der dann die last kanalisiert. Also geht jeder netzwerkport zum switch (loadbalancer)! ist die vorstellung überhaupt realistisch? wenn nicht, wie sollte die infrastruktur logischerweise aussehen? ich nämlcih auch erfahren, dass ein netzwerkadapter als cluseradapter definiert wird und die andere für verwaltungszwecke. 2. welcher meachnismus entscheidet genau, welcher user auf welchem server arbeitet. die theorie besagt, dass die pakete an alle server weitergeleitet werden und dann von dem mit der geringsten Last (Netz, CPU, etc) bearbeitet werden. Wozu dann ein loadbalancer, wenn die server das unter sich ausmachen?? ich hoffe ihr versteht die problematik in dem wirrwarr und könnt vielleicht an einigen stellen licht ins dunkeln bringen. gruß, sir_mp
  8. Funktioniert nicht! Die gesamte Basisinstallation erst auf V 10 upgraden.
  9. Da kenn ich nur HFNetChkPro als Referenzprodukt.
  10. Das kann natürlich viele Ursachen haben. Stehen im Eventlog Warnungen bzw. Fehler? (Bitte posten)Läuft der Anmeldedienst korrekt? Irgendwelche Einträge in der hosts? Das ganze mal an einem anderen Client ausprobiert?
  11. Wurden die administrativen Freigaben auf dem Client entfernt (Admin$, C$, IPC$) ? Kann in Einzelfällen daran liegen.
  12. Hi, Versuche unter W2k3 SP1 die JRE 1.2.2 zu installieren. Die ist bei Veritas Backup Exec 9.1 dabei und ist für die Installation erforderlich. Beim Doppelklick auf die setup.exe passiert nichts...keine Install-routine, keine Fehlermeldung. Die Installtion auf einem Zweit-System funktioniert problemlos. Also die Datei ist nicht beschädigt. Ausreichende Berechtigungen sind auch vorhanden. Hab mir die aktuelle Java Environemt 5.0 Update 4 heruntergeladen. Installation erfolgreich. Jedoch versucht Veritas bei der Installation wie gehabt die ältere Verison zu installieren...bisher ohne Erfolg. Ich vestehe das nicht. Hat jemand eine Idee?
  13. Hallo zusammen, Fakt ist: Für ein schnelles und effektives Restore systemkritischer Systeme wird ein Disaster Recovery benötigt. Nun gibt es für mich nur zwei sinnvolle Ansätze 1. Ich erstelle anhand eines Imaging Tools (z.B. Acronis True Image 8.0) jeden Tag ein komplettes Duplikat auf eine USB-Festplatte. Dann habe ich theoretisch alles aus einer Hand. System, Daten und Postfächer. Starten, Bootdiskette einlegen, Image drüberbügeln, fertig. Und der Vorteil an dieser Variante ist, dass ich online sichern kann. 2. Ich sichere meine Daten, Postfächer, Systemstaus auf Band (z.B Veritas BE) und erstelle dann zusätzlich in regelmäßigen Abständen mittels ASR oder Veritas IDR ein Disaster Recovery. Hier sind es im Prinzip zwei Arbeitsschritte. Von Diskette/CD booten und durch Disaster Recovery OS wiederherstellen, dann Backupsoftware installieren und Daten/Mailboxes wiederherstellen. Aus zeittechnischer Sicht würde ich Variante 1) wählen, jedoch sehe ich im real-life häufiger Variante 2). Was haltet Ihr davon oder gibt es Eurer Meinung nach einen effizienteren Weg. Gruss, Sir_MP
  14. Sir_MP

    Umfrage zum WSUS

    Gott sei dank, der WSUS ist da....sonst wären wir aufgrund der schlechten Reporting-Funktionen zu einem Fremdhersteller übergegangen (HfNetChkPro). Implementierung lief zu unser vollsten Zufriedenheit.
  15. Bei Alternate hats bei mir bisher auch immer geklappt und die Preise waren völlig ok. Ansonsten gibts hier noch einen lokalen Anbieter... hiq-computer....wobei man vorher wissen sollte, was man benötigt (schlechte beratung). ....Und bei Snogard hab ich mir meine erste Radeon gegönnt...
  16. Für obligatorische Profile die ntuser.dat in ntuser.man umbenennen werden, Pfad für das servergespeicherte Profil beim jeweiligen User im AD angeben. Fertig.
  17. Also generell gilt die "Vorab Durchsuchung" nur für den Problauf. Jedoch sollte man im Normalfall bei einem aktiven Sicherungsjob zumindest den Prozentwert sehen. Ist nach Beendigung des Sicherungsvorganges im Auftragsverlauf jedenfalls die Verarbeitungsrate zu sehen? Sind die aktuellen Treiber und SPs für Backup Exec installiert??
  18. So.... wir haben bezüglich der Problematik einen Call bei Microsoft aufgemacht. Bin mal gespannt ob die etwas herausfinden.
  19. Hallo zusammen, Unter Win Server 2003 SP1 habe ich folgendes Problem: Ein definierter Batch-Job wird vom Taskplaner nicht ausgeführt wenn ich mich als User von der Konsole abmelde. + In der SchedLgU.Txt steht folgendes: Ergebnis: Der Task wurde mit folgendem Ergebniswert abgeschlossen: (80). + Die Taskplaner-Engine schedsvc.dll hat die Version 5.2.3790.1830 + Der Taskplaner-Dienst läuft ordnungsgemäß unter dem Systemkonto + Das Häkchen "Nur ausführen wenn angemeldet" ist deaktiviert Hat irgend jemand eine Idee? Ich komme nicht weiter. Vielen Dank.
  20. @work: Lotus Notes @home: MS Outlook
  21. Hallo zusammen, Hast jemand Erfahrung mit einem Tool, welches die Ereignisanzeige von mehreren Win 2003 Servern ausließt und zental visualisiert? Momentan sind 12 Server im Einsatz und täglich jeweils die Ereignisanzeige zu prüfen kostet eine Menge Zeit. Also gewünscht ist eine zentrale Oberfläche, wo Fehlermeldungen, Hinweise etc. mehrerer Server angezeigt werden. Danke.
  22. Ahh...danke.. sie ist genau in diesem Pfad vorhanden. Wird jedoch im Explorer nicht angezeigt. Trotz anzeige aller versteckten Dateien und Systemdateien. Ruft man den Pfad jedoch in einer Eingabeaufforderung auf, ist die schedlgu.txt vorhanden. Microsoft´s Wege sind unergründlich.
  23. Hi, Gibt es unter Windows Server 2003 ebenfalls ein Logfile für den Taskplaner (geplante Tasks)? Unter Windows Xp gibt es im %systemroot% die SchedLgU.Txt. Unter 2003 konnte ich bisher nichts finden. Danke im Voraus Gruß, Sir_MP
  24. Hallo zusammen, Ich habe folgendes Problem unter Windows 2003 Server: Festgelegte Jobs im Taskplaner werden nicht ausgeführt, wenn die Remotesession abgemeldet wird. Letztes Ergebnis im Taskplaner:0x80. Im angemeldeten Zustand läuft der Job einwandfrei. Und das kuriose dazu: Unter Win 2003 ohne SP1 tritt das Problem nicht auf. Ich habe festgestellt das die Taskplaner auch unterschiedliche Versionen haben. Ist jemandem die Problematik bekannt? Gruß, Sir_MP
×
×
  • Neu erstellen...