Jump to content

monstermania

Members
  • Gesamte Inhalte

    1.393
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von monstermania

  1. So, nun komme ich der Sache näher. Offenbar handelt es sich um ein bekanntes Problem mit Windows 2003R2 64Bit. Siehe hier: http://social.technet.microsoft.com/Forums/windowsserver/en-US/111d8f9c-c497-4610-b7fd-94addafa9452/large-file-copy-degradation-to-and-from-win-2003-r2-64-bit-servers Muss man halt erst einmal finden... Ich habe übrigens zwischenzeitlich mal mit dem Tool TeraCopy eine 100GB-Datei auf den Backupserver kopiert (TeraCopy nutzt eigene Caching-Routinen). Und siehe da. Die 100 GB-Datei wurde in etwas über 48 min kopiert! Der Raid-Controller ist also in Ordnung. Jetzt muss ich nur noch ne Lösung für das Problem finden! Gruß Dirk
  2. Hi, irgendwie versteht Ihr die Problematik nicht richtig. Es geht nicht darum, dass die Performance bei einer großen Datei nach ca. 4 GB Dateiübertragung einbricht und dann aber auf diesem Level verbleibt und das kopieren dann langsam durchläuft. Es ist tatsächlich so, dass die Übertragung fast linear mit dem anwachsen der kopierten Datei auf dem Backupserver immer langsamer wird. Irgendwann tut sich dann fast gar nichts mehr (bei rund 300 GB Dateigröße). Da bleibt dann nur noch ein Abbruch des Kopiervorgangs. Ich frage mich jetzt nur noch, ob es sich dabei um ein Problem mit Windows oder direkt mit dem Raid-Controller handelt. Hat evtl.einer von Euch einen HP 400 Raid-Controller mit RAID-5 im Einsatz und kann dass mal testen? Wenn es woanders funktioniert, kann ich zumindest den Raid-Controller ausschließen. Hier mal der Link zum Controller: http://h18004.www1.hp.com/products/servers/proliantstorage/arraycontrollers/smartarrayp400/ Gruß Dirk
  3. BE 2010R3 Wenn ich per Robocopy eine 100 GB große Datei auf den Backupserver kopiere verhält sich der Server wie beschrieben: Je größer die Datei auf dem Backupserver wird, umso langsamer wir die Übertragung. Bis 10 GB Dateigröße ist das verhalten kaum merkbar. BE hat damit also nix zu tun!
  4. Jo, das Backup findet auf dem lokalen Storage des Servers statt (B2D). Nach erfolgreichem B2D erfolgt dann ein B2T auf einen Quantum SDLT Autoloader. Bei dem Raid-Controller handelt es sich um einen 8 kanaligen HP P400 Raid Controller mit 256MB Cache und BBU. 2 x 73GB SAS (Raid 1) für das BS des Servers 6 x 1 TB SAS (Raid 5) als Backupstorage Am SAN liegt es nicht. Auch nicht an der Netzwerkanbindung. Um das auszuschließen habe ich ja die Tests mit der Imagesoftware direkt aus der VM gemacht. Seit wann das Problem besteht, kann ich nicht sagen. Offenbar war sich mein Vorgänger des Problems aber schon bewusst. Das Backup der großen VM's war so eingestellt, dass BE die VM's per Betriebsystemagent gesichert hat (das läuft dann natüröich über das LAN). Die Größe der einzelnen Backupdateien war auf 6 GB eingestellt. Ich möchte jetzt das Backup aller VM's auf den VM-Agent von BE umstellen. Gerade weil das SAN per FC an den Backupserver angebunden ist habe ich mir davon einen Geschwindigkeitsvorteil versprochen... Gruß Dirk
  5. Hallo Thomas, natürlich ist der Backupserver per FC an das SAN angebunden. Es geht hier nicht um den Einsatz einer Imagesoftware! Die Imagesoftware habe ich nur genutzt um das Problem eingrenzen zu können! Konkret habe ich das Problem, dass die BackupExec-Sicherung mit dem VM-Agent bei größeren Maschinen extrem lange dauert bzw. überhaupt nicht durchläuft. Auf einem virtuellen Fileserver habe ich 650 GB zu sichern. Bei einer Vollsicherung ist das vmdk-File der Partition runde 500 GB groß. Hier läuft sich unser Backupserver einfach tot! Sprich die Schreibperformance auf dem Backupserver sinkt mit wachsender Dateigröße kontinuierlich ab. Irgendwann ist Sie so gering, dass nur noch der Abruch der Sicherung bleibt, da quasi nix mehr passiert. Das Problem liegt nicht an BE oder am Netzwerk, sondern definitiv am Backupserver selbst. Wenn ich die obige Imagesicherung z.B. auf ein an mein NB angeschlossenes USB Laufwerk mache, bleibt die Datenrate unabhängig von der Dateigröße der Imagedatei während des gesamten Imagevorgangs konstant. Der Backupserver ist ein HP380G5 mit einem P400 Raid-Controller und einem RAID5 mit SAS-Platten. Das Ganze läuft unter W2k3 64Bit. Gruß Dirk
  6. Hallo, wir setzten einen Backupserver mit Windows 2003x64 ein. Auf diesem Server werden alle Backups zunächst auf dem lokalen Storage abgelegt (B2D). Anschließend werden die Backupdaten per Backupsoftware auf Band gesichert. Nun mein Problem. Wir machen Backups auch von VM's. Die vmdks sind bis zu 600 GB groß. Leider ist es so, dass die Schreibperformance auf den Backupserver über das Netzwerk extrem einbricht, so Bald die Dateigröße ansteigt. Das geht so weit, dass sich die VM mit 600 GB überhaupt nicht sichern läßt, da die Sicherung 'ewig' läuft! Ich habe dazu mal diverse Test's mit einer Imagesoftware gemacht. Die Image-Software sichert aus Windows heraus über das LAN auf den Backupserver. Ich habe die Containergröße der Backupsoftware auf 500 GB gestellt -> Das Imageprogramm fängt mit ca. 3 GB/min an und wird dann stetig langsamer. Bei einer Größe von 100GB der Imagedatei auf dem Backupserver bin ich dann schon auf 0,8 GB/min runter... Ich habe dann mal die Größe der Containerdateien im Imageprogramm auf 4 GB umgestellt und die Imageerstellung dann nochmal gestartet. Jetzt läuft das Image komplett mit rund 2,7 GB/min Datenrate durch. Ich habe dann das gleiche nochmals mit einem anderen Rechner im Netzt geprüft. Hier bleibt die Datenrate auch bei großen Dateien konstant. Das Problem liegt daher definitiv an dem Backupserver. Die AV Software ist natürlich auf dem Backupserver deakiviert. Hat jemand eine idee, warum die Performance bei großen Dateien so drastisch einbricht!? Gruß Dirk
  7. Auch wenn der Thread schon etwas älter ist habe ich auch noch mal eine Frage. Wir haben im Unternehmen rund 50 PC's. Auf allen ist auch eine Office 2010 Lizenz vorhanden. Es handelt sich dabei jedoch um 'Einzelhandelsversionen'. Diese lassen sich ja nicht auf einem TS installieren. Wir planen jetzt den Einsatz eines TS mit Office 2010 ca. 10-15 User. Müssen wir jetzt fü diese User nochmals 10-15 extra Office 2010 MS Open Lizenzen erwerben? Oder reicht es eine Open-Lizenz für Office 2010 zu erwerben (für die Installation auf dem TS)? Schließlich hat jeder User ja schon ein lizensiertes Office 2010 auf dem Rechner. Gruß Dirk
  8. Nein, offenbar bich ich nicht der einzige, der die Problematik mit F5 nicht kannte ;) . Hatte mich in einen bestehenden Thread im Technet angehängt, da die absolut gleiche Problemstellung vohanden war. War also kein Doppelpost! Gruß Dirk
  9. Hallo, tja wie immer 'Fehler 60'! Sprich der Fehler sitzt 60cm vor dem Bildschirm. Man muss die gemachten Einstellungen eben auch aktivieren (F5-F8)! :suspect: Zum Glück kam der richtige Wink aus dem Technet-Forum. Kaum macht man es richtig, schon funktioniert es! Danke, für Eure Unterstützung. Wieder mal eine Menge gelernt. Gruß Dirk
  10. Morgen, so ich habe gestern weiter getestet. Ich habe in VMWare eine Testdomäne eingerichtet. - W2K8R2-DC (Windows 2003 Domänenstruktur) - Win 7 Client - Win 8 Client Ich habe testweise eine OU eingerichtet. In dieser OU sind beide Computerkonten sowie ein Testbenutzer (Domänen-Benutzer) enthalten. Auf dem Win 8 Client sind die RSAT-Tools installiert und ich habe über diesen Client 2 GPO's eingerichtet. 1 GPO für die Konfiguration der IE-Einstellungen (Proxy-Einstellungen, Startseite). 1 GPO, für einen einheitlichen Desktophintergrund. Beide GPO's wurden der OU zugewiesen. Aber das Problem bleibt das gleiche wie in unserem echten Netzwerk. Der einheitliche Desktophintergrund funktioniert. Die Proxyeinstellungen sowie die Startseite des IE wird nicht angepasst. gpresult /h ergibt auf beiden Clients, dass das GPO der IE-Einstellungen verarbeitet wird. Nur wird keine der konfigurierten Einstellungen übernommen! Ich bin echt Ratlos! Hat überhaupt schon jemand von Euch die IE-Einstellungen (Proxy, Startseite) per GPP konfiguriert und hat es funktioniert? Ich habe in anderen Foren gesehen, dass dort die gleichen Probleme aufgetreten sind, aber auch dort gab es keine Lösung! Gruß Dirk
  11. Hallo Sunny61, also das GPO wurde auf dem Windows 8 Rechner erstellt, da erst ab Windows 8 (bzw. Windows 2012) auch der IE10 als Option verfügbar ist. Trotzdem sollte das GPO natürlich auch bei einem Windows 7 mit IE10 funktionieren. Daher der Windows 7 Testclient. Woher sehe ich dass etwas angewand wird? Ich habe mit gpresult /h einen Report erzeugt. In diesem Report wird das von mir erstellte GPO aufgeführt (siehe Screenshot). Das mit dem Logging muß ich mal ausprobieren. Gruß Dirk
  12. So, jetzt habe ich das mal so gemacht, wie Du empfohlen hast. Ich habe eine eigene OU eingerichtet. In dieser OU sind mein Windows 7 Client (mit IE10), mein Windows 8 Client und mein Testbenutzer Auf die OU habe ich jetzt nur die GPO 'IE10' verknüpft. Weder die in der GPO 'IE10' hinterlegten Proxyeinstellungen noch die Startseite haben funktioniert (Sowohl mit Win7 als auch mit Win8). Ich habe dann zusätzlich mal die GPO 'Desktophintergrund' auf die OU verknüpft. Nach der Neuanmeldung habe ich sofort unseren Standardhintergrund bei beiden Clients. D.h. die Verteilung der der GPO's funktioniert schon. Ich habe dann mal gpresult augeführt. Hier sind nur meine beiden GPO's IE10 und Desktophintergrund aufgeführt. Das merkwürdige ist, dass es diverse Einstellungen für die GPO 'IE10' gibt. Allerdings laufen diese alle diese Einstellungen unter Internet Explorer 5 und 6. Nur für den IE5 oder 6 habe ich gar nichts in der GPO IE10 definiert! Natürlich gibt es auch keine Fehlermeldung in der Ereignisanzeige... Bin weiterhin ratlos. Anbei mal ein Screenshot der entsprechenden GPO. Gruß Dirk Ach ja, wir haben sowohl 2008R2 DC's als auch noch einen 2003 DC. Das heißt also die Funktionsebene der Domain ist Windows 2003. Kann es evtl sein, daran liegen, dass die GPP für den IE10 nicht greift? Gruß Dirk
  13. Ok, es geht um die Browsereinstellungen der IE10 Desktopversion - In der OU sind Benutzerkonten. - Es wurde folgende GPP 'IE10' erstellt und der OU zugewiesen: Benutzerkonfiguration -> Einstellungen -> Systemsteuerungseinstellungen -> Interneteinstellungen -> Internet-Explorer 10 -> Proxyeinstellungen, Startseite Die GPP wurde von einem Windows 8 Client mit installiertem RSAT aus erstellt. Ich habe unter dem Sysvol-VZ des DC die Policies geprüft. In der InternetSettings.xml sind die richtien Einstellungen zu finden. Dazu muss ich noch anmerken, dass in der 'Default Domain Policy' eine entsprechende Einstellung für die 'Internet-Explorer-Wartung' (Proxy, Startseite) exisitiert. Mehr fällt mir jetzt erstmal nicht ein. Gruß Dirk
  14. Mmmh, bin jetzt mal einige Schritte zurück gegangen. Ich habe einen Windows 7 Client genommen und den IE10 installiert. Auch hier geifen die Einstellungen für den IE10 nicht. Die Ausgabe von gpresult /h bringt mir folgenden Infos: Angewendete Gruppenrichtlinienobjekte Default Domain Policy Desktophintergrund IE10 In IE10 habe ich die Proxyeinstellungen gepackt. Aber davon kommt nichts auf dem Client an. Bin jetzt etwas ratlos. Gruß Dirk
  15. OK, erwischt! Weiß jemand, wie ich GData-Mail-Security dazu bringe, bei fehlender Internetverbindung (und damit einhergehender fehlender Namensaulösung) die zu sendenden Mails in eine 'Warteschlange' zu schieben? Natürlich gibt es bei Gdata eine Warteschlange mit entsprechenden Einstellungen. Wenn also eine Mail nicht zugestellt werden kann, weil der Empfangsserver nicht reagiert, versucht GData-Mail-Security diese Mail erneut zuzustellen. Das greift aber eben nicht bei fehlender DNS-Auflösung. Gruß Dirk
  16. Hallo, ich habe gerade ein kleines Verständnis- bzw. Konfigurationsproblem. Ich habe einen Exchange 2007 mit einem vorgeschaltetem Server auf dem GData Mail-Security läuft. D.H. der Exchange sendet und empfängt die Mails per SMTP durch den Mail-Security-Server. Der Mail-Security-Server sendet und empfängt ebenfalls per SMTP. Funktioniert auch sehr gut. Leider kommt es ab und zu mal vor, dass die Internetverbindung kurzzeitig nicht da ist. Verschickt jemand gerade in diesem Moment eine Email, so erhält er die Meldung: Folgende Empfänger konnten nicht erreicht werden: 'xxx@xxx.xx' Unbekannter Host Ist ja soweit auch klar, da der Hostname in dem Augenblick nicht aufgelöst werden kann (kein Internet). Allerdings ist das natürlich extrem nervig, weil dann der User bei mir auf der Matte steht. Außerdem muss der User dann die Mail noch einmal versenden. Kann man den Mailversand so einstellen, dass der Server die Mails in der Warteschlange hält und es mehrmals versucht die Mail zu versenden, so dass der User z.B. erst nach einigen Minuten einen entspechenden Hinweis erhält? So wie ich das sehe macht der Exchange ja überhaupt keine Auflösung der Empfängerdomain (DNS), da er die Mails direkt per SMTP an den Mail-Security-Server weiterleitet. Alslo muss ja eine entsprechende Einstellung direkt auf dem Mail-Security-Server erfolgen, oder? Gruß Dirk
  17. Hallo, wir testen gerade den Einsatz von Windows 8-Clients in unserer Domäne (Kompatibilität mit alle Applikationen, usw.). Dabei liegt mein Schwerpunkt auf der Prüfung der Funktion GPO's auf Windows 8. Dabei habe ich einige Probleme feststellen können. U.a. funktioniert die Zuweisung des Proxys für den Internetzugiff nicht. Wir haben noch keinen 2012 DC (nur 2008R2). Daher habe ich auf einem Windows 8 die Remoteserver-Verwaltungstools (RSAT) installiert, damit ich Zugiff auf die notwendigen Konfigurationsoptionen erhalte. Nun habe ich auf meinem Windows 8 eine entsprechende Gruppenichtlinie für die Proxyeinstellung erstellt (GPP fü den IE10 erstellt und den Proxy zugewiesen) und die GPO der entsprechenden OU zugeweisen. Nur leider greift die Einstellung nicht unter Windows 8. Ich habe auf meinem Windows 8 Testsytem mal per gpresult abgefragt und konnte die neue GPO dort nicht im Ergebnis finden. Braucht man dafür jetzt doch einen Windows 2012 DC, oder warum greifen die die GPO's nicht? Gruß Dirk
  18. Sorry, aber die Lienzschlüssel hab ich schon... Lies einfach nochmal den 2. Absatz meiner Frage. Mit welchem Lizenzmodell werden die Lizenzen bzw. der Lizenzcode dem Lizenzserver hinzugefügt? Ich habe mitterweile alle Möglichkeiten des der RDS Lizenzaktivierung durchprobiert. Die Lizenzen konnten nicht auf dem Lizenzserver aktiviert werden. Iregndwie bin ich dazu wohl zu b***d, oder sehe den Wals vor lauter Bäumen nicht... Gruß Dirk
  19. Hallo, ich habe ein Windows-Netzwerk aus einem SBS2011 und 2 weiteren Windows-Server installiert und eingerichtet. Alle Lizenzen stammen aus einem Action-Pack-Vertrag, den der Kunde mit MS hat. Einer der Server ist als Terminalserver eingerichtet. Nun möchte ich gerne die 10 RDS-Lizenzen aus dem Action-Pack aktivieren. Lizenzserver ist eingerichtet. Ich habe eine solche Lizenzaktivierung bei anderen Installationen mit RDS-Lizenzen (z.B. MS OPEN) auch schon zig mal gemacht, sollte daher ja eigentlich wissen wie es geht :rolleyes: Nun mein Problem: Wie muss ich die Lizenzen zufügen? Ich habe vor einigen Jahren schon mal mit Action-Pack-Lizenzen gearbeitet. Da wurden von MS die TS-Lizenzen auf Papier mitgeliefert und wurden als Vollprodukt hinzugefügt. Seit einiger Zeit liefert MS die Lizenzen jedoch nur als Abruf aus dem Partnerportal. In der Lizenzübersicht des Kunden ist auch der entsprechende Eintrag der RDS-Lizenzen (10 Stück). Nur wo finde ich die Lizenznummer bzw. mit welchem Lizenzmodell werden die Lizenzen hinzugefügt? Als Vollprodukt, oder als Lizenzvertrag? Ich habe jetzt schon einige Konstellationen durchprobiert (z.B. MS-Partner-ID als Lizenznummer). Aber die Lizenzierung schlägt immer fehl. Kann mir bitte jemand eine Tip geben, wie ich die RDS-Lizenzen aus dem Action Pack zum Lizenzserver installieren kann? Gruß Dirk
  20. So, der guten Ordnung halber. Das Problem ist gelöst. Hatte nichts mit den neuen Windows 2008R2-Servern zu tun. Auf dem SBS 2003 war der QoS-Paketplaner in den Eigenschaften der Natzwerkverbindungen nicht aktiviert! Kaum war QoS auf dem SBS2003 aktiviert funktionierte auch die Anmeldung an den neuen Servern problemlos und schnell! Gruß Dirk
  21. Danke für den Link, mit der Flash-Version 11.6 (beta) läuft der IE9 auch auf dem Terminalserver wieder einwandfrei! Gruß Dirk
  22. Hallo, also erstmal bist Du sicher wegen dem Adaptec 1200SA!? Lt. Herstellerwebseite gibt es nur einen 1200A (ATA-Laufwerke)! Lt Webseite gibt es aber einen 1210SA Controller. Letztes Bios für den 1210SA ist von 2005. Da wird es mit der Unterstützung von 2TB wohl schwer. Dann noch eine andere Sache. Der 1210SA ist eine PCI32/64 Bit-Karte! Der Dawicontrol DC-624e ist eine PCI-Express-Karte. Bist Du sicher, dass Dein Server auch PCI-E unterstützt!? Einfach den Conroller tauschen wird nicht funktionieren. Windows 2003 hat ja beim Start keinen Treiber für den neuen Controller. Ich gehe davon aus, dass Du Dein Acronis-Image gerne direkt auf den Server mnit dem neuen Controller zurücksichern willst. Ich kenne jetzt Acronis nicht. Bei vielen Backup-Tools kann man jedoch ein sog. Bare-Metal-Restore machen. Dann kann man im Restoreprozess die notwendigen Treiber für das BS installieren. Gruß Dirk
  23. Hallo, ja kannst Einfach installieren. Der Windows 2003 Lizenzserver kann eh keine Lizenzen für Windows 2008TS verwalten/ausgegeben. Daher sieht der 2003 Lizenzserver den 2008Ts eh nicht. Gruß Dirk
  24. Hallo, plage mich gerade etwas mit der Installation eines Windows 2008R2 als Terminalserver rum. Der TS wird von 6 Usern genutzt, die per ThinClient auf den TS zugreifen. Daher nützen die TC den TS als normalen Desktop incl. Internetzugriff. Installation ist soweit erfolgt. Als Administrator läuft auch Alles. Beim Test mit einem 'normalen' Userkonto stoße ich aber in Zusammenhang mit dem IE9 und Flashplayer auf ein Problem. Seiten die Flash nutzen, werden quälend langsam geladen. So dauert z.B. der Aufruf von www.spiegel.de über den TS mehrere Minuten. Ich habe etwas bei gegoogelt und mußte festestellen, dass es sich offenabr um ein bekanntes Problem im Zusammenhang mit dem IE9 und Flash im Einsatz auf einem TS handelt. Allerdings sind die gefundenen Lösungsansätze (kein Flashplayer, anderer Browser wie Firefox oder Chrome, oder zufügen der betreffenden Seiten zu den vertauenswürdigen Seiten) eher suboptimal, da der Kunde z.B. auf dem Einsatz des IE9 besteht. Hat jemand auch schon einmal dieses Problem gehabt? Gruß Dirk
  25. @all So eine Frage hat im Fred nix zu suchen. Bei Bedarf, können solche Fragen gerne per PN gestellt werden!
×
×
  • Neu erstellen...