Jump to content

RottenSon667

Members
  • Gesamte Inhalte

    62
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von RottenSon667

  1. nach meinem dafürhalten sollte dies gar nichts weiter machen, da vom prinzip her nur dateioperationen laufen, oder? mal ab davon dass das phänomen ja auch mit den sage-dateien auftritt, jedoch nicht mit der sage-eigenen software. und warum kann ich die dateien nur so langsam kopieren während sie im zugriff sind? diese sachen sind mir ein rätzel... mfg maik
  2. beim kopieren ist die richtung egal, geht beides schnell wie es soll. beim query der daten über das programm zieht er sich die daten nach lokal, durchsucht, schreibt das ergebnis zurück und zieht den nächsten teil der datei. leider nur 320byte-weise. das scaleable window-dingens ist deaktiviert, smb-signing per gpo unterbunden. bzw. hat das mein kollege so weit zurückgestellt wie es empfohlen wird. ganz aus machen soll man es glaube ich nicht. diese ansätze haben wir schon versucht. flow-control am server ist an, ebenso wie die fehlerkontrolle über den nic selbst. das führt allerdings dazu dass die checksum nicht mehr vom windows geprüft werden kann, was im wireshark mit "checksum 0 should be xxxx" angemarkert wird. sollte aber nichts machen. hast du sonst noch ideen? mfg maik p.s.: entschuldige die nicht-beachtung von groß- und klein, ich sitz hier mit dem feierabendbier und hatte ztu so später stunde nicht mehr den elan ;) prost!
  3. Ich habe mal mein Ohr ans Netzwerkkabel gehalten als beim Buchhaltungstool der Suchindex erstellt wurde. Das Ganze sieht so aus dass der alle zu lesenden Dateien unendlich oft aufmacht und sich immer nur 320 Byte übertragen lässt. Das erscheint mir etwas lütt in Anbetracht der Tatsache dass die Dateien wesentlich größer sind und ich eine MTU von 1492 im Kopf habe nach der er erst splitten sollte. Habe ich hier einen Denkfehler? MfG Maik
  4. Ich hatte schon diverse NAS von Netgear, Buffalo, QNAP und Synology in den Händen. Domänenintegrieren würde ich nur die beiden letztgenannten. Aber auch dann hat man manchmal noch kryptische Sachen in den Eventlogs der NAS, wie z.b. dass sie sich nicht im DNS registrieren konnten. Das Mailen mir meine QNAPS hier in der Firma auch manchmal. Also normal sollte es gehen wollte ich damit sagen. Die Berechtigungen für die Shares musste ich aber für die Domänen-User extra anlegen, da hat es nicht gereicht die NAS-lokale User- oder Admin-Gruppe zuzufügen. Ich hab leider die Synology`s nicht mehr so im Kopf, müsste da aber ähnlich gewesen sein. NFS sollte dich nicht stören, wichtig sind die SMB/CIFS-Berechtigungen NFS: http://de.wikipedia.org/wiki/Network_File_System BTW: Mach doch mal ein Netzlaufwerk unter Verwendung von Benutzername / PW deines Testusers und sichere da drauf. Falls er meldet dass du keine mehrfachen Verbindungen unter Verwendung verschiedener User machen kannst weißt du dass die Credentials falsch mitgegeben wurden, beim ersten Zugriff auf das NAS. Kannst du verbinden, aber nicht schreiben ist es ein Berechtigungsproblem. Was sagt denn NET USE? MfG Maik
  5. Hat der Benutzer Vollzugriff auf das Share der Synology? Ich hatte mit den Teilen nie Probleme. Domänenintegration ist allerdings auch ne Sache für Sich bei den Teilen. :D Leg mal ein neues Share an. Für mich... Ich weiß, du willst es doch auch. Und ist auch gar nicht viel Aufwand. :D MfG Maik
  6. Leg einfach einen User auf dem NAS an der dem gleicht der den Task anlegt (Username / PW). Dann Leg ein neues Share auf der Synology an, wo nur dieser eine User Vollzugriff hat und schon tut es. Und kein anderer kommt an deine Datensicherungen ran. So habe ich hier getan, und es lüppt wunderbar. Die Windows Server-Sicherung funktioniert wirklich sehr gut, muss ich sagen. Nur die Baremetal-Recovery muss ich noch testen, der Rest wurde schon sehr erfolgreich getestet. MfG Maik
  7. Wie gesagt haben wir Benchmarks mit Tools durchgeführt und die Dateien kopiert, während sie nicht im Netzwerkzugriff waren. Da ist alles Fine. Die Domäne läuft sauber, auch in den anderen Standorten. Das Problem mit der Geschwindigkeit speziell von der Paradox-basierten Software haben wir auch in den anderen Standorten, nur kommt es da weniger zum Tragen da der Datenbestand einfach viel geringer ist. Den Processexplorer habe ich benutzt um eine Ablaufverfolgung des Buchhaltungs-Tools zu erstellen. Sieht normal aus, nur eben verzögert ausgeführt: - Beim Klick auf "Suchen" fängt er an Dateien aus dem Sage-Verzeichnis eines verbundenen Netzlaufwerks zu laden, den Suchindex auf das Netzlaufwerk zurück zu schreiben, die Datei zu schließen. Das tut er für jedes Jahr bzw. jeden Mandanten den er finden kann. Ohne Fehler, Access denied oder sonstwas. Er benötigt am Client 33% CPU, Speicher sind 1,5 von 2Gb frei, Netzauslastung Clientseitig 17%. Vom Server reden wir lieber nicht, da sieht man kaum Ausschlag. Hab ich ja schon mal weiter oben geschrieben. Die Logs sind sauber. Das Netzwerk läuft übrigens auch sauber, auch wenn es mit 2 Switches kaskadiert ist. Das ist aber durch die Bauliche Situation nötig, und die Kaskadierung ist, wie auch die Anbindung des Servers, mit Gigabit bewerkstelligt. Man kann übrigens im Betrieb der Windows Server-Sicherung, welche des Nächtens auf ein QNAP Nas sichert sehen dass das LAN tatsächlich auch zu höherem fähig ist. Ebeno bei normalen Dateikopieraktionen in beiden Richtungen ( Server<->Client ). Ich würde vermuten dass die Verwaltung des Server2008 IRGENDWIE Mist baut wenn Programme auf die Dateibasierten Datenbanken zugreifen. In dem Fall scheint eine Art Locking oder Limitierung für den Zugriff über das Netzwerk zu greifen. Noch mal als Vergleich: Kopierzeiten - Paradox DB-Verzeichnis nachts über LAN -> 25 Sek - Paradox DB-Verzeichnis tagsüber über LAN -> 110 Min (6600 Sek!!!) - Paradox DB-Verzeichnis tagsüber Disk2Disk -> 1 Sek Die Sage Verzeichnisse lassen sich normal schnell kopieren, das Sage arbeitet normal schnell, das Buchhaltungs-Suchindexprogramm um den Faktor >3 verzögert. Was es genau macht steht ja oben. Wir merken: Der Teufel ist eingegrenzt, aber er zeigt sich nicht offensichtlich. :confused: MfG Maik BtW: Danke für die Resonanz. Der Beitrag steht noch in einem anderen IT-Forum, die Resonanz ist = 0. Hier hab ich nach ein Paar Stunden mehr Antworten als dort nach ner Woche..... Danke dass ihr euch mit mir Gedanken macht ;)
  8. Ich hoffe der TO antwortet noch. Fällt dir hierzu etwas ein, Phantomias? http://www.mcseboard.de/windows-server-forum-78/windows-2008-r2-dateiserver-geschwindigkeitsprobleme-filebasierten-datenbanken-171781.html#post1056710
  9. Auf den Clients läuft der Avira Schutz, auf dem Server ist nur das Management installiert. Dies wird leider vom Team hier sorgegeben. Aber auf den Servern arbeitet nur das IT-Team, daher kann ich noch ruhig schlafen. Wir sollten alle wissen was wir tun. Um deine Frage zu beantworten: Das Deaktivieren des Clientseitigen Schutzes bringt leider keine Verbesserung. Firewall können wir auch ausschließen, Diese sind per GPO deaktiviert an den Clients. Auf dem Server von Hand. MfG Maik
  10. Update: Wir sind weiter am testen woran es liegt. Ich war noch einmal vor ort und habe den alten Server vom Netz genommen und den neuen mit Gigabit versogt. Seitdem ist die Auslastung der LAN-Karte im Tagesbetrieb unter 2%, wenn man es mit einem Client richtig drauf anlegt bei 6-7% (während alle anderen normal arbeiten!). Zusätzliche Erkenntnisse sind: - Kopiere ich Dateien aus Shares oder Netzlaufwerken nach lokal erreiche ich am Client 50-60% Netzwerkauslastung an den 100Mbit-Anschlüssen. Das ist Okay. - Netzwerk-Benchmark sieht auch normal aus. - Kopiere ich das Database-Verzeichnis des Paradox-Progrämmchens über LAN vom ursprünglichen Ort mag er die 138Mb in 110 Minuten kopieren - Kopiere ich das Database-Verzeichnis des Paradox-Progrämmchens auf dem Server zeigt er nicht mal das Kopierfensterchen im VNC an, so schnell ist der fertig. - Kopiere ich das Database-Verzeichnis des Paradox-Progrämmchens über LAN von irgendeinem anderen Ort mag er die 138Mb in ~40 Sekunden kopieren - Ebenso verhält es sich mit dem Zugriff auf diese Daten mit den dafür vorgesehenen Programmen: Hier schaffe ich max. die oben erwähnten 12-14% Netzwerkauslastung am Client. Die Rechenleistung limitiert hier nicht, da die Maschinen nur zu ca. 33% maximal ausgelsatet werden bei der Nutzung der Programme. Mir kommt es vor als ob die Probleme vermehrt mit den alten Programmen auftreten würden. das Sage der Buchhaltung hat keine spürbare Verschlechterung. Und es scheint so als ob die Daten irgendwie "gelockt" werden wenn Programme darauf zugreifen. Dieses verhalten ist ja eigentlich normal, jedoch scheint es hier extreme Verzögerungen zu geben wenn alte Tools zugreifen. Ich wäre für Ideen und Anmerkungen wirklich extrem dankbar. MfG Maik
  11. Guten Tag erst einmal, zuerst einmal ein wenig Input: Wir haben einen Server ausgetauscht und somit haben wir nun statt einem Windows 2000 ein Windows 2008 R2 Serverbetriebsystem im Einsatz. Die Maschine fungiert als DC, DNS (logisch) und Fileserver mit DFS (welcher aber nur für Administrative Aufgaben verwendet wird). Auf dem Server liegen Nutzdaten, Speicherdateien für ein selbstgeschriebenes Buchhaltungstool und die Serverversion eines Programms mit der dazugehörigen Paradox-"Datenbank" (wir nennen es mal so obwohl für mich filebasierte Systeme keine Datenbank sind). So viel zur Nutzung un dem Umfeld. Achja, an den Clients ist der Server als einziger DNS eingetragen. Der DNS hat alle nötigen Stammverweise und keine Weiterleitung aktiv, also laut Handbuch installiert. Die Aussage der User, dass auch das Internet langsamer geworden wäre irretierte mich daher Anfangs, kann aber nur hiermit zu tun haben. Nun zu den Problemen: Die Programme laufen langsam. Ich rede hier vom Faktor x4 beim Buchhaltungstool (zur Erklärung: Das Programm erstellt auf Grundlage von Buchungsdaten Suchtabellen und nutzt Diese, Dies dauert in etwa 4 x so lange wie unter Verwendung der Win2K-Maschine, die Suche ist etwa auch 4 x länger), bei der Paradox-Software kann man es schlecht beziffern. Aber mindestens Faktor 2. Kopieren von Daten geht imho normal schnell. Das ist das Interessante! Wenn man nun die Auslastung der Maschine beobachtet erkennt man dass die CPU- und Speicherauslastung lächerlich sind. Die Maschine idlet quasi herum, weil sie mit den Rollen faktisch nicht ausgelastet wird. Die Netzwerkauslastung liegt im Tagesgeschäft bei 4-12%, Lastspitzen bis max. 50% habe ich aber auch schon gesehen. aber selten! Nun noch eine besonderheit: Starte ich das Buchhaltungstool (welches laut Ablaufverfolgung halt die Dateien die es nutzt von vorn bis hinten einliest und den Suchindex in Dateien pro Jahr schreibt) geht die Netzwerkauslastung exakt auf 12,5% hoch, verweilt dort so lange bis das Programm fertig ist und zack -> wieder runter auf das Level des Tagesgeschäfts. Ebenso verhält es sich wenn ich Suchen in der Paradox-DB ausführen lasse. Die Frage ist: was begrenzt hier? Ich habe in der Rollenverwaltung des Servers mal "Diese Rolle prüfen" lassen, beim Dateiserver. Dieser brachte mit diese Meldung: Hat das wirklich Auswirkungen? Die Einstellung muss by Default gekommen sein. Ich hoffe auf Hilfe ;) MfG Maik
  12. Sagt mal, habt ihr ads nun mit der Paradox-Version hinbekommen?
×
×
  • Neu erstellen...