Jump to content

KingKompass

Members
  • Gesamte Inhalte

    25
  • Registriert seit

  • Letzter Besuch

Fortschritt von KingKompass

Explorer

Explorer (4/14)

  • Erste Antwort
  • Engagiert
  • Erster eigener Beitrag
  • Eine Woche dabei
  • Einen Monat dabei

Neueste Abzeichen

0

Reputation in der Community

1

Beste Lösungen

  1. Hallo Jan, danke für den Tipp, das hatte ich bei meinen Ganzen Recherchen auch schon gesehen. Da die Benutzer auf einer TS Farm arbeiten, kann ich Sie mir dann auch morgen nach und nach schnappen/übernhemen und gleich noch ein paar Einstellungen die beim Profilwechsel verloren gehen (Signatur, Ansicht, ...) korrigieren. Ich hatte nur die Hoffnung das der Profilwechsel noch abzuwenden ist. Danke! Gruß Michael
  2. Hallo, danke für die Rückmeldung NorbertFe ! Für Outlook Anywhere bestand damals kein Bedarf und den gibt es auch heute noch nicht wirklich, von daher ist das unter Exchange 2010 nie zum Einsatz gekommen. Outlook ist auf aktuellstem Patchstand wie im Eingangspost schon geschrieben. Ich habe über die Kommandozeile den /rpcdiag Befehl bei den betroffenen sich nicht verbindenden Outlookprofilen gestartet, und gesehen das sich der Outlook Client noch mit einem längst vergessenen Exchange 2003 verbinden möchte. (siehe Bild) Hostname: Ex2016 => aktueller Exchange 2016 Hostname: Ex2010 => migrierter Exchange 2010 Hostname Exchange => uralter Exchange Server 2003 der vor ca. 8-10 Jahren migriert wurde Ist es möglich das Outlookprofil wieder auf den erleuchteten Pfad zurückkehren zu lassen ? Wie gesagt bei Neuanlage eines Outlookprofil funktioniert die Verbindung (siehe Screenshots Eingangspost). Hatte zur Sicherheit einmal im DNS einen Eintrag für "Exchange" erstellt der auf die IP vom neuen Exchange 2016 verweist, das bringt aber leider nichts. Vielen Danke schon einmal im Voraus ! Gruß Michael
  3. Hallo zusammen, ich habe einen Exchange 2010 nach Exchange 2016 (CU17) migriert und bin dabei strikt der Anleitung/HowTo von Franky gefolgt. Die virtuellen Verzeichnisse sind angepasst und am Server ist Split DNS eingerichtet, OWA und Smartphone Abgleich funktionieren tadellos. Es ist auch erst nicht aufgefallen, da mein Testbenutzer mit Outlook 2010 (aktuellster Patchstand) nach der Migration auf den Exchange 2016 CU17 keine Probleme hatte. Der Zugriff war nach Eingabe der Anmeldedaten und einem Neustart direkt gegeben, daraufhin habe ich alle Benutzer verschoben, ein letztes Mal mit meinem Testuser getestet und dann den alten Exchange 2010 sauber deinstalliert. Als ich dann weitere Benutzer testen/einrichten wollte, musste ich feststellen das Outlook 2010 keine Verbindung herstellen konnte. Outlook 2010 hängt eine Weile bei dem Punkt "Profil wird geladen" und kommt dann mit der Fehlermeldung "Der Server ist nicht verfügbar". Das betrifft so wie es aussieht alle anderen ca. 60 Benutzer. Erstelle ich ein neues Profil für den entsprechenden Benutzer funktioniert Outlook problemlos, aber die persönlichen Einstellungen der Benutzer gehen verloren, was ich unbedingt vermeiden möchte. Gibt es eventuell eine Möglichkeit das Outlookprofil zu reparieren oder die falschen Verbindungsdaten Daten zu resetten? Restart-WebAppPool MSExchangeAutodiscoverAppPool => wurde bereits durchgeführt, genauso wie ein Serverneustart des Exchange 2016, leider hat beides nicht geholfen. Test-OutlookConnectivity -RunFromServerId *Servername* -ProbeIdentity OutlookMapiHttpSelfTestProbe ergibt folgendes Ergebniss: OutlookMapiHttp.Protocol\OutlookMapiH... 04.07.2020 1... 04.07.2020 1... Succeeded Auch die Verschlüsselungseinstellungen in Outlook habe ich bereits per Richtlinie eingestellt (Daten zwischen Microsoft Outlook und Microsoft Exchange verschlüsseln), hat aber auch keine Abhilfe gebracht. Ich würde mich freuen wenn noch jemand eine Idee hat wie ich Outlook dazu bringe sich wieder mit dem eigentlichen Profil zum Exchange zu verbinden. Mit freundlichen Grüßen Michael
  4. Hallo, ich kann noch nicht sagen ob ich am Wochenende dazu komme , aber ich werde es mal in einer ruhigen Minute ausprobieren und dann den Rechnungswesen Leitungsindex vergleichen bzw die gefühlte Geschwindigkeit. Gruß Michael Hallo, ich schließe es auch nicht aus , es wäre um so besser , so könnte ich eventuell noch einen weiteren WTS auf diesem Host laufen lassen :-) Gruß Michael Hallo, nur um das noch einmal klarzustellen , die Energieeinstellungen im BIOS und auch in Windows waren bereits richtig eingestellt, es war lediglich der zweite Neustart des Hosts der die Besserung brachte. Gruß Michael
  5. Hallo, das sind 2x Intel Xeon E5-2623 v3 (Quadcore mit 3,0GHz und im Turbo bei 3,5GHz). Ich hatte mir gedacht lieber einen höheren Taktwert pro Kern als zu viele Kerne mit sehr niedriger Taktfrequenz. Gruß Michael Hallo, das Offloading hatte ich noch nicht probiert. In der Kanzlei hier arbeiten 48 Benutzer auf drei RDS Hosts, alle noch physischer Natur, verteilt. Gruß Michael Hallo, hatte heute den geplanten Termin mit der Datev und durch Zufall habe ich in der Mittagspause (Wartungsfenster in der Kanzlei) den Host noch einmal durchgestartet , da ich mir alle BIOS Einstellungen anschauen und abfotografieren wollte, um für eventuelle Nachfragen gerüstet zu sein. Die Fotos habe ich dann alle gemacht (HT deaktiviert , Energiesparmodus auf Performance , ...) und der Host ist wieder hochgefahren, nur reagierte das System merklich performanter als zehn Minuten davor. Da ich noch fünf Minuten hatte, bis die User sich wieder anmeldeten, habe ich den PingFile Test der Datev noch einmal laufen lassen , eigentlich ohne große Erwartung, aber siehe da, der Wert lag bei 13.402 MBit/s (Vortag noch bei 1.953 MBit/s) und damit völlig im oder über Soll. Der sehr nette Datevmitarbeiter meldete sich dann auch 20 Minuten später bei mir und wollte mir sagen, dass er Anhand der gesammelten Logs sehen kann, das mit den Leistungswerten des Storages etwas nicht stimmt, hat aber leider selbst keine passende Erklärung oder Lösung parat, eventuell noch einmal einen aktuellen Treiber und Firmware für den Raid-Controller aufspielen. Nach ein paar Sekunden Gespräch konnte ich ihm dann auch endlich Entwarnung geben und habe ihm den heutigen Ablauf erklärt. Zur Sicherheit haben wir noch einen Rechnungswesen Leistungsindex laufen lassen (Minibenchmark - eines der Hauptprogramme der Kanzlei) und auch diese Werte waren wieder sehr gut und über Norm. Falls diese Kennzahlen jemand zum Vergleich haben möchte, bitte einfach melden. Ich bin dann noch eine Runde durch die Kanzlei gelaufen und die einzelnen Teams gefragt, ob sie etwas merken und von vielen kam tatsächlich das Feedback das es wesentlich schneller läuft und solche Nachrichten höre ich sonst sehr selten , gerade in Bezug auf Datevsoftware :-) Der einzige Wehrmutstropfen ist, dass ich noch nicht den Grund für diesen Aussetzer des Storagesystems kenne, denn einen Neustart des Hosts hatte ich bereits direkt nach dem Serverumzug durchgeführt und der hatte noch nicht zu einer Besserung geführt. Der zweite Neustart hat jetzt aber die gewünschte Besserung gebracht, die auch dringend nötig war. Am Freitag kommt schon das nächste größere Datevupdate (DVD9.0), dann kann ich den Server noch einmal herunterfahren und die letzten Logs per UEFI auslesen und an Intel schicken, vielleicht haben die noch eine Erklärung für das Verhalten des Storagesystems. Danach werde ich dann zur Sicherheit noch einmal den Benchmark laufen lassen, aber ich bin vorsichtig optimistisch. Noch einmal vielen Dank an alle, die bei der Fehlersuche mitgeholfen haben und mich mit vielen wichtigen Infos und Lösungsvorschlägen versorgt haben. :jau: :jau: :jau: :thumb1: :thumb1: :thumb1: Gruß vom "glücklichen" Michael :D
  6. Hallo, am Wochenende konnte ich die VM herunterfahren und ihr anstatt 6vCPUs nur 4vCPUs zuordnen und auch den Arbeitsspeicher habe ich von 50GB RAM auf 30GB RAM heruntergeschraubt. Am Montag habe ich dann die ersten Feedbacks der User bekommen und der Tenor war eindeutig , es ist spürbar langsamer geworden. Der Kunde wünscht sich wieder auf die Datevempfehlung (6vCPU / 50 GB RAM) zurückzukehren und wir warten bis sich am Mittwoch der Datevsupport aufschaltet. Ich werde dann berichten. Gruß Michael Hallo, ich kenne das von magnetischen Platten nur so, das der Performancegewinn durch "Write Back" erzielt wird , so das nicht immer erst die Daten zurückgeschrieben und quittiert werden müssen, sondern das diese Aktion mit dem Cache überbrückt wird. Ich dachte das wäre bei SSDs das gleiche Prinzip, da der Cache wahrscheinlich immer noch schneller ist als die SSDs. Werde es aber zur Sicherheit auch noch einmal gegenprüfen. Danke ! Gruß Michael
  7. Hallo, ja, das ist das gleiche Raid Set und auch auf dem gleichen Host, es hat sich nichts an der Hardware geändert. Der Server wurde im Mai beim Kunden aufgebaut und eingerichtet (noch ohne HyperV Rolle), also Laufwerk C: Raid 1 (2x100GB SSD) und Laufwerk D: Raid 10 (4x400GB SSD) kurz danach habe ich den PingFile Test der Datev durchgeführt und diese "Traumwerte" erreicht und war zufrieden und habe mir über das Storage keine weiteren Sorgen mehr gemacht. In den folgenden Wochen kam dann die HyperV Rolle dazu und ich habe die beiden VMs eingerichtet (VM1: reiner DC / VM2: Datevserver File&SQL). Habe bei der Einrichtung der beiden VMs nicht negatives gemerkt , habe aber auch keine weiteren Benchmarks laufen lassen. Dann kam letzte Woche der finale Umzug der Datevsoftware und die Leistung war im Keller, habe es aber auch erst bemerkt als die Benutzer über starke Verzögerungen beim Aufrufen der Progs berichteten. Der Schreibcache des Controller war und ist die ganze Zeit aktiviert gewesen auf beiden Arrays. Der Schreibcache in den Windowseinstellungen ist sowohl auf dem Host als auch in den VMs aktiv. Es wäre schön wenn ich mich bei der Geschichte vertan hätte, aber es ist exakt der gleiche Test einmal ohne HyperV Rolle und einmal mit. Ich hatte die Ergebnisse in einem der Posts vorher schon gepostet und dort auch die Werte vom Server ohne HyperV Rolle also Stand Mai mit aufgeführt. Das mit der Lizenz wäre noch eine kleine Möglichkeit , aber die knapp 2000 Mbit/s sind auch im Vergleich zu zwei anderen Systemen extrem niedrig (7000 und 8000 Mbit/s mit normalen SAS Platten). Trotzdem Danke für die Anregungen ! Gruß Michael Hallo, ich glaube das würde ich mir wirklich beim nächsten Mal sparen , wir wollten nur absolut kein Risiko eingehen. Ich habe heute mit der Datev telefoniert und am kommenden Mittwoch wird das System komplett vom Datevsupport unter die Lupe genommen. Vielleicht haben die noch eine bahnbrechende Idee oder Erklärung. Wie gesagt die Sektorgrößenproblematik ist das einzige was ich gefunden habe was passen könnte , leider bin ich da noch nicht so ganz durchgestiegen. Trotzdem vielen Dank für deine Unterstützung. Falls der Fehler gefunden wird gibt es natürlich ein Feedback. Gruß Michael Hallo, werde auf jedenfall noch eure Empfehlung mit den 4vCPUSs und 32GB RAM für die Datev VM umsetzten, leide hatte ich noch nicht die Möglichkeit die VM herunterzufahren. Ich denke das ich das am Wochenende schaffen werde und berichte dann. Schön wäre es ja, wenn diese Änderung einen Performanceschub bringen würde und der Benchmark vielleicht einfach nur falsche Ergebnisse anzeigt. Gruß und ein schönes Wochenende Michael
  8. Hallo, in dem Host werkeln: 2x100GB SSD Intel S3700 als Raid 1 => Parent Partition 4x400GB SSD Intel S3700 als Raid 10 => Child Partition (mit den 2VMs) Der Controller ist auf Write Back mit BBU gestellt , also arbeite mit Cache und Backup Batterie. Gruß Michael
  9. Hallo, aktuell ist VIWAS noch nicht installiert , weder auf dem Host noch in der VM. VIWAS wird dann schnellstmöglich in der VM, auf dem Datev/FILE/SQL Server, nachinstalliert. Der PingFIle Test übers Netzwerk vom Client (WTS1-3) liegt bei ca. 800MBit/s , aber ehrlich gesagt habe ich mir die Netzwerkperformance noch gar nicht genauer angeschaut, da ich so erschrocken über den Festplatten PingFile Test am Fileserver selbst war. Was mich halt so stutzig macht ist, das der lokale PingFile Festplatten Test im Mai noch bei 13.181 MBit/s lag und nach der Installation der HyperV Rolle und des Serverumzugs er nur noch bei 1800 MBit/s liegt. Ich habe zur Sicherheit diesen Test bei zwei anderen File/SQL Server Systemen durchgeführt, mit und ohne Virtualisierung. Der andere Server (auch Datev) ohne Virtualisierung lag im Raid 10 mit 4x300GB SAS Platten bei 7850 MBit/s und ein anderer File/SQL Server mit aktivierter HyperV Rolle lag er sowohl auf dem Host als auch in der VM bei 8500 MBit/s bei einem Raid 10 mit 6x300 GB SAS Platten. Ich frage mich einfach wo ist die alte Performance vom Mai hin, da ich davon ausgehe das mir die Virtualisierung nicht 4/5 meiner Leistung klaut. Eventlog im Host sieht eigentlich perfekt aus , keine Fehler und keine Warnings. Gruß und Dank Michael
  10. Hallo, ich setzte ein MS Server 2012 R2 mit VHDX Dateien für beide VMs ein. Verstehe ich das richtig das mit dem Einsatz von VHDX diese Problematik passe ist ? Gruß Michael Hallo, habe ich gerade den Bench mit ChrystalDiskMark durchlaufen lassen, hier die Ergebnisse: Aus der Parent Partition: ----------------------------------------------------------------------- CrystalDiskMark 5.0.2 x64 © 2007-2015 hiyohiyo Crystal Dew World : http://crystalmark.info/ ----------------------------------------------------------------------- * MB/s = 1,000,000 bytes/s [sATA/600 = 600,000,000 bytes/s] * KB = 1000 bytes, KiB = 1024 bytes Sequential Read (Q= 32,T= 1) : 1615.206 MB/s Sequential Write (Q= 32,T= 1) : 1068.550 MB/s Random Read 4KiB (Q= 32,T= 1) : 83.472 MB/s [ 20378.9 IOPS] Random Write 4KiB (Q= 32,T= 1) : 82.066 MB/s [ 20035.6 IOPS] Sequential Read (T= 1) : 911.164 MB/s Sequential Write (T= 1) : 1021.558 MB/s Random Read 4KiB (Q= 1,T= 1) : 32.410 MB/s [ 7912.6 IOPS] Random Write 4KiB (Q= 1,T= 1) : 38.719 MB/s [ 9452.9 IOPS] Test : 1024 MiB [D: 87.5% (650.2/743.2 GiB)] (x5) [interval=5 sec] Date : 2015/09/03 19:26:48 OS : Windows Server 2012 R2 Server Standard (full installation) [6.3 Build 9600] (x64) Aus der Child Partition: ----------------------------------------------------------------------- CrystalDiskMark 5.0.2 x64 © 2007-2015 hiyohiyo Crystal Dew World : http://crystalmark.info/ ----------------------------------------------------------------------- * MB/s = 1,000,000 bytes/s [sATA/600 = 600,000,000 bytes/s] * KB = 1000 bytes, KiB = 1024 bytes Sequential Read (Q= 32,T= 1) : 1365.896 MB/s Sequential Write (Q= 32,T= 1) : 1015.492 MB/s Random Read 4KiB (Q= 32,T= 1) : 61.239 MB/s [ 14950.9 IOPS] Random Write 4KiB (Q= 32,T= 1) : 58.350 MB/s [ 14245.6 IOPS] Sequential Read (T= 1) : 511.037 MB/s Sequential Write (T= 1) : 743.693 MB/s Random Read 4KiB (Q= 1,T= 1) : 8.596 MB/s [ 2098.6 IOPS] Random Write 4KiB (Q= 1,T= 1) : 8.630 MB/s [ 2106.9 IOPS] Test : 1024 MiB [D: 75.3% (395.4/524.9 GiB)] (x5) [interval=5 sec] Date : 2015/09/03 19:39:11 OS : Windows Server 2012 R2 Server Standard (full installation) [6.3 Build 9600] (x64) Gruß Michael Hallo, und hier noch einmal die Ergbnisse des PingFile Tests: alter Server (Raid 10 SAS): ============================================================================== pingfile v2.1 Copyright © 2011, DATEV eG ============================================================================== Ergebnisse: =========== S k r i p t - P a r a m e t e r : --------------------------------- Quellordner: D:\PINGFILE_dc2\ Zielordner: d:\windvsw1\ Anzahl: 50 Groesse: 50 MB S c h a e t z u n g L a u f z e i t e n : ------------------------------------------- Fast-Ethernet: 14 Minuten Gigabit-Ethernet: 1 Minute M e s s u n g e n : ------------------- Start: 02.09.2015 19:23:28,56 Ende: 02.09.2015 19:24:14,86 Laufzeit: 46,30 Sek. Uebertragungsfehler: ------------------------------------------------------------ KEINE ============ Sende-Richtung: ------------------ | Datenvolumen: 2500 MB | Zeitdauer: 6,94 Sek. ------------------------------------------------------------ Datenuebertragungsrate [sEND]: 3022,3 MBit/s ============ Empfangs-Richtung: ------------------ | Datenvolumen: 2500 MB | Zeitdauer: 8,04 Sek. ------------------------------------------------------------ Datenuebertragungsrate [RECV]: 2608,8 MBit/s ============ Beide Richtungen: ------------------ | Datenvolumen: 5000 MB | Zeitdauer: 14,98 Sek. ------------------------------------------------------------ Datenuebertragungsrate [bOTH]: 2800,4 MBit/s ============ neuer HyperV Server Parent Partition: ============================================================================== pingfile v2.1 Copyright © 2011, DATEV eG ============================================================================== Ergebnisse: =========== S k r i p t - P a r a m e t e r : --------------------------------- Quellordner: D:\PINGFILE_HV\ Zielordner: d:\winnt\ Anzahl: 50 Groesse: 50 MB S c h a e t z u n g L a u f z e i t e n : ------------------------------------------- Fast-Ethernet: 14 Minuten Gigabit-Ethernet: 1 Minute M e s s u n g e n : ------------------- Start: 02.09.2015 19:49:48,87 Ende: 02.09.2015 19:52:21,68 Laufzeit: 152,81 Sek. [00:02:32,81] Uebertragungsfehler: ------------------------------------------------------------ KEINE ============ Sende-Richtung: ------------------ | Datenvolumen: 2500 MB | Zeitdauer: 11,50 Sek. ------------------------------------------------------------ Datenuebertragungsrate [sEND]: 1823,9 MBit/s ============ Empfangs-Richtung: ------------------ | Datenvolumen: 2500 MB | Zeitdauer: 11,48 Sek. ------------------------------------------------------------ Datenuebertragungsrate [RECV]: 1827,1 MBit/s ============ Beide Richtungen: ------------------ | Datenvolumen: 5000 MB | Zeitdauer: 22,98 Sek. ------------------------------------------------------------ Datenuebertragungsrate [bOTH]: 1825,5 MBit/s ============ neuer HyperV Server Child Partition: ============================================================================== pingfile v2.1 Copyright © 2011, DATEV eG ============================================================================== Ergebnisse: =========== S k r i p t - P a r a m e t e r : --------------------------------- Quellordner: D:\PINGFILE_File\ Zielordner: d:\windvsw1\ Anzahl: 50 Groesse: 50 MB S c h a e t z u n g L a u f z e i t e n : ------------------------------------------- Fast-Ethernet: 14 Minuten Gigabit-Ethernet: 1 Minute M e s s u n g e n : ------------------- Start: 02.09.2015 18:53:20,19 Ende: 02.09.2015 18:55:51,49 Laufzeit: 151,30 Sek. [00:02:31,30] Uebertragungsfehler: ------------------------------------------------------------ KEINE ============ Sende-Richtung: ------------------ | Datenvolumen: 2500 MB | Zeitdauer: 10,74 Sek. ------------------------------------------------------------ Datenuebertragungsrate [sEND]: 1953,0 MBit/s ============ Empfangs-Richtung: ------------------ | Datenvolumen: 2500 MB | Zeitdauer: 10,66 Sek. ------------------------------------------------------------ Datenuebertragungsrate [RECV]: 1967,6 MBit/s ============ Beide Richtungen: ------------------ | Datenvolumen: 5000 MB | Zeitdauer: 21,40 Sek. ------------------------------------------------------------ Datenuebertragungsrate [bOTH]: 1960,3 MBit/s ============ neuer HyperV Server ohne HyperV Rolle (physical) im Mai: ============================================================================== pingfile v2.1 Copyright © 2011, DATEV eG ============================================================================== Ergebnisse: ===========3 S k r i p t - P a r a m e t e r : --------------------------------- Quellordner: C:\PINGFILE_HV\ Zielordner: d:\test\ Anzahl: 50 Groesse: 50 MB S c h a e t z u n g L a u f z e i t e n : ------------------------------------------- Fast-Ethernet: 14 Minuten Gigabit-Ethernet: 1 Minute M e s s u n g e n : ------------------- Start: 20.05.2015 11:51:41,39 Ende: 20.05.2015 11:51:58,70 Laufzeit: 17,31 Sek. Uebertragungsfehler: ------------------------------------------------------------ KEINE ============ Sende-Richtung: ------------------ | Datenvolumen: 2500 MB | Zeitdauer: 1,60 Sek. ------------------------------------------------------------ Datenuebertragungsrate [sEND]: 13109,4 MBit/s ============ Empfangs-Richtung: ------------------ | Datenvolumen: 2500 MB | Zeitdauer: 1,58 Sek. ------------------------------------------------------------ Datenuebertragungsrate [RECV]: 13275,3 MBit/s ============ Beide Richtungen: ------------------ | Datenvolumen: 5000 MB | Zeitdauer: 3,18 Sek. ------------------------------------------------------------ Datenuebertragungsrate [bOTH]: 13191,8 MBit/s ============ Gruß Michael
  11. Hallo, der Server ist leider schon produktiv und die Dienste laufen auch. Aber ich kann nächsten Mittwoch die Server in der Mittagpause (Wartungsfenster) herunterfahren und die Einstellungen einmal testen. Würde dann auch sqlio nutzen , kenne ich zwar noch nicht aber bis dahin habe ich mich eingelesen :-) Gruß und Dank Michael Hallo, Hyperthreading wurde auf anraten der Datev, wegen Einsatzes des Datev SQLServer im BIOS deaktiviert ! Bei Terminalservern wird es hingegen empfohlen. Gruß Michael
  12. Hallo, ich habe bereits mit Intel gesprochen und ein Ticket eröffnet. Leider kann ich das vollständige Log nur per UEFI auslesen und daher muss ich die Server offline nehmen. Die Logs die ich in der Intel WebConsole einsehen kann lassen leider auch nicht darauf schließen das es ein Hardwareproblem ist. Werde am Mittwoch die Logs auslesen und zu Intel schicken. Das was zu dem Thema passen würde ist das Problem mit der Sektorgröße: http://jeffgraves.me/2014/06/03/ssds-on-storage-spaces-are-killing-your-vms-performance/ Gruß Michael
  13. Hallo, habe mir gerade noch einmal die Einstellungen für die Datev VM angeschaut. Für diesen virtuellen Computer ist Folgendes konfiguriert: Sockets: 2 NUMA-Knoten pro Socket: 1 Virtuelle Prozessoren pro NUMA-Knoten: 8 Arbeitsspeicher pro NUMA-Knoten: 30806 MB Ich frage nur noch einmal nach , da mir der IT Service der Datev geraten hat diese Einstellungen zu nutzen: VM1: DC 1vCPU / 4GMB RAM VM2: Datev (File/SQL) 5vCPU / 50GB RAM Gruß Michael
  14. Hallo, auch dir erst einmal ein Dank für dieses schnelle Feedback. Hier das Ergebnis der Abfrage: Name InterfaceDescription Enabled ---- -------------------- ------- LAN2 Intel® Ethernet Controller...#2 False LAN1 Intel® Ethernet Controller X... False Zur Info es sind zwei Intel 10GB onboard Ethernetcontroller im Einsatz. Trotzdem vielen Dank ! Gruß Michael Hallo, könnte denn die Zuweisung der 6vCPUs diesen Einbruch bei der Performance des Storages erklären ? Gruß Michael
  15. Hallo, vielen Dank für die schnelle Rückmeldung ! Sorry , ich habe bei der Kurzübersicht die ich aufgeschrieben habe vergessen zu sagen, das der DC nur DC ist und der Datevserver File und SQL Server ist. Dem Datev-SQL Server werden 40GB RAM von den 50GB der VM zugewiesen. Die VM beinhaltet also nicht nur den FIleserver sondern auch den SQL Server, soll ich trotzdem auf 2vCPU heruntergehen oder besser 4vCPUs oder einen anderen Wert ? Auf der Parent Partition läuft absolut nichts anderes außer Teamviewer und ISO Buster, ich hoffe das sollte nicht der Auslöser dieser Performanceeinbußen sein. Danke für deine Mühen !
×
×
  • Neu erstellen...