Jump to content

KingKompass

Members
  • Gesamte Inhalte

    25
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von KingKompass

  1. Hallo Jan, danke für den Tipp, das hatte ich bei meinen Ganzen Recherchen auch schon gesehen. Da die Benutzer auf einer TS Farm arbeiten, kann ich Sie mir dann auch morgen nach und nach schnappen/übernhemen und gleich noch ein paar Einstellungen die beim Profilwechsel verloren gehen (Signatur, Ansicht, ...) korrigieren. Ich hatte nur die Hoffnung das der Profilwechsel noch abzuwenden ist. Danke! Gruß Michael
  2. Hallo, danke für die Rückmeldung NorbertFe ! Für Outlook Anywhere bestand damals kein Bedarf und den gibt es auch heute noch nicht wirklich, von daher ist das unter Exchange 2010 nie zum Einsatz gekommen. Outlook ist auf aktuellstem Patchstand wie im Eingangspost schon geschrieben. Ich habe über die Kommandozeile den /rpcdiag Befehl bei den betroffenen sich nicht verbindenden Outlookprofilen gestartet, und gesehen das sich der Outlook Client noch mit einem längst vergessenen Exchange 2003 verbinden möchte. (siehe Bild) Hostname: Ex2016 => aktueller Exchange 2016 Hostname: Ex2010 => migrierter Exchange 2010 Hostname Exchange => uralter Exchange Server 2003 der vor ca. 8-10 Jahren migriert wurde Ist es möglich das Outlookprofil wieder auf den erleuchteten Pfad zurückkehren zu lassen ? Wie gesagt bei Neuanlage eines Outlookprofil funktioniert die Verbindung (siehe Screenshots Eingangspost). Hatte zur Sicherheit einmal im DNS einen Eintrag für "Exchange" erstellt der auf die IP vom neuen Exchange 2016 verweist, das bringt aber leider nichts. Vielen Danke schon einmal im Voraus ! Gruß Michael
  3. Hallo zusammen, ich habe einen Exchange 2010 nach Exchange 2016 (CU17) migriert und bin dabei strikt der Anleitung/HowTo von Franky gefolgt. Die virtuellen Verzeichnisse sind angepasst und am Server ist Split DNS eingerichtet, OWA und Smartphone Abgleich funktionieren tadellos. Es ist auch erst nicht aufgefallen, da mein Testbenutzer mit Outlook 2010 (aktuellster Patchstand) nach der Migration auf den Exchange 2016 CU17 keine Probleme hatte. Der Zugriff war nach Eingabe der Anmeldedaten und einem Neustart direkt gegeben, daraufhin habe ich alle Benutzer verschoben, ein letztes Mal mit meinem Testuser getestet und dann den alten Exchange 2010 sauber deinstalliert. Als ich dann weitere Benutzer testen/einrichten wollte, musste ich feststellen das Outlook 2010 keine Verbindung herstellen konnte. Outlook 2010 hängt eine Weile bei dem Punkt "Profil wird geladen" und kommt dann mit der Fehlermeldung "Der Server ist nicht verfügbar". Das betrifft so wie es aussieht alle anderen ca. 60 Benutzer. Erstelle ich ein neues Profil für den entsprechenden Benutzer funktioniert Outlook problemlos, aber die persönlichen Einstellungen der Benutzer gehen verloren, was ich unbedingt vermeiden möchte. Gibt es eventuell eine Möglichkeit das Outlookprofil zu reparieren oder die falschen Verbindungsdaten Daten zu resetten? Restart-WebAppPool MSExchangeAutodiscoverAppPool => wurde bereits durchgeführt, genauso wie ein Serverneustart des Exchange 2016, leider hat beides nicht geholfen. Test-OutlookConnectivity -RunFromServerId *Servername* -ProbeIdentity OutlookMapiHttpSelfTestProbe ergibt folgendes Ergebniss: OutlookMapiHttp.Protocol\OutlookMapiH... 04.07.2020 1... 04.07.2020 1... Succeeded Auch die Verschlüsselungseinstellungen in Outlook habe ich bereits per Richtlinie eingestellt (Daten zwischen Microsoft Outlook und Microsoft Exchange verschlüsseln), hat aber auch keine Abhilfe gebracht. Ich würde mich freuen wenn noch jemand eine Idee hat wie ich Outlook dazu bringe sich wieder mit dem eigentlichen Profil zum Exchange zu verbinden. Mit freundlichen Grüßen Michael
  4. Hallo, ich kann noch nicht sagen ob ich am Wochenende dazu komme , aber ich werde es mal in einer ruhigen Minute ausprobieren und dann den Rechnungswesen Leitungsindex vergleichen bzw die gefühlte Geschwindigkeit. Gruß Michael Hallo, ich schließe es auch nicht aus , es wäre um so besser , so könnte ich eventuell noch einen weiteren WTS auf diesem Host laufen lassen :-) Gruß Michael Hallo, nur um das noch einmal klarzustellen , die Energieeinstellungen im BIOS und auch in Windows waren bereits richtig eingestellt, es war lediglich der zweite Neustart des Hosts der die Besserung brachte. Gruß Michael
  5. Hallo, das sind 2x Intel Xeon E5-2623 v3 (Quadcore mit 3,0GHz und im Turbo bei 3,5GHz). Ich hatte mir gedacht lieber einen höheren Taktwert pro Kern als zu viele Kerne mit sehr niedriger Taktfrequenz. Gruß Michael Hallo, das Offloading hatte ich noch nicht probiert. In der Kanzlei hier arbeiten 48 Benutzer auf drei RDS Hosts, alle noch physischer Natur, verteilt. Gruß Michael Hallo, hatte heute den geplanten Termin mit der Datev und durch Zufall habe ich in der Mittagspause (Wartungsfenster in der Kanzlei) den Host noch einmal durchgestartet , da ich mir alle BIOS Einstellungen anschauen und abfotografieren wollte, um für eventuelle Nachfragen gerüstet zu sein. Die Fotos habe ich dann alle gemacht (HT deaktiviert , Energiesparmodus auf Performance , ...) und der Host ist wieder hochgefahren, nur reagierte das System merklich performanter als zehn Minuten davor. Da ich noch fünf Minuten hatte, bis die User sich wieder anmeldeten, habe ich den PingFile Test der Datev noch einmal laufen lassen , eigentlich ohne große Erwartung, aber siehe da, der Wert lag bei 13.402 MBit/s (Vortag noch bei 1.953 MBit/s) und damit völlig im oder über Soll. Der sehr nette Datevmitarbeiter meldete sich dann auch 20 Minuten später bei mir und wollte mir sagen, dass er Anhand der gesammelten Logs sehen kann, das mit den Leistungswerten des Storages etwas nicht stimmt, hat aber leider selbst keine passende Erklärung oder Lösung parat, eventuell noch einmal einen aktuellen Treiber und Firmware für den Raid-Controller aufspielen. Nach ein paar Sekunden Gespräch konnte ich ihm dann auch endlich Entwarnung geben und habe ihm den heutigen Ablauf erklärt. Zur Sicherheit haben wir noch einen Rechnungswesen Leistungsindex laufen lassen (Minibenchmark - eines der Hauptprogramme der Kanzlei) und auch diese Werte waren wieder sehr gut und über Norm. Falls diese Kennzahlen jemand zum Vergleich haben möchte, bitte einfach melden. Ich bin dann noch eine Runde durch die Kanzlei gelaufen und die einzelnen Teams gefragt, ob sie etwas merken und von vielen kam tatsächlich das Feedback das es wesentlich schneller läuft und solche Nachrichten höre ich sonst sehr selten , gerade in Bezug auf Datevsoftware :-) Der einzige Wehrmutstropfen ist, dass ich noch nicht den Grund für diesen Aussetzer des Storagesystems kenne, denn einen Neustart des Hosts hatte ich bereits direkt nach dem Serverumzug durchgeführt und der hatte noch nicht zu einer Besserung geführt. Der zweite Neustart hat jetzt aber die gewünschte Besserung gebracht, die auch dringend nötig war. Am Freitag kommt schon das nächste größere Datevupdate (DVD9.0), dann kann ich den Server noch einmal herunterfahren und die letzten Logs per UEFI auslesen und an Intel schicken, vielleicht haben die noch eine Erklärung für das Verhalten des Storagesystems. Danach werde ich dann zur Sicherheit noch einmal den Benchmark laufen lassen, aber ich bin vorsichtig optimistisch. Noch einmal vielen Dank an alle, die bei der Fehlersuche mitgeholfen haben und mich mit vielen wichtigen Infos und Lösungsvorschlägen versorgt haben. :jau: :jau: :jau: :thumb1: :thumb1: :thumb1: Gruß vom "glücklichen" Michael :D
  6. Hallo, am Wochenende konnte ich die VM herunterfahren und ihr anstatt 6vCPUs nur 4vCPUs zuordnen und auch den Arbeitsspeicher habe ich von 50GB RAM auf 30GB RAM heruntergeschraubt. Am Montag habe ich dann die ersten Feedbacks der User bekommen und der Tenor war eindeutig , es ist spürbar langsamer geworden. Der Kunde wünscht sich wieder auf die Datevempfehlung (6vCPU / 50 GB RAM) zurückzukehren und wir warten bis sich am Mittwoch der Datevsupport aufschaltet. Ich werde dann berichten. Gruß Michael Hallo, ich kenne das von magnetischen Platten nur so, das der Performancegewinn durch "Write Back" erzielt wird , so das nicht immer erst die Daten zurückgeschrieben und quittiert werden müssen, sondern das diese Aktion mit dem Cache überbrückt wird. Ich dachte das wäre bei SSDs das gleiche Prinzip, da der Cache wahrscheinlich immer noch schneller ist als die SSDs. Werde es aber zur Sicherheit auch noch einmal gegenprüfen. Danke ! Gruß Michael
  7. Hallo, ja, das ist das gleiche Raid Set und auch auf dem gleichen Host, es hat sich nichts an der Hardware geändert. Der Server wurde im Mai beim Kunden aufgebaut und eingerichtet (noch ohne HyperV Rolle), also Laufwerk C: Raid 1 (2x100GB SSD) und Laufwerk D: Raid 10 (4x400GB SSD) kurz danach habe ich den PingFile Test der Datev durchgeführt und diese "Traumwerte" erreicht und war zufrieden und habe mir über das Storage keine weiteren Sorgen mehr gemacht. In den folgenden Wochen kam dann die HyperV Rolle dazu und ich habe die beiden VMs eingerichtet (VM1: reiner DC / VM2: Datevserver File&SQL). Habe bei der Einrichtung der beiden VMs nicht negatives gemerkt , habe aber auch keine weiteren Benchmarks laufen lassen. Dann kam letzte Woche der finale Umzug der Datevsoftware und die Leistung war im Keller, habe es aber auch erst bemerkt als die Benutzer über starke Verzögerungen beim Aufrufen der Progs berichteten. Der Schreibcache des Controller war und ist die ganze Zeit aktiviert gewesen auf beiden Arrays. Der Schreibcache in den Windowseinstellungen ist sowohl auf dem Host als auch in den VMs aktiv. Es wäre schön wenn ich mich bei der Geschichte vertan hätte, aber es ist exakt der gleiche Test einmal ohne HyperV Rolle und einmal mit. Ich hatte die Ergebnisse in einem der Posts vorher schon gepostet und dort auch die Werte vom Server ohne HyperV Rolle also Stand Mai mit aufgeführt. Das mit der Lizenz wäre noch eine kleine Möglichkeit , aber die knapp 2000 Mbit/s sind auch im Vergleich zu zwei anderen Systemen extrem niedrig (7000 und 8000 Mbit/s mit normalen SAS Platten). Trotzdem Danke für die Anregungen ! Gruß Michael Hallo, ich glaube das würde ich mir wirklich beim nächsten Mal sparen , wir wollten nur absolut kein Risiko eingehen. Ich habe heute mit der Datev telefoniert und am kommenden Mittwoch wird das System komplett vom Datevsupport unter die Lupe genommen. Vielleicht haben die noch eine bahnbrechende Idee oder Erklärung. Wie gesagt die Sektorgrößenproblematik ist das einzige was ich gefunden habe was passen könnte , leider bin ich da noch nicht so ganz durchgestiegen. Trotzdem vielen Dank für deine Unterstützung. Falls der Fehler gefunden wird gibt es natürlich ein Feedback. Gruß Michael Hallo, werde auf jedenfall noch eure Empfehlung mit den 4vCPUSs und 32GB RAM für die Datev VM umsetzten, leide hatte ich noch nicht die Möglichkeit die VM herunterzufahren. Ich denke das ich das am Wochenende schaffen werde und berichte dann. Schön wäre es ja, wenn diese Änderung einen Performanceschub bringen würde und der Benchmark vielleicht einfach nur falsche Ergebnisse anzeigt. Gruß und ein schönes Wochenende Michael
  8. Hallo, in dem Host werkeln: 2x100GB SSD Intel S3700 als Raid 1 => Parent Partition 4x400GB SSD Intel S3700 als Raid 10 => Child Partition (mit den 2VMs) Der Controller ist auf Write Back mit BBU gestellt , also arbeite mit Cache und Backup Batterie. Gruß Michael
  9. Hallo, aktuell ist VIWAS noch nicht installiert , weder auf dem Host noch in der VM. VIWAS wird dann schnellstmöglich in der VM, auf dem Datev/FILE/SQL Server, nachinstalliert. Der PingFIle Test übers Netzwerk vom Client (WTS1-3) liegt bei ca. 800MBit/s , aber ehrlich gesagt habe ich mir die Netzwerkperformance noch gar nicht genauer angeschaut, da ich so erschrocken über den Festplatten PingFile Test am Fileserver selbst war. Was mich halt so stutzig macht ist, das der lokale PingFile Festplatten Test im Mai noch bei 13.181 MBit/s lag und nach der Installation der HyperV Rolle und des Serverumzugs er nur noch bei 1800 MBit/s liegt. Ich habe zur Sicherheit diesen Test bei zwei anderen File/SQL Server Systemen durchgeführt, mit und ohne Virtualisierung. Der andere Server (auch Datev) ohne Virtualisierung lag im Raid 10 mit 4x300GB SAS Platten bei 7850 MBit/s und ein anderer File/SQL Server mit aktivierter HyperV Rolle lag er sowohl auf dem Host als auch in der VM bei 8500 MBit/s bei einem Raid 10 mit 6x300 GB SAS Platten. Ich frage mich einfach wo ist die alte Performance vom Mai hin, da ich davon ausgehe das mir die Virtualisierung nicht 4/5 meiner Leistung klaut. Eventlog im Host sieht eigentlich perfekt aus , keine Fehler und keine Warnings. Gruß und Dank Michael
  10. Hallo, ich setzte ein MS Server 2012 R2 mit VHDX Dateien für beide VMs ein. Verstehe ich das richtig das mit dem Einsatz von VHDX diese Problematik passe ist ? Gruß Michael Hallo, habe ich gerade den Bench mit ChrystalDiskMark durchlaufen lassen, hier die Ergebnisse: Aus der Parent Partition: ----------------------------------------------------------------------- CrystalDiskMark 5.0.2 x64 © 2007-2015 hiyohiyo Crystal Dew World : http://crystalmark.info/ ----------------------------------------------------------------------- * MB/s = 1,000,000 bytes/s [sATA/600 = 600,000,000 bytes/s] * KB = 1000 bytes, KiB = 1024 bytes Sequential Read (Q= 32,T= 1) : 1615.206 MB/s Sequential Write (Q= 32,T= 1) : 1068.550 MB/s Random Read 4KiB (Q= 32,T= 1) : 83.472 MB/s [ 20378.9 IOPS] Random Write 4KiB (Q= 32,T= 1) : 82.066 MB/s [ 20035.6 IOPS] Sequential Read (T= 1) : 911.164 MB/s Sequential Write (T= 1) : 1021.558 MB/s Random Read 4KiB (Q= 1,T= 1) : 32.410 MB/s [ 7912.6 IOPS] Random Write 4KiB (Q= 1,T= 1) : 38.719 MB/s [ 9452.9 IOPS] Test : 1024 MiB [D: 87.5% (650.2/743.2 GiB)] (x5) [interval=5 sec] Date : 2015/09/03 19:26:48 OS : Windows Server 2012 R2 Server Standard (full installation) [6.3 Build 9600] (x64) Aus der Child Partition: ----------------------------------------------------------------------- CrystalDiskMark 5.0.2 x64 © 2007-2015 hiyohiyo Crystal Dew World : http://crystalmark.info/ ----------------------------------------------------------------------- * MB/s = 1,000,000 bytes/s [sATA/600 = 600,000,000 bytes/s] * KB = 1000 bytes, KiB = 1024 bytes Sequential Read (Q= 32,T= 1) : 1365.896 MB/s Sequential Write (Q= 32,T= 1) : 1015.492 MB/s Random Read 4KiB (Q= 32,T= 1) : 61.239 MB/s [ 14950.9 IOPS] Random Write 4KiB (Q= 32,T= 1) : 58.350 MB/s [ 14245.6 IOPS] Sequential Read (T= 1) : 511.037 MB/s Sequential Write (T= 1) : 743.693 MB/s Random Read 4KiB (Q= 1,T= 1) : 8.596 MB/s [ 2098.6 IOPS] Random Write 4KiB (Q= 1,T= 1) : 8.630 MB/s [ 2106.9 IOPS] Test : 1024 MiB [D: 75.3% (395.4/524.9 GiB)] (x5) [interval=5 sec] Date : 2015/09/03 19:39:11 OS : Windows Server 2012 R2 Server Standard (full installation) [6.3 Build 9600] (x64) Gruß Michael Hallo, und hier noch einmal die Ergbnisse des PingFile Tests: alter Server (Raid 10 SAS): ============================================================================== pingfile v2.1 Copyright © 2011, DATEV eG ============================================================================== Ergebnisse: =========== S k r i p t - P a r a m e t e r : --------------------------------- Quellordner: D:\PINGFILE_dc2\ Zielordner: d:\windvsw1\ Anzahl: 50 Groesse: 50 MB S c h a e t z u n g L a u f z e i t e n : ------------------------------------------- Fast-Ethernet: 14 Minuten Gigabit-Ethernet: 1 Minute M e s s u n g e n : ------------------- Start: 02.09.2015 19:23:28,56 Ende: 02.09.2015 19:24:14,86 Laufzeit: 46,30 Sek. Uebertragungsfehler: ------------------------------------------------------------ KEINE ============ Sende-Richtung: ------------------ | Datenvolumen: 2500 MB | Zeitdauer: 6,94 Sek. ------------------------------------------------------------ Datenuebertragungsrate [sEND]: 3022,3 MBit/s ============ Empfangs-Richtung: ------------------ | Datenvolumen: 2500 MB | Zeitdauer: 8,04 Sek. ------------------------------------------------------------ Datenuebertragungsrate [RECV]: 2608,8 MBit/s ============ Beide Richtungen: ------------------ | Datenvolumen: 5000 MB | Zeitdauer: 14,98 Sek. ------------------------------------------------------------ Datenuebertragungsrate [bOTH]: 2800,4 MBit/s ============ neuer HyperV Server Parent Partition: ============================================================================== pingfile v2.1 Copyright © 2011, DATEV eG ============================================================================== Ergebnisse: =========== S k r i p t - P a r a m e t e r : --------------------------------- Quellordner: D:\PINGFILE_HV\ Zielordner: d:\winnt\ Anzahl: 50 Groesse: 50 MB S c h a e t z u n g L a u f z e i t e n : ------------------------------------------- Fast-Ethernet: 14 Minuten Gigabit-Ethernet: 1 Minute M e s s u n g e n : ------------------- Start: 02.09.2015 19:49:48,87 Ende: 02.09.2015 19:52:21,68 Laufzeit: 152,81 Sek. [00:02:32,81] Uebertragungsfehler: ------------------------------------------------------------ KEINE ============ Sende-Richtung: ------------------ | Datenvolumen: 2500 MB | Zeitdauer: 11,50 Sek. ------------------------------------------------------------ Datenuebertragungsrate [sEND]: 1823,9 MBit/s ============ Empfangs-Richtung: ------------------ | Datenvolumen: 2500 MB | Zeitdauer: 11,48 Sek. ------------------------------------------------------------ Datenuebertragungsrate [RECV]: 1827,1 MBit/s ============ Beide Richtungen: ------------------ | Datenvolumen: 5000 MB | Zeitdauer: 22,98 Sek. ------------------------------------------------------------ Datenuebertragungsrate [bOTH]: 1825,5 MBit/s ============ neuer HyperV Server Child Partition: ============================================================================== pingfile v2.1 Copyright © 2011, DATEV eG ============================================================================== Ergebnisse: =========== S k r i p t - P a r a m e t e r : --------------------------------- Quellordner: D:\PINGFILE_File\ Zielordner: d:\windvsw1\ Anzahl: 50 Groesse: 50 MB S c h a e t z u n g L a u f z e i t e n : ------------------------------------------- Fast-Ethernet: 14 Minuten Gigabit-Ethernet: 1 Minute M e s s u n g e n : ------------------- Start: 02.09.2015 18:53:20,19 Ende: 02.09.2015 18:55:51,49 Laufzeit: 151,30 Sek. [00:02:31,30] Uebertragungsfehler: ------------------------------------------------------------ KEINE ============ Sende-Richtung: ------------------ | Datenvolumen: 2500 MB | Zeitdauer: 10,74 Sek. ------------------------------------------------------------ Datenuebertragungsrate [sEND]: 1953,0 MBit/s ============ Empfangs-Richtung: ------------------ | Datenvolumen: 2500 MB | Zeitdauer: 10,66 Sek. ------------------------------------------------------------ Datenuebertragungsrate [RECV]: 1967,6 MBit/s ============ Beide Richtungen: ------------------ | Datenvolumen: 5000 MB | Zeitdauer: 21,40 Sek. ------------------------------------------------------------ Datenuebertragungsrate [bOTH]: 1960,3 MBit/s ============ neuer HyperV Server ohne HyperV Rolle (physical) im Mai: ============================================================================== pingfile v2.1 Copyright © 2011, DATEV eG ============================================================================== Ergebnisse: ===========3 S k r i p t - P a r a m e t e r : --------------------------------- Quellordner: C:\PINGFILE_HV\ Zielordner: d:\test\ Anzahl: 50 Groesse: 50 MB S c h a e t z u n g L a u f z e i t e n : ------------------------------------------- Fast-Ethernet: 14 Minuten Gigabit-Ethernet: 1 Minute M e s s u n g e n : ------------------- Start: 20.05.2015 11:51:41,39 Ende: 20.05.2015 11:51:58,70 Laufzeit: 17,31 Sek. Uebertragungsfehler: ------------------------------------------------------------ KEINE ============ Sende-Richtung: ------------------ | Datenvolumen: 2500 MB | Zeitdauer: 1,60 Sek. ------------------------------------------------------------ Datenuebertragungsrate [sEND]: 13109,4 MBit/s ============ Empfangs-Richtung: ------------------ | Datenvolumen: 2500 MB | Zeitdauer: 1,58 Sek. ------------------------------------------------------------ Datenuebertragungsrate [RECV]: 13275,3 MBit/s ============ Beide Richtungen: ------------------ | Datenvolumen: 5000 MB | Zeitdauer: 3,18 Sek. ------------------------------------------------------------ Datenuebertragungsrate [bOTH]: 13191,8 MBit/s ============ Gruß Michael
  11. Hallo, der Server ist leider schon produktiv und die Dienste laufen auch. Aber ich kann nächsten Mittwoch die Server in der Mittagpause (Wartungsfenster) herunterfahren und die Einstellungen einmal testen. Würde dann auch sqlio nutzen , kenne ich zwar noch nicht aber bis dahin habe ich mich eingelesen :-) Gruß und Dank Michael Hallo, Hyperthreading wurde auf anraten der Datev, wegen Einsatzes des Datev SQLServer im BIOS deaktiviert ! Bei Terminalservern wird es hingegen empfohlen. Gruß Michael
  12. Hallo, ich habe bereits mit Intel gesprochen und ein Ticket eröffnet. Leider kann ich das vollständige Log nur per UEFI auslesen und daher muss ich die Server offline nehmen. Die Logs die ich in der Intel WebConsole einsehen kann lassen leider auch nicht darauf schließen das es ein Hardwareproblem ist. Werde am Mittwoch die Logs auslesen und zu Intel schicken. Das was zu dem Thema passen würde ist das Problem mit der Sektorgröße: http://jeffgraves.me/2014/06/03/ssds-on-storage-spaces-are-killing-your-vms-performance/ Gruß Michael
  13. Hallo, habe mir gerade noch einmal die Einstellungen für die Datev VM angeschaut. Für diesen virtuellen Computer ist Folgendes konfiguriert: Sockets: 2 NUMA-Knoten pro Socket: 1 Virtuelle Prozessoren pro NUMA-Knoten: 8 Arbeitsspeicher pro NUMA-Knoten: 30806 MB Ich frage nur noch einmal nach , da mir der IT Service der Datev geraten hat diese Einstellungen zu nutzen: VM1: DC 1vCPU / 4GMB RAM VM2: Datev (File/SQL) 5vCPU / 50GB RAM Gruß Michael
  14. Hallo, auch dir erst einmal ein Dank für dieses schnelle Feedback. Hier das Ergebnis der Abfrage: Name InterfaceDescription Enabled ---- -------------------- ------- LAN2 Intel® Ethernet Controller...#2 False LAN1 Intel® Ethernet Controller X... False Zur Info es sind zwei Intel 10GB onboard Ethernetcontroller im Einsatz. Trotzdem vielen Dank ! Gruß Michael Hallo, könnte denn die Zuweisung der 6vCPUs diesen Einbruch bei der Performance des Storages erklären ? Gruß Michael
  15. Hallo, vielen Dank für die schnelle Rückmeldung ! Sorry , ich habe bei der Kurzübersicht die ich aufgeschrieben habe vergessen zu sagen, das der DC nur DC ist und der Datevserver File und SQL Server ist. Dem Datev-SQL Server werden 40GB RAM von den 50GB der VM zugewiesen. Die VM beinhaltet also nicht nur den FIleserver sondern auch den SQL Server, soll ich trotzdem auf 2vCPU heruntergehen oder besser 4vCPUs oder einen anderen Wert ? Auf der Parent Partition läuft absolut nichts anderes außer Teamviewer und ISO Buster, ich hoffe das sollte nicht der Auslöser dieser Performanceeinbußen sein. Danke für deine Mühen !
  16. Hallo, ich hatte ja bereits geschrieben das ich ein Feedback geben werde, wenn die Umstellung (Serverumzug) durch ist. Letzten Freitag war es dann endlich soweit , hatten in einem ersten Anlauf noch Probleme mit dem Server-Anpassungsassistenten der Datev gehabt, dieser lief dann aber am Freitag fehlerfrei durch und das System wurde auf den neuen HyperV Host migriert. Nun habe ich aber ein extremes Performanceproblem bei den Datevanwendungen. Nach einigen Tests die Datev von Haus aus mitliefert (Laufzeitfaktorenmessung Servicetool, ...) bin ich auf das Tool "PingFile" der Datev gestoßen. Ursprünglich wird das Tool zum groben messen von Netzwerkverbindungen genutzt (50MB Pakete senden empfangen und dann die Zeit auswerten), wird aber auch empfohlen für die Fehlerdiagnose für Harddisk Performance. Referenzwerte der Datev: PC System: über 1000MBit/s Datevfileserver: über 3500MBit/s Der alte physikalische Server der Kanzlei hatte einen Wert von 2800MBit/s. Der neue Server (MS Server 2012R2) hatte im Mai 2015 vor der Installation der Hyper-V Rolle einen fabelhaften Wert von 13.181 MBit/s. Das resultiert wahrscheinlich aus den vier Intel Server SSDs (S3700) im Raid 10 Verbund. Nach der Installation der Hyper-V Rolle und dem Serverumzug ist diese Performance sowohl auf dem Host selbst , als auch in der VM auf einen sehr schlechten Wert von 1800 MBit/s eingebrochen. Der Intel Raidcontroller gibt keine Fehlermeldungen und auch die SSDs melden keine Smart oder sonstige Fehler, von daher kann ich mir die Einbußen nicht erklären. Auch das zweite Array im neuen Server zwei 100GB Intel S37000 SSDs im Raid 1 Verbund liefert das gleiche Ergebnis. Ich bin leider total ratlos und frustriert. Hardwareausstattung: 2x Intel Xeon E5-2623v3 Intel Raidcontroller RS25AB080 2x 100GB Intel S3700 SSD RAID 1 für den Host 4x 400GB Intel S3700 SSD RAID 10 für die VMs 64GB RAM Hyper-V 2012R2 VM1 => DC , fixed Disk VHDX, 1vCPU , 4GB RAM VM2 => Datevserrver, fixed Disk , 6vCPU , 50 GB RAM Das einzige was ich gefunden habe um das Problem zu fassen wäre ein fehlerhaftes Allignment oder Blocksize der SSDs in Bezug auf die VMs. Leider stecke ich da nicht so wirklich drin im Thema und bräuchte eure Hilfe, falls es das Problem sein sollte. Die SSDs haben laut Raidcontroller eine Logical Sector Size von 512B und eine Physikal Sector Size von 4KB und gelten damit als 512e Laufwerke. Angeblich kann es genau in dieser Konstellation , besonders beim Einsatz von SSDs (512e), Probleme mit der Performance geben , Stichwort RMW (read-modify-write) . Vielen Dank schon einmal im voraus für jeden hilfreichen TIPP oder Ansatz der zu Lösung meines Problems führt ! Gruß Michael
  17. Hallo, danke, dann werde ich System und Datenbanken in einer separaten VHDX unterbringen. Hallo, der Hinweis ist richtig und wichtig , hatte ich auch auf dem Schirm, hätte mich aber davon abbringen lassen , wenn ich in dieser Konstellationen mit "zu viel" Performanceeinbußen im Vergleich zu den anderen beiden Varianten zu rechnen hätte. Danke ! Hallo, da sich die Herstellerangaben (Datev) mit euren Tipps und Empfehlungen größtenteils decken, werde ich es auch so machen. Danke ! Hallo, ja, es war die Datev direkt und kein Systempartner. Ich denke der Datevmitarbeiter stützt sich auf das, was ich ihm per Mail geschrieben habe und eventuell zieht er die Informationen aus den übertragenen Servicetoolaufzeichnungen mit dazu, die stehen der Datev auch zur Verfügung, damit hätte er grobe Kenntnisse über die Hardwareausstattung fast aller Server. In wie fern meinst du denn, dass das Sizing sportlich ist ? Das mit der DMS Trennung steht noch aus , dazu wird noch ein betreuender Datev-Systempartner angesprochen der sich ausschließlich um das DMS System kümmert. Danke ! Gruß Michael
  18. Hallo, ich denke einen ähnlichen Denkansatz hatte der Datevmitarbeiter auch , ob das nun pauschal richtig ist, ist dann ja noch ein anderes Thema. Gruß Michael Hallo, sorry, dann habe ich mich wohl falsch ausgedrückt, ich war bzw bin für alles offen ;-) hatte aber bei meinen drei Varianten keinen direkten Favoriten. Nach dem Statement von Nils fällt eine Option von meinen Dreien weg und daher die Frage, lieber zwei VHDX Dateien, jeweils für C: und D: (OS und Daten) oder eine VHDX Datei und alles auf Laufwerk C: (OS und Daten). Danke und Gruß Michael
  19. Hallo, dann die Frage, lieber zwei VHDX Dateien, jeweils für C: und D: (OS und Daten) oder eine VHDX Datei und alles auf Laufwerk C: (OS und Daten) Danke und Gruß Michael
  20. Hallo, ich hatte ja versprochen gehabt euch auf dem laufenden zu halten. Der Datev Teamservice hat mittlerweile übrigens auch sein Feedback gegeben, hier ein Auszug aus der Mail vom Datevsupport: "Guten Morgen Herr, ich komme auf Sie zu aufgrund Ihrer Anfrage zur Virtualisierung Ihrer Serversysteme. Ihre angedachte Konfiguration eignet sich sehr gut für die Virtualisierung der beiden Server-Systeme (DC + DATEV-SQL/DMS). Heute kommen in 99% der Fälle virtualisierte Systeme zum Einsatz, die Einbußen hinsichtlich Performance durch die Virtualisierung sind zu vernachlässigen. Ich empfehle Ihnen folgendes Setup: DC: 1 vCPU, 4 GB RAM SQL: 6 vCPU, 50 GB RAM (40 GB Zuweisung zum SQL-Server) Sie könnten auf diesem System durchaus noch einen Remote-Desktop-Server betreiben und damit Ihr System „WTS3“ ablösen, dann natürlich mit angepasster Konfiguration. Bitte beachten Sie: Hyper-V unterstützt keine angeschlossenen USB-Geräte, daher benötigen Sie ggf. (sofern Sie am SQL-Server einen Lima-Server betreiben wollen) noch ein USB-to-LAN-Device. Achten Sie bitte darauf, im BIOS-Setup Ihres Systems bzgl. der CPU-Energieverwaltung „Maximale Leistung“ (o. ä.) einzustellen, da es ansonsten zu Einbußen in der Performance kommen kann. Bitte kommen Sie bei weiteren Fragen gerne auf mich zu!" Also alles im allen, wurden eure sehr hilfreichen Antworten und Ratschläge seitens der Datev auch noch einmal bestätigt. Bei der Vorbereitung des Projektes bin ich aber noch auf eine andere Fragestellung gekommen, die ich mir leider bis jetzt noch nicht selbst beantworten konnte. Von daher hoffe ich noch einmal auf Feedback von eurer Seite, vielleicht mache ich mir bei dieser Thematik auch zu viele Gedanken und es ist zu vernachlässigen. Es geht um die Partitionierung bzw Aufteilung der VHDX Dateien in der virtuellen Maschine. Um das noch einmal kurz in Erinnerung zu rufen, ich plane einen Host mit zwei virtuellen Maschinen auf einem RAID 10 (BBU / Intel DC S3700 SSD) mit einer Gesamtkapazität von ca 800 GB. Der DC (keine weiteren Rollen) bekommt eine "dynamic virtual hard disk" mit 50 GB zugewiesen, ich denke das sollte erst einmal reichen. Für den Datev/SQL/File Server habe ich mich nach langen Recherchen für eine "fixed virtual hard disk" (650GB) entschieden. Jetzt stellt sich für mich nur die Frage, erstelle ich nur eine VHDX Datei (fixed disk) und installiere sowohl das OS (Server2012R2) als auch die restlichen Daten inklusive SQL DBs und DMS in dieser VHDX Datei auf nur einer Partition (C:) oder partitioniere ich innerhalb der VHDX Datei noch einmal , so das , wie ich es vom physikalischen Server gewohnt bin, Laufwerk C: für das OS und Laufwerk D: für die Daten habe. Die nächste Alternative wäre, zwei VHDX Laufwerke für die Datev/SQLFile VM zu erstellen und zum Beispiel eine VHDX mit 50GB für das OS zu erstellen und eine zweite VHDX mit 600GB für die Daten, das ganze wiederum unter dem Gesichtspunkt der maximal möglichen Performance. Macht die ganze Partitionierung innerhalb einer VHDX Datei bzw Aufteilung auf verschiedene VHDX Dateien in meinem Fall überhaupt Sinn ? Vielen Dank noch einmal im voraus für euer Feedback ! Gruß Michael
  21. Hallo Jan, ich denke das wird wirklich schwierig ohne die komplette Umgebung genau zu kennen und würde hier wahrscheinlich auch den Rahmen sprengen. Das mit der myUTN werde ich antesten und wahrscheinlich dann auch einsetzten. Wenn ich die hilfreichen Antworten von euch richtig deute, scheint die Mehrheit in diesem Fall für die Vorteile der Virtualisierung zu sein und würden die geschätzten 4-6% Overhead / Verlustleistung in Kauf nehmen. Wie Nils schon sagte, den DC noch als zweite virtuelle Maschine auf den neuen Host und vielleicht für später noch die Trennung des DMS System überlegen. Dann Danke ich noch einmal in die Runde :jau: , für die kompetenten und hilfreichen Antworten :thumb1: und werde den Weg der Virtualisierung gehen und "hoffen" das die Datev Software den Flaschenhals darstellt und ich bzw die ca. 40 Mitarbeiter die geschätzten 4-6% Performanceverlust nicht spüren ! Falls es den einen oder anderen , der vielleicht gerade eine ähnliche Überlegung anstellt, hilft, könnte ich auch gerne nach der Umstellung Anfang Juli berichten. Gruß Michael
  22. Hallo, der Datev Teamservice ist schon angeschrieben und ich warte auf Rückantwort, wobei Datev meist keine direkte Unterstützung und Empfehlung für Virtualisierungslösungen gibt. Und das mit dem "pingelig" kann ich unterschreiben, wobei das aber auch nicht immer unbedingt schlecht sein muss ;) Sorry, hatte ich vergessen zu schreiben , im Falle einer Virtualisierung würde der DC natürlich in einer separaten VM laufen, die bessere Rollentrennung wäre dann auch ein weiteres pro Argument für die mögliche Virtualisierung. Danke ! Gruß Michael Hallo Jan, die meisten Dokumente der Info DB, in Bezug auf Performance und Virtualisierung, hatte ich schon durchgearbeitet, das Dongleproblem ist mir auch schon über den Weg gelaufen , ich hätte dafür den Backupserver oder den zweiten physikalischen DC in Betracht gezogen, aber die Variante mit dem USB zu Lan Adapter hört sich auch nicht schlecht an, habe ich bisher aber leider noch nie testen können. Ist der SEH myUTN 50a zu empfehlen ? Das mit der Aufsplittung von DMS und dem Rest der Datev war auch schon mal ein Gedankenspiel, ist aber erst einmal wieder in den Hintergrund getreten. Würdest du den DMS Server nur in eine separate VM packen oder ganz von dem aktuellen Host trennen und dafür weitere Hardware anschaffen ? Der Kommserver ist schon immer eine separate Kiste gewesen und wird auch in Zukunft bleiben, ob dann später auch in einer VM wird sich noch ergeben, dann aber nicht mehr auf dem Host für die SQL Datenbanken. Danke ! Gruß Michael
  23. Hallo, das stimmt allerdings, die Replikation war auch nur ein mögliches Beispiel der Vorteile von Virtualisierung, in meinen Fällen finde ich die Hardwareunabhängikeit und die damit erreichte bessere Verfügbarkeit das entscheidende pro Kriterium. Eigentlich wollte ich damals "nur" die generelle Frage stellen, wie hoch in etwa der Performanceverlust durch die Virtualisierungsschicht beim aktuellen Hyper-V ist , aber ich merke ohne konkrete Werte und Spezifikation ist das nicht genau zu beantworten. Die von euch gegebene Antworten haben mir aber schon weiter geholfen um das Ganze besser einordnen zu können. In meinem konkreten Fall geht es aktuell um einen alten Server 2003 R2 (64bit), 16GB RAM und ein RAID 10 aus 4x300GB SAS 15k Platten, der durch eine neue Hardware ersetzt werden soll. Der alte Server übernimmt aktuell die Rolle eines DCs und hat die Branchensoftware Datev installiert (SQL Server/DMS Server). Die Datenbanken fassen zusammen ca 130GB. Auf diesen Server greifen ca. 40 Mitarbeiter von drei Terminalservern (Server 2012 R2) aus zu. Das Raid 10 wurde damals in zwei Partitionen unterteilt C: und D: wobei auf D: die SQL Datenbanken und das DMS System laufen. Dieser Server sollte in seinen Funktionen eins zu eins durch neue Hardware und neues OS (Server 2012 R2 ) ersetzt werden. Die Hardwarespezifikationen des neuen Servers sind folgende: 2x Xeon E5-2623v3 64GB RAM Raid1 2x SSD für OS Raid10 4x SSD für Daten (SQL Datenbank) MS Server 2012 R2 Die Frage die ich mir nun gestellt hatte, war das System eins zu eins ersetzen (physikalisch zu betreiben) oder doch, den wie ich bis jetzt erfahren habe, geringen Overhead in kauf nehmen und die Vorteile der Virtualisierung zu nutzen. Leider fehlt mir da selbst, genau für diese Konstellation, etwas die Praxiserfahrung. Durch eure Hilfe bin ich der Überzeugung das ich in beiden Konstellationen nicht dramatisch viel verkehrt mache, trotzdem bin ich natürlich bemüht , wie wahrscheinlich auch ihr, nahe an das mögliche Optimum zu kommen. Vielen Dank noch einmal für eure Hilfe und sachdienlichen Hinweisen bzw Erfahrungswerte ;)
  24. Hallo, erst einmal vielen Dank für die vielen und schnellen Rückmeldungen , das hilft mir das Ganze schon etwas besser einordnen zu können ! Hallo, ich hoffe das meine Frage nicht wirklich komplett "sinnfrei" ist :) , ich hätte gedacht, wenn es zum Beispiel um Serversizing geht, wäre es doch ziemlich "sinnvoll" zu wissen , mit wieviel Verlustleistung / Performanceeinbußen / Overhead ich durch die Virtualisierung per se schon zu rechnen habe. Ohne dieses Wissen stelle ich mir ein präzises Serversizing schwierig vor, natürlich kann ich auch leicht überdimensionieren und mich der Frage nicht stellen. Und das nur ein Gast auf dem Host läuft war auch nur ein Beispiel, um eine bessere Vergleichbarkeit zu einer physikalischen Maschine herzustellen. Mich wundert es auch das ich kaum Informationen zu diesem Thema im Internet gefunden habe. Hallo, das meine Frage nicht in allen Punkten mit einem einfachen "5%" zu beantworten sind, wird mir jetzt auch klar , dafür müßte man alle Eckpunkte des physischen und virtuellen Servers (CPU / RAM / Storage / ...) einzeln auf beiden Systemen benchen, aber die bisherigen Antworten haben mir schon einen groben Überblick gegeben in welche Richtung es geht. Vielen Dank noch einmal dafür ! ------------------- Ein Beispiel aus der Praxis wäre für mich, ob ich z.B einen SQL Server lieber auf einer bestehenden physikalischen Maschine installiere, um das letzte bisschen an "Performance" herauszukitzeln, oder ich dieselbe Hardware verwende und das System virtualisiere, um die Vorzüge der Virtuallisierung mit Hyper-V nutzen zu können (Replikation / Verfügbarkeit / ...). Liegt der Overhead dann nur bei den genannten 4-6 % würde ich zur Virtualisierung tendieren , wäre der Overhead bei weit über 10%, würde ich wahrscheinlich das System lieber auf einem physikalischen Server installieren. Gruß Michael
  25. Hallo, das ist heute mein erster Post in diesem Forum, ich lese zwar schon seit einiger Zeit sehr interessiert mit, habe aber nun eine Frage, die ich mir auch nach längerem Suchen (WEB/Forum) nicht beantworten konnte. Nun hoffe ich auf eure Erfahrung und fachliche Kompetenz. Die Frage ist eher allgemein gehalten, es geht dabei um den Performanceverlust durch Virtualisierung, insbesondere unter Hyper-V (Server 2012 R2). Welche Einbußen habe ich durch die Virtualisierungsschicht des aktuellen Hyper-V zu erwarten. Als Beispiel könnte man einen physikalischen SQL Server nehmen, wobei natürlich auch jeder andere Servertyp in Frage kommt. Einmal würde ich diese Maschine als physikalische Maschine aufsetzten: 2x Xeon E5-2623v3 64GB RAM Raid1 2x SSD für OS Raid10 4x SSD für Daten (SQL Datenbank) Und einmal würde ich die gleiche Maschine unter Hyper-V zum Einsatz bringen und dort auch nur EINEN Server (Gast) installieren um das ganze vergleichbar zu machen. 2x Xeon E5-2623v3 64GB RAM Raid1 2x SSD für Host Raid10 4x SSD für Gäste Wie hoch sind nun die Leistungseinbußen (prozentual eventuell auch gefühlt :) ) die durch die Virtualisierungsschicht des Hyper-V unter Server 2012 R2 entstehen. Ich habe dazu nur ein paar ältere Dokumente gefunden, aber leider nichts aktuelles was den Hyper-V unter Server 2012 R2 betrifft. Vielleicht kann jemand etwas dazu sagen, bzw hat Quellen für Benchmarks oder andere Infos, gerne auch persönliche Erfahrungen. Vielen Dank schon einmal im voraus für eure Mühen ! Mit freundlichen Grüßen Michael
×
×
  • Neu erstellen...