Jump to content

bigthe

Members
  • Gesamte Inhalte

    93
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von bigthe

  1. ich habe nichts händisch gemacht es war dann einfach die Datensicherung zudem hatte ich ein script dazu das in der aufgabenplanung läuft
  2. Ok ich werde mich mit der SMTP Zustellung beschäftigen. Ja genau es lief keine Datensicherung auf dem Server, diese habe ich nun eingerichtet. Ich hoffe das ich bald etwas Budget bekomme um mal eine Teststrecke aufzubauen dort würde ich das alles mal auprobieren OHNE POPCON und dann beim Kunden ändern. Ich danke für die schnellen Antworten!
  3. Hallo, ich habe einen Server zur Betreuung übernommen. Dort läuft auf einer separaten VM ein Windows Server 2016 mit einem Exchange 2016. Die VM hat leider nur 2vCPUs und 24 GB RAM zur Verfügung, trotzdem gibt es Ressorcentechnisch keine knappheit. Der Server war nicht gewartet, so musste ich erstmal ca. 200 GB an Logs löschen sowie inaktive Postfächer usw. Dazu habe ich das neueste CU für Exchange 2016 installiert sowie alle sonstigen Windows Updates. Jetzt bin ich aber an einem Punkt wo ich mit meinem Anfänger Wissen zu Exchange einfach nicht mehr weiterkomme, habe auch schon im Internet gesucht aber nichts Passendes gefunden, meine Kollegen wissen leider auch nichts dazu. Und zwar ruft der Exchange mittels dem Programm popCon (Connector) kontinuierlich Mails über 1&1 ab (nachdem ich das eingestellt hatte). Das tut er für 15 Postfächer. Jetzt ist mir aufgefallen, dass ein kompletter Vorgang zum Abrufen der Mails ca. 15-20 Minuten dauert. Auf Nachfrage bei den Mitarbeitern sagten diese mir das sie sich daran gewöhnt hätten das Mails teilweise über 20 min brauchen. Senden von Mails geht sofort. Jetzt meine Frage ob das "normal" ist? Wenn nicht, wie kann ich vorgehen um das aus meiner Sicht Problem zu lösen? Viele Grüße!
  4. Hi, danke für den Tipp. Ich weiß nicht ob es nun daran lag oder das ich einen anderen Treiber verwendet habe. Es hat nun funktioniert! VG
  5. Hallo, ich möchte einen lokalen Drucker per RDP Session übertragen auf einen anderen Standort. Die Standorte sind per IPsec verbunden, der Drucker ist im Netzwerk aber nur lokal installiert (derzeit kein Printserver vorhanden). Windows 10 Pro auf Client, Windows Server 2019 auf dem TS. Es ist ein ziemlich alter Canon Drucker, der Treiber dafür ist ein generischer PCL6 Treiber von Canon. Bei den anderen Mitarbeitern in der Domäne funktioniert es ohne Problem, nur bei diesem einen neuen Benutzer leider nicht. Berechtigungen etc. im AD habe ich überprüft und der hacken das die lokalen Ressourcen übertragen werden ist gesetzt. Ich bitte um eure Hilfe und Tipps. MfG Robin
  6. 5 Jahre eingeschränkte Garantie oder bis 1.200 TB TBW ist ein guter Wert Natürlich gibt es Software von Thomas-Krenn die das deckelt und eine Wartung wird natürlich auch ausgeführt. Hoff das beruhigt dich
  7. Also ich habe ein SW-Raid Controller on Board C622 und das zeigt mir auch fehlerhafte Platten an. Backup usw ist natürlich mehrfach vorhanden. Thomas-Krenn bietet derzeit diese 250 GB Samsung SSD 860 EVO (M.2 SATA III 2280) für Server an...
  8. Hallo, nur zur Info, der Wechsel der VM wo die SQL Datenbank lief auf SSDs ist erfolgt und brachte Erfolg! Ausserdem durfte ich eine Server für eine Kunden konfektionieren und habe mich durchgesetzt! Sowohl das Host als auch das VM System laufen komplett auf SSDs zwar mit einem SW-Raid aber immerhin. Die Kunden sind zufrieden! Mein Chef will nicht auf SSDs seiner Meinung nach sind die anfällig und haben kurze Lebensdauer. Auch diverse Artikel aus Fachzeitschriften und gute Argumente können ihn nicht überzeugen. Ich würde gern noch einen Schritt weiter gehen und sogar eine 250 GB Samsung SSD 860 EVO (M.2 SATA III 2280) verbauen für den Host (die soll deutlich längere Lebensdauer haben). Wie ist eure Meinung dazu? MfG
  9. Yuhu, hab beides! Die zwei Wochen wird er aushalten dann gibts sowieso SSDs
  10. Hallo, kurzes Update: Habe die Energieeinstellungen auf dem Server Core und den VMs auf Höchstleistung außerdem habe ich den Cache über den Geräte-Manager aktiviert auf den Laufwerken. Es läuft nun deutlich schneller das belegen auch die Zugriffszeiten: Command Line: diskspd.exe -c16G -d300 -r -w30 -b8k -t4 -o8 -h -L c:\Test.dat Input parameters: timespan: 1 ------------- duration: 300s warm up time: 5s cool down time: 0s measuring latency random seed: 0 path: 'c:\Test.dat' think time: 0ms burst size: 0 software cache disabled hardware write cache disabled, writethrough on performing mix test (read/write ratio: 70/30) block size: 8192 using random I/O (alignment: 8192) number of outstanding I/O operations: 8 thread stride size: 0 threads per file: 4 using I/O Completion Ports IO priority: normal System information: computer name: NephroVM start time: 2020/08/13 13:48:24 UTC Results for timespan 1: ******************************************************************************* actual test time: 300.00s thread count: 4 proc count: 12 CPU | Usage | User | Kernel | Idle ------------------------------------------- 0| 1.09%| 0.34%| 0.74%| 98.91% 1| 1.55%| 0.56%| 0.99%| 98.45% 2| 1.03%| 0.34%| 0.69%| 98.97% 3| 1.25%| 0.25%| 1.00%| 98.75% 4| 3.25%| 1.98%| 1.27%| 96.75% 5| 3.86%| 2.45%| 1.41%| 96.14% 6| 2.42%| 0.52%| 1.90%| 97.58% 7| 1.67%| 0.33%| 1.34%| 98.33% 8| 1.21%| 0.40%| 0.81%| 98.79% 9| 2.80%| 1.36%| 1.43%| 97.20% 10| 0.73%| 0.17%| 0.56%| 99.27% 11| 0.39%| 0.15%| 0.24%| 99.61% ------------------------------------------- avg.| 1.77%| 0.74%| 1.03%| 98.23% Total IO thread | bytes | I/Os | MiB/s | I/O per s | AvgLat | LatStdDev | file ----------------------------------------------------------------------------------------------------- 0 | 309174272 | 37741 | 0.98 | 125.80 | 63.790 | 127.440 | c:\Test.dat (16GiB) 1 | 311304192 | 38001 | 0.99 | 126.67 | 63.347 | 127.734 | c:\Test.dat (16GiB) 2 | 306118656 | 37368 | 0.97 | 124.56 | 64.393 | 129.501 | c:\Test.dat (16GiB) 3 | 310222848 | 37869 | 0.99 | 126.23 | 63.497 | 127.835 | c:\Test.dat (16GiB) ----------------------------------------------------------------------------------------------------- total: 1236819968 | 150979 | 3.93 | 503.26 | 63.754 | 128.126 Read IO thread | bytes | I/Os | MiB/s | I/O per s | AvgLat | LatStdDev | file ----------------------------------------------------------------------------------------------------- 0 | 217112576 | 26503 | 0.69 | 88.34 | 74.193 | 100.603 | c:\Test.dat (16GiB) 1 | 217530368 | 26554 | 0.69 | 88.51 | 73.696 | 100.802 | c:\Test.dat (16GiB) 2 | 214081536 | 26133 | 0.68 | 87.11 | 74.422 | 100.268 | c:\Test.dat (16GiB) 3 | 216924160 | 26480 | 0.69 | 88.27 | 74.215 | 101.807 | c:\Test.dat (16GiB) ----------------------------------------------------------------------------------------------------- total: 865648640 | 105670 | 2.75 | 352.23 | 74.131 | 100.874 Write IO thread | bytes | I/Os | MiB/s | I/O per s | AvgLat | LatStdDev | file ----------------------------------------------------------------------------------------------------- 0 | 92061696 | 11238 | 0.29 | 37.46 | 39.254 | 172.676 | c:\Test.dat (16GiB) 1 | 93773824 | 11447 | 0.30 | 38.16 | 39.338 | 172.536 | c:\Test.dat (16GiB) 2 | 92037120 | 11235 | 0.29 | 37.45 | 41.065 | 177.810 | c:\Test.dat (16GiB) 3 | 93298688 | 11389 | 0.30 | 37.96 | 38.578 | 171.319 | c:\Test.dat (16GiB) ----------------------------------------------------------------------------------------------------- total: 371171328 | 45309 | 1.18 | 151.03 | 39.554 | 173.593 total: %-ile | Read (ms) | Write (ms) | Total (ms) ---------------------------------------------- min | 0.033 | 0.343 | 0.033 25th | 18.142 | 0.853 | 6.548 50th | 43.835 | 1.564 | 26.916 75th | 93.286 | 9.851 | 76.996 90th | 161.198 | 72.576 | 144.209 95th | 229.157 | 129.854 | 214.781 99th | 510.556 | 1003.437 | 602.468 3-nines | 1070.169 | 2064.597 | 1592.495 4-nines | 1411.675 | 2583.996 | 2520.209 5-nines | 1810.665 | 2825.525 | 2620.693 6-nines | 1990.036 | 2825.525 | 2825.525 7-nines | 1990.036 | 2825.525 | 2825.525 8-nines | 1990.036 | 2825.525 | 2825.525 9-nines | 1990.036 | 2825.525 | 2825.525 max | 1990.036 | 2825.525 | 2825.525 Ich werde trotzdem SSDs dort einbauen, so wie ihr mir das geraten habt. Ich danke euch vielmals für eure Tipps und Erfahrungen! Viele Grüße
  11. Ok so ginge es auch. Ich denke nicht das es nur an der SQL VM liegt, wie gesagt ich hatte alle VMs bis auf den DC heruntergefahren und es lief auch langsam. Ich denke es ist ein generelles Problem. Oder liege ich falsch und die VMs auch wenn sie heruntergefahren sind erzeugen Last? Zum Test werde ich das nach meinem Urlaub mal so angehen wie von euch beschrieben, danke.
  12. Du meinst eine SSD einbauen und die komplette VM auf diese zu kopieren und testen?
  13. Ja sieht mega aus. Habe demnächst mein erstes großes Projekt und würde das auch so machen wie du!
  14. Wäre mir auch lieber aber ich weiß wie das mein Chef sieht ... Habe auch nochmal eine Frage zur Virtualisierung... Trennt ihr Host system und das System wo die VMs laufen in unterschiedliche RAIDs? zb.: Host System RAID1 und das VM System mit RAID10 so wäre meine idee
  15. Guten Morgen, da dies mein erster Test dieser Art ist habe ich mir einen Überblick erwartet, den habe ich auch bekommen. Wusste nicht das die HDD so wenige IOPS liefert usw.. Habe das mal mit einem RAID 10 und SAS Platten als Referenz getestet und nun ist mir alles klar. Das andere System war bei den Zugriffszeiten 10 mal schneller usw. Habe auch mal mit einem anderen Refernsystem getestet das eine ähnliche Konfiguration (Software RAID1) hat, da dasselbe Problem. Meint ihr ein HW Raid Controller würde das ganze so verbessern das man mit dem Server vernünftig arbeiten kann? Habe Backups vom System würde da ne neue Karte einbauen, neues RAID erstellen und dann die Backups einspielen. Viele Grüße
  16. Also ich habe mal die I/Os von der SQL/TS VM ausgelesen mit "diskspd.exe" ziemlich geiles Programm sogar kostenlos. Was sagt ihr dazu? C:\Disk\x86>diskspd.exe -c16G -d300 -r -w30 -b8k -t4 -o8 -h -L c:\Test.dat Command Line: diskspd.exe -c16G -d300 -r -w30 -b8k -t4 -o8 -h -L c:\Test.dat Input parameters: timespan: 1 ------------- duration: 300s warm up time: 5s cool down time: 0s measuring latency random seed: 0 path: 'c:\Test.dat' think time: 0ms burst size: 0 software cache disabled hardware write cache disabled, writethrough on performing mix test (read/write ratio: 70/30) block size: 8192 using random I/O (alignment: 8192) number of outstanding I/O operations: 8 thread stride size: 0 threads per file: 4 using I/O Completion Ports IO priority: normal System information: computer name: NephroVM start time: 2020/08/11 13:53:50 UTC Results for timespan 1: ******************************************************************************* actual test time: 300.00s thread count: 4 proc count: 12 CPU | Usage | User | Kernel | Idle ------------------------------------------- 0| 1.28%| 0.41%| 0.87%| 98.72% 1| 1.37%| 0.39%| 0.98%| 98.63% 2| 1.53%| 0.67%| 0.86%| 98.47% 3| 1.56%| 0.64%| 0.92%| 98.44% 4| 2.20%| 1.26%| 0.94%| 97.80% 5| 4.70%| 3.03%| 1.67%| 95.30% 6| 2.97%| 0.51%| 2.46%| 97.03% 7| 2.99%| 0.59%| 2.40%| 97.01% 8| 1.13%| 0.23%| 0.90%| 98.87% 9| 0.90%| 0.26%| 0.65%| 99.10% 10| 0.41%| 0.11%| 0.29%| 99.59% 11| 0.33%| 0.14%| 0.19%| 99.67% ------------------------------------------- avg.| 1.78%| 0.69%| 1.09%| 98.22% Total IO thread | bytes | I/Os | MiB/s | I/O per s | AvgLat | LatStdDev | file ----------------------------------------------------------------------------------------------------- 0 | 234348544 | 28607 | 0.74 | 95.36 | 84.168 | 190.540 | c:\Test.dat (16GiB) 1 | 235266048 | 28719 | 0.75 | 95.73 | 84.095 | 191.993 | c:\Test.dat (16GiB) 2 | 234479616 | 28623 | 0.75 | 95.41 | 84.516 | 196.616 | c:\Test.dat (16GiB) 3 | 236716032 | 28896 | 0.75 | 96.32 | 83.580 | 190.931 | c:\Test.dat (16GiB) ----------------------------------------------------------------------------------------------------- total: 940810240 | 114845 | 2.99 | 382.81 | 84.089 | 192.531 Read IO thread | bytes | I/Os | MiB/s | I/O per s | AvgLat | LatStdDev | file ----------------------------------------------------------------------------------------------------- 0 | 164438016 | 20073 | 0.52 | 66.91 | 80.402 | 147.905 | c:\Test.dat (16GiB) 1 | 164577280 | 20090 | 0.52 | 66.97 | 81.372 | 152.337 | c:\Test.dat (16GiB) 2 | 164167680 | 20040 | 0.52 | 66.80 | 80.543 | 148.302 | c:\Test.dat (16GiB) 3 | 165494784 | 20202 | 0.53 | 67.34 | 81.053 | 154.057 | c:\Test.dat (16GiB) ----------------------------------------------------------------------------------------------------- total: 658677760 | 80405 | 2.09 | 268.02 | 80.843 | 150.680 Write IO thread | bytes | I/Os | MiB/s | I/O per s | AvgLat | LatStdDev | file ----------------------------------------------------------------------------------------------------- 0 | 69910528 | 8534 | 0.22 | 28.45 | 93.025 | 264.827 | c:\Test.dat (16GiB) 1 | 70688768 | 8629 | 0.22 | 28.76 | 90.433 | 261.907 | c:\Test.dat (16GiB) 2 | 70311936 | 8583 | 0.22 | 28.61 | 93.794 | 278.287 | c:\Test.dat (16GiB) 3 | 71221248 | 8694 | 0.23 | 28.98 | 89.454 | 256.836 | c:\Test.dat (16GiB) ----------------------------------------------------------------------------------------------------- total: 282132480 | 34440 | 0.90 | 114.80 | 91.666 | 265.557 total: %-ile | Read (ms) | Write (ms) | Total (ms) ---------------------------------------------- min | 0.623 | 0.449 | 0.449 25th | 18.716 | 3.361 | 9.654 50th | 44.075 | 5.670 | 32.568 75th | 92.540 | 58.978 | 87.910 90th | 155.466 | 266.929 | 172.731 95th | 223.926 | 433.603 | 284.301 99th | 796.485 | 1422.065 | 988.333 3-nines | 1666.857 | 2811.189 | 2258.127 4-nines | 3332.867 | 4927.216 | 3983.539 5-nines | 4893.979 | 5871.724 | 5499.390 6-nines | 4893.979 | 5871.724 | 5871.724 7-nines | 4893.979 | 5871.724 | 5871.724 8-nines | 4893.979 | 5871.724 | 5871.724 9-nines | 4893.979 | 5871.724 | 5871.724 max | 4893.979 | 5871.724 | 5871.724 C:\Disk\x86> Das wäre es direkt vom Servercore: Command Line: diskspd.exe -c16G -d300 -r -w30 -b8k -t4 -o8 -h -L c:\Test.dat Input parameters: timespan: 1 ------------- duration: 300s warm up time: 5s cool down time: 0s measuring latency random seed: 0 path: 'c:\Test.dat' think time: 0ms burst size: 0 software cache disabled hardware write cache disabled, writethrough on performing mix test (read/write ratio: 70/30) block size: 8192 using random I/O (alignment: 8192) number of outstanding I/O operations: 8 thread stride size: 0 threads per file: 4 using I/O Completion Ports IO priority: normal System information: computer name: Servercore01 start time: 2020/08/11 14:24:39 UTC Results for timespan 1: ******************************************************************************* actual test time: 300.01s thread count: 4 proc count: 32 CPU | Usage | User | Kernel | Idle ------------------------------------------- 0| 4.90%| 1.12%| 3.78%| 95.10% 1| 3.03%| 0.28%| 2.75%| 96.97% 2| 2.35%| 0.96%| 1.39%| 97.65% 3| 2.36%| 0.98%| 1.38%| 97.64% 4| 0.98%| 0.90%| 0.08%| 99.02% 5| 0.31%| 0.29%| 0.03%| 99.69% 6| 0.48%| 0.35%| 0.13%| 99.52% 7| 0.99%| 0.97%| 0.03%| 99.01% 8| 0.72%| 0.55%| 0.17%| 99.28% 9| 0.26%| 0.19%| 0.07%| 99.74% 10| 1.18%| 0.59%| 0.59%| 98.82% 11| 0.93%| 0.91%| 0.02%| 99.07% 12| 0.87%| 0.49%| 0.38%| 99.13% 13| 1.00%| 0.96%| 0.04%| 99.00% 14| 0.39%| 0.24%| 0.15%| 99.61% 15| 0.97%| 0.95%| 0.03%| 99.03% 16| 0.35%| 0.29%| 0.06%| 99.65% 17| 0.24%| 0.22%| 0.02%| 99.76% 18| 0.42%| 0.40%| 0.03%| 99.58% 19| 0.31%| 0.30%| 0.02%| 99.69% 20| 0.34%| 0.30%| 0.04%| 99.66% 21| 0.34%| 0.33%| 0.01%| 99.66% 22| 0.32%| 0.31%| 0.01%| 99.68% 23| 0.20%| 0.20%| 0.00%| 99.80% 24| 0.39%| 0.35%| 0.03%| 99.61% 25| 0.26%| 0.25%| 0.01%| 99.74% 26| 0.36%| 0.31%| 0.06%| 99.64% 27| 0.28%| 0.26%| 0.02%| 99.72% 28| 0.21%| 0.20%| 0.01%| 99.79% 29| 0.35%| 0.32%| 0.03%| 99.65% 30| 0.24%| 0.24%| 0.01%| 99.76% 31| 0.31%| 0.22%| 0.08%| 99.69% ------------------------------------------- avg.| 0.83%| 0.48%| 0.36%| 99.17% Total IO thread | bytes | I/Os | MiB/s | I/O per s | AvgLat | LatStdDev | file ----------------------------------------------------------------------------------------------------- 0 | 361029632 | 44071 | 1.15 | 146.90 | 54.453 | 78.389 | c:\Test.dat (16GiB) 1 | 360415232 | 43996 | 1.15 | 146.65 | 54.544 | 78.436 | c:\Test.dat (16GiB) 2 | 365871104 | 44662 | 1.16 | 148.87 | 53.730 | 77.852 | c:\Test.dat (16GiB) 3 | 359809024 | 43922 | 1.14 | 146.40 | 54.639 | 78.869 | c:\Test.dat (16GiB) ----------------------------------------------------------------------------------------------------- total: 1447124992 | 176651 | 4.60 | 588.81 | 54.339 | 78.386 Read IO thread | bytes | I/Os | MiB/s | I/O per s | AvgLat | LatStdDev | file ----------------------------------------------------------------------------------------------------- 0 | 253353984 | 30927 | 0.81 | 103.09 | 74.512 | 82.236 | c:\Test.dat (16GiB) 1 | 252461056 | 30818 | 0.80 | 102.72 | 74.661 | 82.171 | c:\Test.dat (16GiB) 2 | 256032768 | 31254 | 0.81 | 104.18 | 73.810 | 82.011 | c:\Test.dat (16GiB) 3 | 251486208 | 30699 | 0.80 | 102.33 | 75.018 | 82.817 | c:\Test.dat (16GiB) ----------------------------------------------------------------------------------------------------- total: 1013334016 | 123698 | 3.22 | 412.31 | 74.497 | 82.309 Write IO thread | bytes | I/Os | MiB/s | I/O per s | AvgLat | LatStdDev | file ----------------------------------------------------------------------------------------------------- 0 | 107675648 | 13144 | 0.34 | 43.81 | 7.256 | 38.947 | c:\Test.dat (16GiB) 1 | 107954176 | 13178 | 0.34 | 43.92 | 7.500 | 39.873 | c:\Test.dat (16GiB) 2 | 109838336 | 13408 | 0.35 | 44.69 | 6.922 | 37.151 | c:\Test.dat (16GiB) 3 | 108322816 | 13223 | 0.34 | 44.07 | 7.326 | 39.184 | c:\Test.dat (16GiB) ----------------------------------------------------------------------------------------------------- total: 433790976 | 52953 | 1.38 | 176.50 | 7.250 | 38.796 total: %-ile | Read (ms) | Write (ms) | Total (ms) ---------------------------------------------- min | 0.072 | 0.162 | 0.072 25th | 21.668 | 0.264 | 3.080 50th | 48.336 | 0.399 | 26.809 75th | 95.176 | 1.216 | 71.484 90th | 168.529 | 11.088 | 140.622 95th | 233.536 | 27.783 | 204.277 99th | 424.867 | 112.377 | 406.405 3-nines | 592.557 | 464.179 | 557.500 4-nines | 838.309 | 513.464 | 777.061 5-nines | 993.173 | 524.256 | 993.173 6-nines | 1021.303 | 524.256 | 1021.303 7-nines | 1021.303 | 524.256 | 1021.303 8-nines | 1021.303 | 524.256 | 1021.303 9-nines | 1021.303 | 524.256 | 1021.303 max | 1021.303 | 524.256 | 1021.303 Wenn man nun die Zahlen sieht wird mir schlecht.... 3 mb/s lesen und 1/mb schreiben, großartig
  17. Zum 3.mal, auf den Refernzservern ist fast dieselbe konfiguration um es nochmal deutlich zu machen... 2 platten softwareraid etc. Problem ist das das System schon läuft und ich wenig Möglichkeiten habe Hardwaretechnisch da noch was zu ändern. Den Tipp mit Thomas Krenn werde ich mal beherzigen u mal Nachfragen. Habt ihr noch paar Tipps welches Monitoring Tool dafür geeignet wäre? Das Veeam mag ich nicht. Eventuell etwas kostenloses womit ich mal die I/Os messen kann, über die cmd oder so. Nachdem Telefonat mit Thomas Krenn möchten die vorab paar Daten zu den I/Os. Die denken das es ein Hardware defekt sein kann. Ist ja wie gesagt auch merkwürdig wenn nur 1 VM die läuft schon Probleme macht und langsam ist ( Software technisch ist alles ok)
  18. Wie gesagt das kann ich schon Vergleichen. Ich habe bspw. eine Maschine gesehen die deutlich mehr VMs hatte, 2 SQL Datenbanken, Exchange u Terminalserver und die lief auch mit software raid u SATA Platten. Auf dem betreffendem Server läuft ein SQL aber wenn dieser ausgeschaltet ist kann der das gesamte System nicht verlangsamen. Auf dem Host läuft nur der Servercore keine Software nix. Defender u Firewall habe ich bereits testweise mal ausgeschaltet ohne Erfolg.
  19. Verstehe was ich aber nicht verstehe ist das es Systeme gibt mit ähnlicher Konfiguration und höherer Auslastung die keine Probleme haben.
  20. Ich mache grade ein Festplatten Monitoring über das Admin Center. Heute ist dort viel Betrieb und somit hohe Auslastung des Systems. CPU langweilt sich, RAM ist mehr als genug da und die Festplatten für die VMs laufen im Schnitt zu 50 % im Leerlauf. Mich wunderte auch als ich mal alle VM heruntergefahren habe und nur noch der DC lief, es trotzdem lamgsam war. Irgendwas ist komisch. Ah jetzt sehe ich den Namen xD.
  21. Guten Morgen, danke für den schönen Artikel, lese ich mir gleich durch. Was haltet ihr von diesem Buch: Microsoft Hyper-V Das Handbuch für Administratoren von Nicholas Dille, Marc Grote, Nils Kaczenski, Jan Kappen Viele Grüße
  22. Hallo, also tatsächlich ist es so das der Servercore als Host ein HDD Plattenpaar im RAID1 und für die Virtualisierung wurde ein Plattenpaar im RAID1 genommen. Was ich nicht verstehe ist wieso ich schon auch während der Schulzeit oft fast identische Konfigurationen gesehen habe die alles andere als langsam waren u zudem auch höheren Belastungen ausgesetzt. Trotzdem bin ich bei euch grade was den RAID Controller betrifft. Halte von diesem Software RAID nicht viel. Eine Überbuchung der CPU ist möglich aber trifft das auch auf den RAM zu oder kann man da großzügig geben? Vielen Dank für die Tipps!
  23. Hallo, sry erstmal es ist keine RAID0 sondern RAID1. Bevor jetzt wieder Kommentare kommen, ich weiß das ist nicht viel besser. Was nutzt ihr für RAIDs? Ich habe das Monitoring mit dem Task Manager und auch mit dem performance Manager vom Admin Center ausgeführt. Da konnt ich keine Flaschenhals ausfindig machen, eher das alles überdemensioniert ist. Sowohl bei RAM als auch beim CPU unter Last. Das System wird kaum beansprucht und scheint sich eher zu langweilen. Also RAM kann man geben nur bei den CPUs muss man darauf achten das man nicht überbucht oder wie soll ich das nun verstehen? Btw.: Das System wurde so vorgegeben von der interen IT des Kunden. Generell würde ich nicht sagen das ein System mit 4 VMs und SATA Platten an die Grenze stößt. Ich habe schon einige System mit dieser Konfiguration gesehen die gut liefen. Da waren zum Teil Exchange VMs noch dazu. Ich muss sagen das das System auch langsam läuft wenn ich alle VMs ausschalte. Wenn ich dann auf der letzten angeschaltetten VM bin ist es auch langsam, habe ich gestern gesehen. Und schönes We euch!
  24. Hallo, freut mich das ihr mir soviele Tipps gebt! Also der Server wurde über "Thomas Krenn" konfiguriert, ich hätte wie oben beschrieben auch manchen anders gemacht. Die Platten sind WD SATA 7,2 K. Der Raid controller ist onboard. Generell wurde mir gesagt man gibt den VMs nur soviel wie sie brauchen. Grund dafür wäre angeblich das mit zuviel Ressourcen die VMs nicht gut klar kommen. Ist das nicht der Fall? Also einfach mehr Kerne und RAM verteilen? Anbei habe ich von "Thomas Krenn" das Angebot mal rausgesucht und hochgeladen.
  25. Guten Tag, ich bin noch nicht lange Fachinformatiker und ausgerechnet in einem Systemhaus wo scheinbar auch nicht viel Erfahrung zum Thema Server bzw. wie man die Hardware eines Server richtig zusammenstellt. Zum Teil mag das auch an einer strukturschwachen Gegend liegen wo der Kunde scheinbar mehr aufs Geld guckt. Problem ist nämlich das hier im Unternehmen die neuen Server teilweise etwas langsam laufen (wenig performance). Das möchte ich ändern und bin auf eure Erfahrungen gespannt. Ganz konkret habe ich hier ein Beispiel, dass ich öfter habe: Hardware: Es wurde eine Server Core Variante gewählt diese läuft im RAID 0 auf HDDs (m.M wären da SSDs angebracht oder?) Mainboard ist ein Supermicron X11DPi-N(T) 2 x CPU Intel Xeon Silver 4110 mit 2,10 GHz RAM 128 GB Die Daten liegen auf 8 TB HDDs auch im RAID0 (mir wären da SAS eventuell im RAID 5 od 6 mit Hotspare lieber) 2x NICs 1 GBit was an 1 GBit Switch hängt Software: Bertiebsystem Windows Datacenter 2019 4 Virtuelle Maschinen: 1x DC mit 2 Kernen und 4 GB RAM 1x TS mit SQL Datenbank 6 Kerne und 40 GB RAM mit 10 Benutzern (den SQL hätte ich lieber auf eine seperate VM) 1x FP 4 Kerne und 8 GB RAM dort läuft auch das Backup 1x ZeiterfassungsVM 4 Kernen und 8 GB RAM Irgendwie läuft das System doch sehr langsam auch vor Ort. Ich habe schon in zusammenarbeit mit dem Kunden gefragt wann viel arbeit anfällt und das im Monitoring beobachtet. Sowohl auf den VMs im Ressourcenmonitor direkt als auch über das Admin Center über den performance Monitor den gesamten Server. Hier habe ich bei den CPUs eine Auslastung von max 30% bei den HDDs ist es ähnlich. Softwartechnisch habe ich das System über den Event Manager auch ausgelesen und keine Fehler festgestellt. Der Kunde beschwert sich trotzdem das seine Anwendungen die über das SQL laufen sehr langsam sind. Woran kann es liegen? Liegt es tatsächlich nur an den HDDs? Generell ist die konfiguration wie angegeben als auch die Zuordnung der Ressourcen in Ordnung? Was würdet ihr verbessern oder anders machen? Einen schönen Tag euch!
×
×
  • Neu erstellen...