Jump to content

bigthe

Members
  • Gesamte Inhalte

    79
  • Registriert seit

  • Letzter Besuch

Beiträge erstellt von bigthe

  1. vor 10 Stunden schrieb DocData:

    Du testest mit 8k IOs gegen eine SATA RAID, wo die Platte so 100 IOPS liefert. Was erwartest du?

    Guten Morgen,

     

    da dies mein erster Test dieser Art ist habe ich mir einen Überblick erwartet, den habe ich auch bekommen. Wusste nicht das die HDD so wenige IOPS liefert usw.. Habe das mal mit einem RAID 10 und SAS Platten als Referenz getestet und nun ist mir alles klar. Das andere System war bei den Zugriffszeiten 10 mal schneller usw.

     

    Habe auch mal mit einem anderen Refernsystem getestet das eine ähnliche Konfiguration (Software RAID1) hat, da dasselbe Problem.

     

     

    Meint ihr ein HW Raid Controller würde das ganze so verbessern das man mit dem Server vernünftig arbeiten kann?

    Habe Backups vom System würde da ne neue Karte einbauen, neues RAID erstellen und dann die Backups einspielen.

     

     

    Viele Grüße

  2. Also ich habe mal die I/Os von der SQL/TS VM ausgelesen mit "diskspd.exe" ziemlich geiles Programm sogar kostenlos.

    Was sagt ihr dazu?


     

    C:\Disk\x86>diskspd.exe -c16G -d300 -r -w30 -b8k -t4 -o8 -h -L c:\Test.dat
    
    Command Line: diskspd.exe -c16G -d300 -r -w30 -b8k -t4 -o8 -h -L c:\Test.dat
    
    Input parameters:
    
            timespan:   1
            -------------
            duration: 300s
            warm up time: 5s
            cool down time: 0s
            measuring latency
            random seed: 0
            path: 'c:\Test.dat'
                    think time: 0ms
                    burst size: 0
                    software cache disabled
                    hardware write cache disabled, writethrough on
                    performing mix test (read/write ratio: 70/30)
                    block size: 8192
                    using random I/O (alignment: 8192)
                    number of outstanding I/O operations: 8
                    thread stride size: 0
                    threads per file: 4
                    using I/O Completion Ports
                    IO priority: normal
    
    System information:
    
            computer name: NephroVM
            start time: 2020/08/11 13:53:50 UTC
    
    Results for timespan 1:
    *******************************************************************************
    
    actual test time:       300.00s
    thread count:           4
    proc count:             12
    
    CPU |  Usage |  User  |  Kernel |  Idle
    -------------------------------------------
       0|   1.28%|   0.41%|    0.87%|  98.72%
       1|   1.37%|   0.39%|    0.98%|  98.63%
       2|   1.53%|   0.67%|    0.86%|  98.47%
       3|   1.56%|   0.64%|    0.92%|  98.44%
       4|   2.20%|   1.26%|    0.94%|  97.80%
       5|   4.70%|   3.03%|    1.67%|  95.30%
       6|   2.97%|   0.51%|    2.46%|  97.03%
       7|   2.99%|   0.59%|    2.40%|  97.01%
       8|   1.13%|   0.23%|    0.90%|  98.87%
       9|   0.90%|   0.26%|    0.65%|  99.10%
      10|   0.41%|   0.11%|    0.29%|  99.59%
      11|   0.33%|   0.14%|    0.19%|  99.67%
    -------------------------------------------
    avg.|   1.78%|   0.69%|    1.09%|  98.22%
    
    Total IO
    thread |       bytes     |     I/Os     |    MiB/s   |  I/O per s |  AvgLat  | LatStdDev |  file
    -----------------------------------------------------------------------------------------------------
         0 |       234348544 |        28607 |       0.74 |      95.36 |   84.168 |   190.540 | c:\Test.dat (16GiB)
         1 |       235266048 |        28719 |       0.75 |      95.73 |   84.095 |   191.993 | c:\Test.dat (16GiB)
         2 |       234479616 |        28623 |       0.75 |      95.41 |   84.516 |   196.616 | c:\Test.dat (16GiB)
         3 |       236716032 |        28896 |       0.75 |      96.32 |   83.580 |   190.931 | c:\Test.dat (16GiB)
    -----------------------------------------------------------------------------------------------------
    total:         940810240 |       114845 |       2.99 |     382.81 |   84.089 |   192.531
    
    Read IO
    thread |       bytes     |     I/Os     |    MiB/s   |  I/O per s |  AvgLat  | LatStdDev |  file
    -----------------------------------------------------------------------------------------------------
         0 |       164438016 |        20073 |       0.52 |      66.91 |   80.402 |   147.905 | c:\Test.dat (16GiB)
         1 |       164577280 |        20090 |       0.52 |      66.97 |   81.372 |   152.337 | c:\Test.dat (16GiB)
         2 |       164167680 |        20040 |       0.52 |      66.80 |   80.543 |   148.302 | c:\Test.dat (16GiB)
         3 |       165494784 |        20202 |       0.53 |      67.34 |   81.053 |   154.057 | c:\Test.dat (16GiB)
    -----------------------------------------------------------------------------------------------------
    total:         658677760 |        80405 |       2.09 |     268.02 |   80.843 |   150.680
    
    Write IO
    thread |       bytes     |     I/Os     |    MiB/s   |  I/O per s |  AvgLat  | LatStdDev |  file
    -----------------------------------------------------------------------------------------------------
         0 |        69910528 |         8534 |       0.22 |      28.45 |   93.025 |   264.827 | c:\Test.dat (16GiB)
         1 |        70688768 |         8629 |       0.22 |      28.76 |   90.433 |   261.907 | c:\Test.dat (16GiB)
         2 |        70311936 |         8583 |       0.22 |      28.61 |   93.794 |   278.287 | c:\Test.dat (16GiB)
         3 |        71221248 |         8694 |       0.23 |      28.98 |   89.454 |   256.836 | c:\Test.dat (16GiB)
    -----------------------------------------------------------------------------------------------------
    total:         282132480 |        34440 |       0.90 |     114.80 |   91.666 |   265.557
    
    total:
      %-ile |  Read (ms) | Write (ms) | Total (ms)
    ----------------------------------------------
        min |      0.623 |      0.449 |      0.449
       25th |     18.716 |      3.361 |      9.654
       50th |     44.075 |      5.670 |     32.568
       75th |     92.540 |     58.978 |     87.910
       90th |    155.466 |    266.929 |    172.731
       95th |    223.926 |    433.603 |    284.301
       99th |    796.485 |   1422.065 |    988.333
    3-nines |   1666.857 |   2811.189 |   2258.127
    4-nines |   3332.867 |   4927.216 |   3983.539
    5-nines |   4893.979 |   5871.724 |   5499.390
    6-nines |   4893.979 |   5871.724 |   5871.724
    7-nines |   4893.979 |   5871.724 |   5871.724
    8-nines |   4893.979 |   5871.724 |   5871.724
    9-nines |   4893.979 |   5871.724 |   5871.724
        max |   4893.979 |   5871.724 |   5871.724
    
    C:\Disk\x86>

     

    Das wäre es direkt vom Servercore:


     

    Command Line: diskspd.exe -c16G -d300 -r -w30 -b8k -t4 -o8 -h -L c:\Test.dat
    
    Input parameters:
    
            timespan:   1
            -------------
            duration: 300s
            warm up time: 5s
            cool down time: 0s
            measuring latency
            random seed: 0
            path: 'c:\Test.dat'
                    think time: 0ms
                    burst size: 0
                    software cache disabled
                    hardware write cache disabled, writethrough on
                    performing mix test (read/write ratio: 70/30)
                    block size: 8192
                    using random I/O (alignment: 8192)
                    number of outstanding I/O operations: 8
                    thread stride size: 0
                    threads per file: 4
                    using I/O Completion Ports
                    IO priority: normal
    
    System information:
    
            computer name: Servercore01
            start time: 2020/08/11 14:24:39 UTC
    
    Results for timespan 1:
    *******************************************************************************
    
    actual test time:       300.01s
    thread count:           4
    proc count:             32
    
    CPU |  Usage |  User  |  Kernel |  Idle
    -------------------------------------------
       0|   4.90%|   1.12%|    3.78%|  95.10%
       1|   3.03%|   0.28%|    2.75%|  96.97%
       2|   2.35%|   0.96%|    1.39%|  97.65%
       3|   2.36%|   0.98%|    1.38%|  97.64%
       4|   0.98%|   0.90%|    0.08%|  99.02%
       5|   0.31%|   0.29%|    0.03%|  99.69%
       6|   0.48%|   0.35%|    0.13%|  99.52%
       7|   0.99%|   0.97%|    0.03%|  99.01%
       8|   0.72%|   0.55%|    0.17%|  99.28%
       9|   0.26%|   0.19%|    0.07%|  99.74%
      10|   1.18%|   0.59%|    0.59%|  98.82%
      11|   0.93%|   0.91%|    0.02%|  99.07%
      12|   0.87%|   0.49%|    0.38%|  99.13%
      13|   1.00%|   0.96%|    0.04%|  99.00%
      14|   0.39%|   0.24%|    0.15%|  99.61%
      15|   0.97%|   0.95%|    0.03%|  99.03%
      16|   0.35%|   0.29%|    0.06%|  99.65%
      17|   0.24%|   0.22%|    0.02%|  99.76%
      18|   0.42%|   0.40%|    0.03%|  99.58%
      19|   0.31%|   0.30%|    0.02%|  99.69%
      20|   0.34%|   0.30%|    0.04%|  99.66%
      21|   0.34%|   0.33%|    0.01%|  99.66%
      22|   0.32%|   0.31%|    0.01%|  99.68%
      23|   0.20%|   0.20%|    0.00%|  99.80%
      24|   0.39%|   0.35%|    0.03%|  99.61%
      25|   0.26%|   0.25%|    0.01%|  99.74%
      26|   0.36%|   0.31%|    0.06%|  99.64%
      27|   0.28%|   0.26%|    0.02%|  99.72%
      28|   0.21%|   0.20%|    0.01%|  99.79%
      29|   0.35%|   0.32%|    0.03%|  99.65%
      30|   0.24%|   0.24%|    0.01%|  99.76%
      31|   0.31%|   0.22%|    0.08%|  99.69%
    -------------------------------------------
    avg.|   0.83%|   0.48%|    0.36%|  99.17%
    
    Total IO
    thread |       bytes     |     I/Os     |    MiB/s   |  I/O per s |  AvgLat  | LatStdDev |  file
    -----------------------------------------------------------------------------------------------------
         0 |       361029632 |        44071 |       1.15 |     146.90 |   54.453 |    78.389 | c:\Test.dat (16GiB)
         1 |       360415232 |        43996 |       1.15 |     146.65 |   54.544 |    78.436 | c:\Test.dat (16GiB)
         2 |       365871104 |        44662 |       1.16 |     148.87 |   53.730 |    77.852 | c:\Test.dat (16GiB)
         3 |       359809024 |        43922 |       1.14 |     146.40 |   54.639 |    78.869 | c:\Test.dat (16GiB)
    -----------------------------------------------------------------------------------------------------
    total:        1447124992 |       176651 |       4.60 |     588.81 |   54.339 |    78.386
    
    Read IO
    thread |       bytes     |     I/Os     |    MiB/s   |  I/O per s |  AvgLat  | LatStdDev |  file
    -----------------------------------------------------------------------------------------------------
         0 |       253353984 |        30927 |       0.81 |     103.09 |   74.512 |    82.236 | c:\Test.dat (16GiB)
         1 |       252461056 |        30818 |       0.80 |     102.72 |   74.661 |    82.171 | c:\Test.dat (16GiB)
         2 |       256032768 |        31254 |       0.81 |     104.18 |   73.810 |    82.011 | c:\Test.dat (16GiB)
         3 |       251486208 |        30699 |       0.80 |     102.33 |   75.018 |    82.817 | c:\Test.dat (16GiB)
    -----------------------------------------------------------------------------------------------------
    total:        1013334016 |       123698 |       3.22 |     412.31 |   74.497 |    82.309
    
    Write IO
    thread |       bytes     |     I/Os     |    MiB/s   |  I/O per s |  AvgLat  | LatStdDev |  file
    -----------------------------------------------------------------------------------------------------
         0 |       107675648 |        13144 |       0.34 |      43.81 |    7.256 |    38.947 | c:\Test.dat (16GiB)
         1 |       107954176 |        13178 |       0.34 |      43.92 |    7.500 |    39.873 | c:\Test.dat (16GiB)
         2 |       109838336 |        13408 |       0.35 |      44.69 |    6.922 |    37.151 | c:\Test.dat (16GiB)
         3 |       108322816 |        13223 |       0.34 |      44.07 |    7.326 |    39.184 | c:\Test.dat (16GiB)
    -----------------------------------------------------------------------------------------------------
    total:         433790976 |        52953 |       1.38 |     176.50 |    7.250 |    38.796
    
    total:
      %-ile |  Read (ms) | Write (ms) | Total (ms)
    ----------------------------------------------
        min |      0.072 |      0.162 |      0.072
       25th |     21.668 |      0.264 |      3.080
       50th |     48.336 |      0.399 |     26.809
       75th |     95.176 |      1.216 |     71.484
       90th |    168.529 |     11.088 |    140.622
       95th |    233.536 |     27.783 |    204.277
       99th |    424.867 |    112.377 |    406.405
    3-nines |    592.557 |    464.179 |    557.500
    4-nines |    838.309 |    513.464 |    777.061
    5-nines |    993.173 |    524.256 |    993.173
    6-nines |   1021.303 |    524.256 |   1021.303
    7-nines |   1021.303 |    524.256 |   1021.303
    8-nines |   1021.303 |    524.256 |   1021.303
    9-nines |   1021.303 |    524.256 |   1021.303
        max |   1021.303 |    524.256 |   1021.303
    

     

    Wenn man nun die Zahlen sieht wird mir schlecht.... 3 mb/s lesen und 1/mb schreiben, großartig

  3. Zum 3.mal, auf den Refernzservern ist fast dieselbe konfiguration um es nochmal deutlich zu machen... 2 platten softwareraid etc.

     

    Problem ist das das System schon läuft und ich wenig Möglichkeiten habe Hardwaretechnisch da noch was zu ändern.

     

    Den Tipp mit Thomas Krenn werde ich mal beherzigen u mal Nachfragen.

     

    Habt ihr noch paar Tipps welches Monitoring Tool dafür geeignet wäre? Das Veeam mag ich nicht.

    Eventuell etwas kostenloses womit ich mal die I/Os messen kann, über die cmd oder so.

    Nachdem Telefonat mit Thomas Krenn möchten die vorab paar Daten zu den I/Os. Die denken das es ein Hardware defekt sein kann. Ist ja wie gesagt auch merkwürdig wenn nur 1 VM die läuft schon Probleme macht und langsam ist ( Software technisch ist alles ok)

  4. Wie gesagt das kann ich schon Vergleichen. Ich habe bspw. eine Maschine gesehen die deutlich mehr VMs hatte, 2 SQL Datenbanken, Exchange u Terminalserver und die lief auch mit software raid u SATA Platten.

     

    Auf dem betreffendem Server läuft ein SQL aber wenn dieser ausgeschaltet ist kann der das gesamte System nicht verlangsamen.

     

    Auf dem Host läuft nur der Servercore keine Software nix. Defender u Firewall habe ich bereits testweise mal ausgeschaltet ohne Erfolg.

  5. Ich mache grade ein Festplatten Monitoring über das Admin Center. Heute ist dort viel Betrieb und somit hohe Auslastung des Systems. CPU langweilt sich, RAM ist mehr als genug da und die Festplatten für die VMs laufen im Schnitt zu 50 % im Leerlauf. Mich wunderte auch als ich mal alle VM heruntergefahren habe und nur noch der DC lief, es trotzdem lamgsam war. Irgendwas ist komisch.

     

    Ah jetzt sehe ich den Namen xD.

  6. Hallo,

     

    also tatsächlich ist es so das der Servercore als Host ein HDD Plattenpaar im RAID1 und für die Virtualisierung wurde ein Plattenpaar im RAID1 genommen.

     

    Was ich nicht verstehe ist wieso ich schon auch während der Schulzeit oft fast identische Konfigurationen gesehen habe die alles andere als langsam waren u zudem auch höheren Belastungen ausgesetzt.

    Trotzdem bin ich bei euch grade was den RAID Controller betrifft. Halte von diesem Software RAID nicht viel.

     

    Eine Überbuchung der CPU ist möglich aber trifft das auch auf den RAM zu oder kann man da großzügig geben?

     

    Vielen Dank für die Tipps!

  7. Hallo,

     

    sry erstmal es ist keine RAID0 sondern RAID1. Bevor jetzt wieder Kommentare kommen, ich weiß das ist nicht viel besser. Was nutzt ihr für RAIDs?

     

    Ich habe das Monitoring mit dem Task Manager und auch mit dem performance Manager vom Admin Center ausgeführt. Da konnt ich keine Flaschenhals ausfindig machen, eher das alles überdemensioniert ist. Sowohl bei RAM als auch beim CPU unter Last. Das System wird kaum beansprucht und scheint sich eher zu langweilen. Also RAM kann man geben nur bei den CPUs muss man darauf achten das man nicht überbucht oder wie soll ich das nun verstehen?

    Btw.: Das System wurde so vorgegeben von der interen IT des Kunden.

     

    Generell würde ich nicht sagen das ein System mit 4 VMs und SATA Platten an die Grenze stößt. Ich habe schon einige System mit dieser Konfiguration gesehen die gut liefen. Da waren zum Teil Exchange VMs noch dazu. Ich muss sagen das das System auch langsam läuft wenn ich alle VMs ausschalte. Wenn ich dann auf der letzten angeschaltetten VM bin ist es auch langsam, habe ich gestern gesehen.

     

     

    Und schönes We euch!

     

  8. Hallo,

     

    freut mich das ihr mir soviele Tipps gebt!

    Also der Server wurde über "Thomas Krenn" konfiguriert, ich hätte wie oben beschrieben auch manchen anders gemacht. Die Platten sind WD SATA 7,2 K. Der Raid controller ist onboard.

     

    Generell wurde mir gesagt man gibt den VMs nur soviel wie sie brauchen. Grund dafür wäre angeblich das mit zuviel Ressourcen die VMs nicht gut klar kommen. Ist das nicht der Fall? Also einfach mehr Kerne und RAM verteilen?

     

    Anbei habe ich von "Thomas Krenn" das Angebot mal rausgesucht und hochgeladen.

     

     

     

    Msce.PNG

  9. Guten Tag,

     

    ich bin noch nicht lange Fachinformatiker und ausgerechnet in einem Systemhaus wo scheinbar auch nicht viel Erfahrung zum Thema Server bzw. wie man die Hardware eines Server richtig zusammenstellt. Zum Teil mag das auch an einer strukturschwachen Gegend liegen wo der Kunde scheinbar mehr aufs Geld guckt. Problem ist nämlich das hier im Unternehmen die neuen Server teilweise etwas langsam laufen (wenig performance). Das möchte ich ändern und bin auf eure Erfahrungen gespannt.

     

    Ganz konkret habe ich hier ein Beispiel, dass ich öfter habe:

     

    Hardware:

    Es wurde eine Server Core Variante gewählt diese läuft im RAID 0 auf HDDs (m.M wären da SSDs angebracht oder?)

    Mainboard ist ein Supermicron X11DPi-N(T)

    2 x CPU Intel Xeon Silver 4110 mit 2,10 GHz

    RAM 128 GB

    Die Daten liegen auf 8 TB HDDs auch im RAID0 (mir wären da SAS eventuell im RAID 5 od 6 mit Hotspare lieber)

    2x NICs 1 GBit was an 1 GBit Switch hängt

     

     

    Software:

    Bertiebsystem Windows Datacenter 2019

    4 Virtuelle Maschinen:

    1x DC mit 2 Kernen und 4 GB RAM

    1x TS mit SQL Datenbank 6 Kerne und 40 GB RAM mit 10 Benutzern (den SQL hätte ich lieber auf eine seperate VM)

    1x FP 4 Kerne und  8 GB RAM dort läuft auch das Backup

    1x ZeiterfassungsVM 4 Kernen und 8 GB RAM

     

     

    Irgendwie läuft das System doch sehr langsam auch vor Ort.  Ich habe schon in zusammenarbeit mit dem Kunden gefragt wann viel arbeit anfällt und das im Monitoring beobachtet. Sowohl auf den VMs im Ressourcenmonitor direkt als auch über das Admin Center über den performance Monitor den gesamten Server. Hier habe ich bei den CPUs eine Auslastung von max 30% bei den HDDs ist es ähnlich. Softwartechnisch habe ich das System über den Event Manager auch ausgelesen und keine Fehler festgestellt. Der Kunde beschwert sich trotzdem das seine Anwendungen die über das SQL laufen sehr langsam sind. Woran kann es liegen? Liegt es tatsächlich nur an den HDDs?

     

    Generell ist die konfiguration wie angegeben als auch die Zuordnung der Ressourcen in Ordnung? Was würdet ihr verbessern oder anders machen?

     

     

     

    Einen schönen Tag euch!

     

     

     

     

     

     

     

  10. Moin,

     

    stehe immer noch etwas im Wald und weiss noch nicht so recht was genau ich tun muss.

    Auf dem ersten DC vonn 2003 ist die Domänenfunktionsebene auf 2003. Wo genau ich die Gesamtstrukturebene finde weiß ich auch nach lesen des Links nicht, der ist verwirrend für einen Berufsanfänger. Der zweite DC hat ein Betriebssystem von 2008. Könnte ich eventuell den ersten DC (mit Win2003) die AD deinistallieren zB. per DCPROMO?

     

    Gruß

     

  11. Hallo,

     

    ich möchte eine AD Replizierung durch führen. Bei dem Versuch wurde mir mitgeteilt das die Gesamtstrukturfunktionsebene eine Windows 2000 ist. Ich verstehe das nicht, denn der erste DC ist mit Windows 2003 ausgestattet und der zweite mit 2008.

     

    Es scheint wohl auf ein Inplace Update hinauszulaufen? Oder habt ihr noch eine Idee dazu?

     

    Wenn es denn so wäre, wie könnte man so ein Update umsetzen. Gibts eine Anleitung dafür?

     

     

    Viele Grüße

  12. vor 3 Stunden schrieb NorbertFe:

    Doch, an der fritzbox ;) aber die Kabelboxen sind da immer eigen, vor allem wenn’s die der Provider sind.

    Ganz oben steht „Anfänger“. Dachte auch, er lernt was, wenn man einen Befehl bekommt, den man nicht kennt. Aber vermutlich Fraktion: ein Bild von Text sagt mehr als der Text. ;)

    Ich kann es nicht deuten obs sarkasmus ist...

    BTW funzt das mit dem clip ganz gut wo ichs weiß :) thx

  13. Hab mich gerade mal per TeamVierwer auf diesen Server geschaltet und mir die Box angesehen...

     

    Soll ich das hier ausschalten oder meint ihr etwas anderes?

     

     

    7.PNG

    8.PNG

    Oder im 2.Bild einfach den ersten DC eintragen?

    Oder komplett IPv6 ausschalten?

    Alles gut habs gefunden!

     

    Vielen Dank nochmal an euch alle!

  14. Hi,

     

    also der DC02 sein DNS zeigt logischerweise auf den DC01 (192.168.1.50)

     

     

    5.PNG

    6.PNG

    Hi,

     

    Zur Situation...

     

    Ich habe einen 2. physischen Server dorthin gebracht. Auf diesem habe ich eine Core Installation. Eine "Verwaltungs VM" wo das Admin Center installiert ist und eine VM DC02. Muss ich eventuell das Core System auch in die Domäne bringen bzw die "Verwaltungs VM"? Wobei ich mal die "Verwaltungs VM" auch in die Domäne bringen konnte ohne Probleme.

     

    Gruß

×
×
  • Neu erstellen...