Jump to content
PowerShellAdmin

vSphere Host - One Big Raid 10 vs 2 Raid 10 (8SSD Enterprise)

Recommended Posts

Moin,

mich würde hier mal eure Meinung zu folgenden Szenario interessieren.

Wir haben hier ein solides Blech (20 Core, 256GB RAM), hier sollen etwa 20VMs (mitunter auch MS SQL, SharePoint, Exchange 2019) auf einem lokalen Speicher laufen, auf denen etwa 30Mitarbeiter rumwerkeln.

Der Storage besteht aus einem PERC H740P mit 8 einfachen Enterprise SSDs (MLCe - sollten Samsung 883er sein)

 

Das ein größeres Raid 10 punktuell mehr Leistung bietet ist soweit klar, meine Befürchtung ist, dass allerdings bei höheren Auslastungen dort auch massive Performance-Einbrüche für alle betroffenen Gäste entstehen, die man bei der Trennung in 2 Raid 10 dann doch besser gekapselt hat und womöglich auch teilweise vorbeugen kann - da geringer maximale Gesamtlast.

So wie ich das aber derzeit lese, ist meine Annahme nicht richtig und "One Big Raid 10" in jedem Fall die bessere Wahl. Ein weiterer Vorteil ist natürlich die bessere Ausnutzbarkeit des Speicherplatz.

 

Die Raid-Policy würde ich wie folgt avisieren:

  • No Read Ahead
  • Write Through

 

Viele Grüße

PSAdmin

 

 

Edited by PowerShellAdmin

Share this post


Link to post
Share on other sites

Wir haben ne V5000 von IBM als Flash Storage und haben da auch ein RAID5 gemacht und jeweils 4TB Volumes heraus geschnitzt ;-)

Share this post


Link to post
Share on other sites

Guten Abend zusammen,

also von der Kapazität haben wir keine Probleme, entsprechend wurde ein Raid 10 ausgewählt. Da sind bereits Puffer und weitere Systeme berücksichtigt.

Hinzu kommt der Sachverhalt, dass ich bei Bedarf einfach weitere 8 Disks einbauen kann, da haben wir also genügend Kapazitäten.

 

Grundlegend ist besteht die Frage ob 2xRaid10 mit je 4 Disks oder 1 Raid10 mit 8 Disks.

Vor einigen Jahren bin ich mit kleinen Raid1 Clustern gut gefahren - SAS HDD != SSD.

 

Wenn ich mir die Erfahrungen aber so durchlese, macht hier das Splitting aber kein sinn.

Raid60 ist bei 8 Disks natürlich auch raus - zwar realisierbar, aber kein mehrwert gegenüber Raid10 bei 8 Disks.

 

 

VG PSADMIN

Edited by PowerShellAdmin

Share this post


Link to post
Share on other sites

Die Performance der Test-VM war erstmal schlechter als erwartet.

 

Ich gehe davon aus, dass hier ein falsches Alignment und der Thinmodus des Gast Ursache war. Auch der VM Disk Controller ist hier erstmal auch schlecht für einen Test...- womöglich noch Mal auf Paravirtual prüfen.

Am Montag gibt's erstmal eine Klärung mit dem Dell Support.

 

Habe hier auch von schlechter Raid10 Skalierung von 8 gegen 4 Disks gelesen. 

 

 

 

 

Edited by PowerShellAdmin

Share this post


Link to post
Share on other sites
Am 3/21/2019 um 09:38 schrieb PowerShellAdmin:

 

Der Storage besteht aus einem PERC H740P mit 8 einfachen Enterprise SSD...

 

Die Raid-Policy würde ich wie folgt avisieren:

  • No Read Ahead
  • Write Through

 

Wieso bitte Write Through? Das Ding hat 8GB Cache, die so quasi brach liegen. 

 

 

Share this post


Link to post
Share on other sites

Also write back ist nicht immer in der Konstellation empfohlen und war hier auch nicht die Ursache.

 

Mindestens ein Teil der Ursache ist die Thindisk, die Thickdisk ist beim seq q32t1 und 4 KB q8t8 deutlich gestiegen.

Ich werde denke ich nochmal die Stripesize prüfen, die scheint mit 256kb nicht optimal zu sein.

 

Share this post


Link to post
Share on other sites

Noch mal, woher hast Du denn die Infos immer her? Du erwähnst es immer, belegen leider nicht. Das wäre nett und interessant ;-)

Share this post


Link to post
Share on other sites
Am 22.3.2019 um 23:56 schrieb PowerShellAdmin:

Mindestens ein Teil der Ursache ist die Thindisk, die Thickdisk ist beim seq q32t1 und 4 KB q8t8 deutlich gestiegen.

 

 

Die Angaben schauen nach CrystalDiskMark aus. Meiner Meinung nach nicht geeignet, um die Performance eines Raid-Verbunds im Bezug auf Datenbank und Exchange  zu messen.

Versuche es doch mal bitte mit Iometer:

 

http://vmktree.org/iometer/

 

Z.B. Referenzwerte eines SAN: https://vmware-forum.de/viewtopic.php?t=32249

 

als SATA SSD ist die 883DC  auch mit V-NAND (3D-TLC) und nicht eMLC ausgestattet.

 

https://www.anandtech.com/show/13704/enterprise-ssd-roundup-intel-samsung-memblaze/2

 

Share this post


Link to post
Share on other sites

Guten Abend,

richtig wurde mit CrystalDiskMark geprüft. Lasse hier morgen nochmal das IOMeter drüber laufen.

Die Thematik ist nicht mein täglich Brot :-) aber das ist mein Verständnis:

 

Read Policy:

Bei SSD Raids wenig sinnvoll, geht wohl auf die Timings und die Synergie ist hier wenig gegeben.

 

Write Policy:Der Performancegewinn von Zurückschreiben besteht zwar auch bei SSD Raids, allerdings ist der Vorteil hier deutlich überschaubarer. Es ist eine Abwegung des Risikos - auch mit BBU und UPS (beides vorhanden)

 

Strip Size:

Mein altes Verständnis war hier, dass der SweetPoint bei 64KB für gemische Umgebungen ist.

Die 256KB kamen aufgrund der 4x SchreibSpindeln  ( 8 Disk Raid 10) = 1 MB

Die Annahme ist aber scheinbar nicht richtig, da die 1MB auch wieder in 4KB Blöcke aufgespalten werden.

Fallback auf 64KB ?

 

Disk Cache:

Hier hilft weder die BBU und UPS - daher je nach Risikobewertung zu deaktivieren.

 

Zusammenfassend:

Da das Risiko in der kleinen Umgebung überschaubar ist, bleibt Zurückschreiben nun aktiviert, eine Risikobewertung zum DiskCache schaue ich mir aber nochmal an.

Ein Vorteil vom Zurückschreiben scheint hier auch eine Entlastung der Schreibzugriffe der SSD, da sich diese hier reduzieren.

 

Das Thema Fastpath werde ich mir aber nochmal anschauen, dass ist ausschließlich bei Durchschreiben und keinen Vorauslesen verfügbar.

https://www.dell.com/support/manuals/de/de/dedhs1/poweredge-rc-h840/perc10_ug_pub/fastpath?guid=guid-107ce12d-6522-4716-a9a4-ec0a92c1130d&lang=en-us

Hier profitieren aber ausschließlich Pakete < Strip Size.

 

 

 

 

Edited by PowerShellAdmin

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


Werbepartner:



×
×
  • Create New...