Jump to content

vSphere Host - One Big Raid 10 vs 2 Raid 10 (8SSD Enterprise)


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Moin,

mich würde hier mal eure Meinung zu folgenden Szenario interessieren.

Wir haben hier ein solides Blech (20 Core, 256GB RAM), hier sollen etwa 20VMs (mitunter auch MS SQL, SharePoint, Exchange 2019) auf einem lokalen Speicher laufen, auf denen etwa 30Mitarbeiter rumwerkeln.

Der Storage besteht aus einem PERC H740P mit 8 einfachen Enterprise SSDs (MLCe - sollten Samsung 883er sein)

 

Das ein größeres Raid 10 punktuell mehr Leistung bietet ist soweit klar, meine Befürchtung ist, dass allerdings bei höheren Auslastungen dort auch massive Performance-Einbrüche für alle betroffenen Gäste entstehen, die man bei der Trennung in 2 Raid 10 dann doch besser gekapselt hat und womöglich auch teilweise vorbeugen kann - da geringer maximale Gesamtlast.

So wie ich das aber derzeit lese, ist meine Annahme nicht richtig und "One Big Raid 10" in jedem Fall die bessere Wahl. Ein weiterer Vorteil ist natürlich die bessere Ausnutzbarkeit des Speicherplatz.

 

Die Raid-Policy würde ich wie folgt avisieren:

  • No Read Ahead
  • Write Through

 

Viele Grüße

PSAdmin

 

 

bearbeitet von PowerShellAdmin
Link zu diesem Kommentar

Guten Abend zusammen,

also von der Kapazität haben wir keine Probleme, entsprechend wurde ein Raid 10 ausgewählt. Da sind bereits Puffer und weitere Systeme berücksichtigt.

Hinzu kommt der Sachverhalt, dass ich bei Bedarf einfach weitere 8 Disks einbauen kann, da haben wir also genügend Kapazitäten.

 

Grundlegend ist besteht die Frage ob 2xRaid10 mit je 4 Disks oder 1 Raid10 mit 8 Disks.

Vor einigen Jahren bin ich mit kleinen Raid1 Clustern gut gefahren - SAS HDD != SSD.

 

Wenn ich mir die Erfahrungen aber so durchlese, macht hier das Splitting aber kein sinn.

Raid60 ist bei 8 Disks natürlich auch raus - zwar realisierbar, aber kein mehrwert gegenüber Raid10 bei 8 Disks.

 

 

VG PSADMIN

bearbeitet von PowerShellAdmin
Link zu diesem Kommentar

Die Performance der Test-VM war erstmal schlechter als erwartet.

 

Ich gehe davon aus, dass hier ein falsches Alignment und der Thinmodus des Gast Ursache war. Auch der VM Disk Controller ist hier erstmal auch schlecht für einen Test...- womöglich noch Mal auf Paravirtual prüfen.

Am Montag gibt's erstmal eine Klärung mit dem Dell Support.

 

Habe hier auch von schlechter Raid10 Skalierung von 8 gegen 4 Disks gelesen. 

 

 

 

 

bearbeitet von PowerShellAdmin
Link zu diesem Kommentar

Also write back ist nicht immer in der Konstellation empfohlen und war hier auch nicht die Ursache.

 

Mindestens ein Teil der Ursache ist die Thindisk, die Thickdisk ist beim seq q32t1 und 4 KB q8t8 deutlich gestiegen.

Ich werde denke ich nochmal die Stripesize prüfen, die scheint mit 256kb nicht optimal zu sein.

 

Link zu diesem Kommentar
Am 22.3.2019 um 23:56 schrieb PowerShellAdmin:

Mindestens ein Teil der Ursache ist die Thindisk, die Thickdisk ist beim seq q32t1 und 4 KB q8t8 deutlich gestiegen.

 

 

Die Angaben schauen nach CrystalDiskMark aus. Meiner Meinung nach nicht geeignet, um die Performance eines Raid-Verbunds im Bezug auf Datenbank und Exchange  zu messen.

Versuche es doch mal bitte mit Iometer:

 

http://vmktree.org/iometer/

 

Z.B. Referenzwerte eines SAN: https://vmware-forum.de/viewtopic.php?t=32249

 

als SATA SSD ist die 883DC  auch mit V-NAND (3D-TLC) und nicht eMLC ausgestattet.

 

https://www.anandtech.com/show/13704/enterprise-ssd-roundup-intel-samsung-memblaze/2

 

Link zu diesem Kommentar

Guten Abend,

richtig wurde mit CrystalDiskMark geprüft. Lasse hier morgen nochmal das IOMeter drüber laufen.

Die Thematik ist nicht mein täglich Brot :-) aber das ist mein Verständnis:

 

Read Policy:

Bei SSD Raids wenig sinnvoll, geht wohl auf die Timings und die Synergie ist hier wenig gegeben.

 

Write Policy:Der Performancegewinn von Zurückschreiben besteht zwar auch bei SSD Raids, allerdings ist der Vorteil hier deutlich überschaubarer. Es ist eine Abwegung des Risikos - auch mit BBU und UPS (beides vorhanden)

 

Strip Size:

Mein altes Verständnis war hier, dass der SweetPoint bei 64KB für gemische Umgebungen ist.

Die 256KB kamen aufgrund der 4x SchreibSpindeln  ( 8 Disk Raid 10) = 1 MB

Die Annahme ist aber scheinbar nicht richtig, da die 1MB auch wieder in 4KB Blöcke aufgespalten werden.

Fallback auf 64KB ?

 

Disk Cache:

Hier hilft weder die BBU und UPS - daher je nach Risikobewertung zu deaktivieren.

 

Zusammenfassend:

Da das Risiko in der kleinen Umgebung überschaubar ist, bleibt Zurückschreiben nun aktiviert, eine Risikobewertung zum DiskCache schaue ich mir aber nochmal an.

Ein Vorteil vom Zurückschreiben scheint hier auch eine Entlastung der Schreibzugriffe der SSD, da sich diese hier reduzieren.

 

Das Thema Fastpath werde ich mir aber nochmal anschauen, dass ist ausschließlich bei Durchschreiben und keinen Vorauslesen verfügbar.

https://www.dell.com/support/manuals/de/de/dedhs1/poweredge-rc-h840/perc10_ug_pub/fastpath?guid=guid-107ce12d-6522-4716-a9a4-ec0a92c1130d&lang=en-us

Hier profitieren aber ausschließlich Pakete < Strip Size.

 

 

 

 

bearbeitet von PowerShellAdmin
Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...