Jump to content

Storage Spaces Direct in Windows Server 2016


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Moin,

 

S2D erfordert eine Domänenintegration. Das gilt für nahezu alle Cluster-Konstrukte. Workgroup-Cluster, neu in Windows Server 2016, sind nur für wenige Applikationen zugelassen und für noch weniger empfohlen, S2D gehört nicht dazu.

 

https://blogs.msdn.microsoft.com/clustering/2015/08/17/workgroup-and-multi-domain-clusters-in-windows-server-2016/

 

Du willst dir vielleicht den Webcast von Carsten Rachfahl ansehen:

 

[Webinar Storage Spaces Direct Deep Dive am 20. März 2017 - Hyper-V Server Blog]
https://www.hyper-v-server.de/webinar/webinar-storage-spaces-direct-deep-dive-am-20-maerz-2017/
 

Gruß, Nils

Link zu diesem Kommentar

2-node Storage Spaces Direct ist aber ein Setup, das Ich nie machen würde. Der Grund ist ganz einfach – es ist überhaupt nicht redundant. Im dem Fall, wenn jede Node zusammen eine disk-fehler hat, geht das ganze Cluster runter zusammen mit alle Daten. Das habe Ich schon erlebt :-(

 

Für einen 2-node VSAN braucht Mann eine Lösung die mit Hardware RAID umgehen kann. Das sind nämlich solche wie Starwind http://www.starwindsoftware.com/starwind-virtual-san-free oder Storevirtual http://www.hpe.com/emea_europe/en/storage/storevirtual.html

Link zu diesem Kommentar

@Net Runner: Verstehst Du wie die Storage Spaces funktionieren bzw. hast es bereits eingesetzt? Das ist technisch sehr ausgereift ob nun das neue Direct oder "klassisch". Wenn man das überhaupt bereits als klassisch betiteln kann. Ist ja noch nicht viel mehr als 1-2 Computergenerationen alt. =)

Ausserdem hindert Dich niemand daran anstelle einzelner Discs Volumes die auf einem Hardware-RAID liegen zu Verfügung zu stellen. Das ist sicher kein Argument. Macht bei Magnetplatten unter Umständen sogar durchaus noch Sinn weil der Write-Cache den klassischen Storage-Systemen nach wie vor etwas hinterherhinkt.

 

Des weiteren kannst Du mit Storage Spaces problemlos Mehrfachfspeicherungen vornehmen. Es gibt nicht viele Speichersysteme mit einer solchen Flexibilität. Warum das bei Storage Spaces Direct nicht so sein soll erschliesst sich mir jetzt nicht wirklich. Kannst Du gerne näher ausführen.

 

Nichts desto trotz sind 2 Nodes anfälliger als 3 oder 4 Nodes und die Einstiegskosten sind enorm weil für Direct erstens spezifische Hardware benötigt wird und bei den Lizenzen für SS Direct Datacenter gefragt ist. Denke hier will MS verhindern, dass SMB-Kunden die Cloud-Pläne von sich selber und allfälligen Partnern mittelfristig zunichte machen sobald der benötigte Hardware-Kram günstiger wird. Dürfte ein Schulterschluss sein.

 

 

Dann wäres es noch sinnvoll neben Starwind noch den aktuellen Platzhirsch zu nennen: Datacore

Link zu diesem Kommentar

Moin,

 

@Net Runner: Verstehst Du wie die Storage Spaces funktionieren bzw. hast es bereits eingesetzt? .

 

kein Grund, ihn so anzugehen. Erstens hat er selbst gesagt, dass er schon Erfahrung damit hat, was durchaus auch zu dem Inhalt seines Posts passt. Zweitens hat er schlicht Recht: Ein 2-Node-S2D ist keine gute Wahl. Eigentlich wollte Microsoft so ein Design auch gar nicht supporten, aber da war wohl der Wunsch des Marketing stärker als die technische Expertise. Ich rate entschieden von so einem Aufbau ab.

 

Auch zu dem "ausgereift" würde ich noch ein Fragezeichen stellen, ein großes. Die Technik ist nagelneu und alles andere als ausgereift. Davon zeugen auch die Erfahrungen derjenigen, die schon intensiver damit arbeiten. Mein vorläufiges Fazit dazu lautet: Kann man machen, aber nur wenn man bereit ist, sich damit intensiv zu beschäftigen, es selbst in der Tiefe zu supporten und Ausfälle hinzunehmen.

 

Das wird sich sicher in den nächsten Monaten verbessern, keine Frage. Aber bis dahin ist es noch ein teils sehr steiniger Weg.

 

Und wenn wir schon dabei sind, sollten wir auch zwei Namen nennen, bei denen es wirklich Erfahrungen mit Hyperconverged gibt: Nutanix und Simplivity. Da bekommt man das alles aus einer Hand und von vorn bis hinten supported. Ein Vorteil, der nicht zu unterschätzen ist.

 

Und eine Korrektur: S2D arbeitet gerade nicht mit RAID ...

 

Gruß, Nils

bearbeitet von NilsK
Link zu diesem Kommentar
Nils hat vollkommen recht.

 

Ich habe beides 2-node und 3-node Konfigurationen ausprobiert (auch mit 3-weg Replikation) und das Problem mit fehler-toleranz ist ganz klar hier. Es gibt noch viele Fragen mit der Leistung und vor allen Dingen mit Management auch, aber das wird sich sicherlich mit der Zeit noch verbessern. ReFS ist auch noch sehr jung.

 

Nutanix und Simplivity sind tolle Produkte, ohne Zweifel. Ich habe diese aber nicht gelistet, weil meine Idee war eine richtige Alternative zu erwähnen die anstatt S2D direkt auf bestehende Windows OS installiert werden kann und selbe (oder die meisten) features anbietet.

Link zu diesem Kommentar

Liest sich je nach Interpretation doch etwas forscher als beabsichtigt, korrekt. Nicht in meinem Sinne.

 

 

ReFs ist meines erachtens technisch ausgereift, ebenso wie die Storage Spaces. Waren sie bis auf einen wirklich misslichen Bug eigentlich von Anfang an. Klar fehlen ein paar Features, hat aber mit der Zuverlässigkeit meines Erachtens nichts  zu tun. Setze das schon seit es das gibt produktiv ein. Da war Software RAID bei vielen noch mehr als verpöhnt. Aber egal anderes Thema. ;)

 

Klar ist 3-Nodes besser als 2. Ist alles eine Frage der Logik. Wenn ich Stripes über mehrere bzw. alle verfügbaren Platten konstruiere, dann ist logisch, dass wenn in Stripe 1 auf Host A und Stripe 2 auf Host B ne Platte defekt ist, unter Umständen alles am ars*** ist. Ist aber - wenn es dumm läuft - in jeder normalen SAN nicht anders. Da hat man zudem noch das Mainboard als gemeinsame Komponente, raucht die ab, ist auch alles tot. Ausserdem heulen die meisten ja bereits rum, wenn zwei SSD's für nen Spiegel gekauft werden muss. Bei dreien hört es dann meist ganz auf.

 

Aber auch ein 2-Node Cluster lässt sich so aufbauen, dass dieser Fall nicht eintritt. Insofern kann man auch gut mehrere Pools à 2 Discs machen um das Striping von Anfang an zu verhindern. Die Performance ist dadurch gerade bei etwas günstigeren Enterprise Platten nicht schlechter sondern sehr oft sogar besser. Im Endeffekt ist es wie bei vielem, irgend einen Tod muss man sterben und Designfehler bleiben Designfehler.

 

Konventionelle RAID-Discs: Klar kannst Du konventionelle RAID-Volumes als Basis verwenden. Würde ich bei Magnet-Discs auch in jedem Fall so machen sonst ist die Performance absolut unterirdisch. Da nutzt unter Umständen auch der Cache nicht mehr so viel. Von Rebuilds bei nem Discfehler will ich gar nicht erst sprechen (evtl. wurde das aber verbessert, keine Ahnung).

 

 

Wie auch immer, die Hauptfragezeichen punkto Performance mit Storage Spaces stehen nach meiner Erfahrung im direkten Zusammenhang mit den verwendeten SSD's. Wird top Ware verwendet, gibts ein Top Ergebnis. Skaliert auch nahezu linear. Bei mässiger Ware ein verhältnissmässig schlechtes bis sogar sehr schlechtes. Mittelmass ist leider eher schwer möglich, je mehr Discs im Stripe, desto schwieriger wirds (Latenz-Problematik).

Link zu diesem Kommentar

Moin,

 

naja. Sowohl an Storage Spaces als auch an ReFS würde ich noch ein Fragezeichen machen. Qualität und Reifegrad lassen Zweifel zu.

 

Was RAID betrifft: Die Idee hinter S2D ist, dass die Software die Kontrolle übernimmt. Meines Wissens ist RAID an der Stelle zwar möglich, aber nicht supported, also nur für Tests usw. gedacht.

 

Bei der Performance gilt grundsätzlich "viel hilft viel", aber spätestens an der Stelle sollte man sich schon über die Kosten Gedanken machen. Die konzeptionellen Nachteile von S2D gegenüber anderen Hyperconverged-Lösungen tun ihr Übriges - so kennt S2D keine "Data Locality", ist also abhängig von Hochleistungs-Netzwerkverbindungen. Nicht umsonst drängt Microsoft auf RDMA-Karten, was der ursprünglichen Idee, ein leistungsfähiges System aus (günstigen) Standardkomponenten zu bauen, doch deutich widerspricht.

 

Und um noch mal den 2-Knoten-Cluster zu stressen: Wie gesagt, eigentlich war das vom Hersteller nie vorgesehen. Und das auch aus gutem Grund. Die "etablierten" Hyperconverged-Hersteller sehen aus solchen Gründen drei Knoten als Minimum an.

 

Gruß, Nils

Link zu diesem Kommentar

Das macht die jahrelange Erfahrung ;)

 

Um aber auch zumindest etwas zum Thema beizutragen, würde ich schon eine gewisse Daseinsberechtigung für den 2-Node S2D Cluster sehen. Ohne RDMA NICs ggfs. als Backup-Ziel ansonsten eben mit RDMA NICs und ohne Switch verkabelt evtl. für Fillialen oder kleinere Unternehmen.

 

"You get what you pay for" dürfte es hier aber auch treffen. Wenns allerdings den Anforderungen genügt, wieso nicht.

Link zu diesem Kommentar

Why?!!!? Zwei Server, eine MSA 2040/ 2042 mit SAS und Ende. Macht es doch nicht komplizierter als notwendig.

 

S2D ist halt flexibler und billiger. Da reichen für den Anfang bereits die 2 Server. Eine nackte SAS-MSA2040 verursacht bereits ca. 1-5k€ Mehrkosten, braucht mehr Platz im Rack und mehr Strom. Und ist unflexibler, wenn die mal voll ist.

bearbeitet von now3
Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...