Zum Inhalt wechseln


Foto

Storage Spaces Direct in Windows Server 2016


  • Bitte melde dich an um zu Antworten
16 Antworten in diesem Thema

#1 floho

floho

    Newbie

  • 20 Beiträge

 

Geschrieben 15. März 2017 - 11:55

Hallo zusammen,

 

hat jemand bereits Erfahrungen gemacht mit dem neuen Feature "Storage Spaces Direct" in Windows Server 2016 ?

 

Muss der 2-Node Cluster zwingend in der Domain sein? Reicht hier auch dieselbe Workgroup?

 

Danke und Grüße

Florian



#2 NilsK

NilsK

    Expert Member

  • 11.910 Beiträge

 

Geschrieben 15. März 2017 - 12:02

Moin,

 

S2D erfordert eine Domänenintegration. Das gilt für nahezu alle Cluster-Konstrukte. Workgroup-Cluster, neu in Windows Server 2016, sind nur für wenige Applikationen zugelassen und für noch weniger empfohlen, S2D gehört nicht dazu.

 

https://blogs.msdn.m...ws-server-2016/

 

Du willst dir vielleicht den Webcast von Carsten Rachfahl ansehen:

 

[Webinar Storage Spaces Direct Deep Dive am 20. März 2017 - Hyper-V Server Blog]
https://www.hyper-v-...-20-maerz-2017/
 

Gruß, Nils


  • testperson gefällt das

Nils Kaczenski

MVP Cloud and Datacenter Management
... der beste Schritt zur Problemlösung: Anforderungen definieren!

Kostenlosen Support gibt es nur im Forum, nicht privat!


#3 Net Runner

Net Runner

    Newbie

  • 5 Beiträge

 

Geschrieben 20. März 2017 - 22:24

2-node Storage Spaces Direct ist aber ein Setup, das Ich nie machen würde. Der Grund ist ganz einfach – es ist überhaupt nicht redundant. Im dem Fall, wenn jede Node zusammen eine disk-fehler hat, geht das ganze Cluster runter zusammen mit alle Daten. Das habe Ich schon erlebt :-(

 

Für einen 2-node VSAN braucht Mann eine Lösung die mit Hardware RAID umgehen kann. Das sind nämlich solche wie Starwind http://www.starwinds...irtual-san-free oder Storevirtual http://www.hpe.com/e...orevirtual.html


  • NilsK gefällt das

#4 Weingeist

Weingeist

    Board Veteran

  • 767 Beiträge

 

Geschrieben 21. März 2017 - 11:23

@Net Runner: Verstehst Du wie die Storage Spaces funktionieren bzw. hast es bereits eingesetzt? Das ist technisch sehr ausgereift ob nun das neue Direct oder "klassisch". Wenn man das überhaupt bereits als klassisch betiteln kann. Ist ja noch nicht viel mehr als 1-2 Computergenerationen alt. =)

Ausserdem hindert Dich niemand daran anstelle einzelner Discs Volumes die auf einem Hardware-RAID liegen zu Verfügung zu stellen. Das ist sicher kein Argument. Macht bei Magnetplatten unter Umständen sogar durchaus noch Sinn weil der Write-Cache den klassischen Storage-Systemen nach wie vor etwas hinterherhinkt.

 

Des weiteren kannst Du mit Storage Spaces problemlos Mehrfachfspeicherungen vornehmen. Es gibt nicht viele Speichersysteme mit einer solchen Flexibilität. Warum das bei Storage Spaces Direct nicht so sein soll erschliesst sich mir jetzt nicht wirklich. Kannst Du gerne näher ausführen.

 

Nichts desto trotz sind 2 Nodes anfälliger als 3 oder 4 Nodes und die Einstiegskosten sind enorm weil für Direct erstens spezifische Hardware benötigt wird und bei den Lizenzen für SS Direct Datacenter gefragt ist. Denke hier will MS verhindern, dass SMB-Kunden die Cloud-Pläne von sich selber und allfälligen Partnern mittelfristig zunichte machen sobald der benötigte Hardware-Kram günstiger wird. Dürfte ein Schulterschluss sein.

 

 

Dann wäres es noch sinnvoll neben Starwind noch den aktuellen Platzhirsch zu nennen: Datacore



#5 NilsK

NilsK

    Expert Member

  • 11.910 Beiträge

 

Geschrieben 21. März 2017 - 11:39

Moin,

 

@Net Runner: Verstehst Du wie die Storage Spaces funktionieren bzw. hast es bereits eingesetzt? .

 

kein Grund, ihn so anzugehen. Erstens hat er selbst gesagt, dass er schon Erfahrung damit hat, was durchaus auch zu dem Inhalt seines Posts passt. Zweitens hat er schlicht Recht: Ein 2-Node-S2D ist keine gute Wahl. Eigentlich wollte Microsoft so ein Design auch gar nicht supporten, aber da war wohl der Wunsch des Marketing stärker als die technische Expertise. Ich rate entschieden von so einem Aufbau ab.

 

Auch zu dem "ausgereift" würde ich noch ein Fragezeichen stellen, ein großes. Die Technik ist nagelneu und alles andere als ausgereift. Davon zeugen auch die Erfahrungen derjenigen, die schon intensiver damit arbeiten. Mein vorläufiges Fazit dazu lautet: Kann man machen, aber nur wenn man bereit ist, sich damit intensiv zu beschäftigen, es selbst in der Tiefe zu supporten und Ausfälle hinzunehmen.

 

Das wird sich sicher in den nächsten Monaten verbessern, keine Frage. Aber bis dahin ist es noch ein teils sehr steiniger Weg.

 

Und wenn wir schon dabei sind, sollten wir auch zwei Namen nennen, bei denen es wirklich Erfahrungen mit Hyperconverged gibt: Nutanix und Simplivity. Da bekommt man das alles aus einer Hand und von vorn bis hinten supported. Ein Vorteil, der nicht zu unterschätzen ist.

 

Und eine Korrektur: S2D arbeitet gerade nicht mit RAID ...

 

Gruß, Nils


Bearbeitet von NilsK, 21. März 2017 - 11:39.

  • DocData gefällt das

Nils Kaczenski

MVP Cloud and Datacenter Management
... der beste Schritt zur Problemlösung: Anforderungen definieren!

Kostenlosen Support gibt es nur im Forum, nicht privat!


#6 Net Runner

Net Runner

    Newbie

  • 5 Beiträge

 

Geschrieben 22. März 2017 - 11:23

Nils hat vollkommen recht.
 
Ich habe beides 2-node und 3-node Konfigurationen ausprobiert (auch mit 3-weg Replikation) und das Problem mit fehler-toleranz ist ganz klar hier. Es gibt noch viele Fragen mit der Leistung und vor allen Dingen mit Management auch, aber das wird sich sicherlich mit der Zeit noch verbessern. ReFS ist auch noch sehr jung.
 
Nutanix und Simplivity sind tolle Produkte, ohne Zweifel. Ich habe diese aber nicht gelistet, weil meine Idee war eine richtige Alternative zu erwähnen die anstatt S2D direkt auf bestehende Windows OS installiert werden kann und selbe (oder die meisten) features anbietet.


#7 Weingeist

Weingeist

    Board Veteran

  • 767 Beiträge

 

Geschrieben 22. März 2017 - 15:15

Liest sich je nach Interpretation doch etwas forscher als beabsichtigt, korrekt. Nicht in meinem Sinne.

 

 

ReFs ist meines erachtens technisch ausgereift, ebenso wie die Storage Spaces. Waren sie bis auf einen wirklich misslichen Bug eigentlich von Anfang an. Klar fehlen ein paar Features, hat aber mit der Zuverlässigkeit meines Erachtens nichts  zu tun. Setze das schon seit es das gibt produktiv ein. Da war Software RAID bei vielen noch mehr als verpöhnt. Aber egal anderes Thema. ;)

 

Klar ist 3-Nodes besser als 2. Ist alles eine Frage der Logik. Wenn ich Stripes über mehrere bzw. alle verfügbaren Platten konstruiere, dann ist logisch, dass wenn in Stripe 1 auf Host A und Stripe 2 auf Host B ne Platte defekt ist, unter Umständen alles am ars*** ist. Ist aber - wenn es dumm läuft - in jeder normalen SAN nicht anders. Da hat man zudem noch das Mainboard als gemeinsame Komponente, raucht die ab, ist auch alles tot. Ausserdem heulen die meisten ja bereits rum, wenn zwei SSD's für nen Spiegel gekauft werden muss. Bei dreien hört es dann meist ganz auf.

 

Aber auch ein 2-Node Cluster lässt sich so aufbauen, dass dieser Fall nicht eintritt. Insofern kann man auch gut mehrere Pools à 2 Discs machen um das Striping von Anfang an zu verhindern. Die Performance ist dadurch gerade bei etwas günstigeren Enterprise Platten nicht schlechter sondern sehr oft sogar besser. Im Endeffekt ist es wie bei vielem, irgend einen Tod muss man sterben und Designfehler bleiben Designfehler.

 

Konventionelle RAID-Discs: Klar kannst Du konventionelle RAID-Volumes als Basis verwenden. Würde ich bei Magnet-Discs auch in jedem Fall so machen sonst ist die Performance absolut unterirdisch. Da nutzt unter Umständen auch der Cache nicht mehr so viel. Von Rebuilds bei nem Discfehler will ich gar nicht erst sprechen (evtl. wurde das aber verbessert, keine Ahnung).

 

 

Wie auch immer, die Hauptfragezeichen punkto Performance mit Storage Spaces stehen nach meiner Erfahrung im direkten Zusammenhang mit den verwendeten SSD's. Wird top Ware verwendet, gibts ein Top Ergebnis. Skaliert auch nahezu linear. Bei mässiger Ware ein verhältnissmässig schlechtes bis sogar sehr schlechtes. Mittelmass ist leider eher schwer möglich, je mehr Discs im Stripe, desto schwieriger wirds (Latenz-Problematik).



#8 NilsK

NilsK

    Expert Member

  • 11.910 Beiträge

 

Geschrieben 22. März 2017 - 15:48

Moin,

 

naja. Sowohl an Storage Spaces als auch an ReFS würde ich noch ein Fragezeichen machen. Qualität und Reifegrad lassen Zweifel zu.

 

Was RAID betrifft: Die Idee hinter S2D ist, dass die Software die Kontrolle übernimmt. Meines Wissens ist RAID an der Stelle zwar möglich, aber nicht supported, also nur für Tests usw. gedacht.

 

Bei der Performance gilt grundsätzlich "viel hilft viel", aber spätestens an der Stelle sollte man sich schon über die Kosten Gedanken machen. Die konzeptionellen Nachteile von S2D gegenüber anderen Hyperconverged-Lösungen tun ihr Übriges - so kennt S2D keine "Data Locality", ist also abhängig von Hochleistungs-Netzwerkverbindungen. Nicht umsonst drängt Microsoft auf RDMA-Karten, was der ursprünglichen Idee, ein leistungsfähiges System aus (günstigen) Standardkomponenten zu bauen, doch deutich widerspricht.

 

Und um noch mal den 2-Knoten-Cluster zu stressen: Wie gesagt, eigentlich war das vom Hersteller nie vorgesehen. Und das auch aus gutem Grund. Die "etablierten" Hyperconverged-Hersteller sehen aus solchen Gründen drei Knoten als Minimum an.

 

Gruß, Nils


Nils Kaczenski

MVP Cloud and Datacenter Management
... der beste Schritt zur Problemlösung: Anforderungen definieren!

Kostenlosen Support gibt es nur im Forum, nicht privat!


#9 testperson

testperson

    Board Veteran

  • 4.155 Beiträge

 

Geschrieben 22. März 2017 - 19:14

... was der ursprünglichen Idee, ein leistungsfähiges System aus (günstigen) Standardkomponenten zu bauen, doch deutich widerspricht. ...

 

https://blogs.techne...0/14/kepler-47/

 

SCNR


Good morning, that's a nice TNETENNBA!

#10 NilsK

NilsK

    Expert Member

  • 11.910 Beiträge

 

Geschrieben 22. März 2017 - 19:50

Moin,

 

warum wusste ich, dass das kommt? :D

 

Gruß, Nils


  • tesso gefällt das

Nils Kaczenski

MVP Cloud and Datacenter Management
... der beste Schritt zur Problemlösung: Anforderungen definieren!

Kostenlosen Support gibt es nur im Forum, nicht privat!


#11 testperson

testperson

    Board Veteran

  • 4.155 Beiträge

 

Geschrieben 22. März 2017 - 20:12

Das macht die jahrelange Erfahrung ;)

 

Um aber auch zumindest etwas zum Thema beizutragen, würde ich schon eine gewisse Daseinsberechtigung für den 2-Node S2D Cluster sehen. Ohne RDMA NICs ggfs. als Backup-Ziel ansonsten eben mit RDMA NICs und ohne Switch verkabelt evtl. für Fillialen oder kleinere Unternehmen.

 

"You get what you pay for" dürfte es hier aber auch treffen. Wenns allerdings den Anforderungen genügt, wieso nicht.


Good morning, that's a nice TNETENNBA!

#12 DocData

DocData

    Board Veteran

  • 1.202 Beiträge

 

Geschrieben 22. März 2017 - 20:18

Why?!!!? Zwei Server, eine MSA 2040/ 2042 mit SAS und Ende. Macht es doch nicht komplizierter als notwendig.

Ein Wrack ist kein Ort, an dem ein Schatz schlummert...


#13 now3

now3

    Newbie

  • 6 Beiträge

 

Geschrieben 22. März 2017 - 20:54

Why?!!!? Zwei Server, eine MSA 2040/ 2042 mit SAS und Ende. Macht es doch nicht komplizierter als notwendig.

 

S2D ist halt flexibler und billiger. Da reichen für den Anfang bereits die 2 Server. Eine nackte SAS-MSA2040 verursacht bereits ca. 1-5k€ Mehrkosten, braucht mehr Platz im Rack und mehr Strom. Und ist unflexibler, wenn die mal voll ist.


Bearbeitet von now3, 22. März 2017 - 20:56.


#14 DocData

DocData

    Board Veteran

  • 1.202 Beiträge

 

Geschrieben 22. März 2017 - 21:41

Soweit zu den Aspekten die das Marketing verspricht...

Ein Wrack ist kein Ort, an dem ein Schatz schlummert...


#15 NilsK

NilsK

    Expert Member

  • 11.910 Beiträge

 

Geschrieben 24. März 2017 - 10:54

Moin,

 

in dem ROBO-Szenario (kleine Filiale) ist S2D in aller Regel aber schon wegen der Lizenzen zu teuer. Zweimal Datacenter - wegen der dort laufenden VMs würde die Filiale das ganz sicher nicht brauchen.

 

Scheidet also faktisch auch aus.

 

Gruß, Nils


  • DocData gefällt das

Nils Kaczenski

MVP Cloud and Datacenter Management
... der beste Schritt zur Problemlösung: Anforderungen definieren!

Kostenlosen Support gibt es nur im Forum, nicht privat!