Jump to content

Windows Software RAID und Trim


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

@Zahni: Wartung: Logisch, hier können aber Third-Party Erweiterungen wie es auch sonst für Windows gibt hinzukommen. Dafür gibt es API's, Schnittstellen und dergleichen.

Für kleine und mittlere Umgebung reicht Benachrichtigung und auto Hotspare-verwendung völlig aus.

 

Zu High-Performance: Schau dir mal die neuen Scale-Out-Features aus. Da sind nur die IOPS des Datenträgersystem die Limitierung. Ansonsten geschehen Reads über alle ClusterNodes gemeinsam. Quasi Out Of the Box. Aktuell extra für VHD's und SQL-Datenbanken.

 

Zu den Pools: Da Windows es total egal ist wie gross die Platten sind, kann man einfach alles reinhängen was 'rumsteht'. Der Rest erledigt es selber aufgrund der Definition welche man für die virtuellen Datenträger angegeben hat. Die jeweiligen Platten sucht er sich selber aus.

 

Es steht einem natürlich nichts im Wege - sofern man Windows nicht richtig traut oder als zusätzliche Sicherheit - erstmal RAID-Volumes als Basis für den Aufbau zu nehmen.

 

Und noch eine gute Nachricht: Bei Pools funktioniert Trim trotzdem!

sowohl mit NTFS als auch mit dem neuen. Habe da einen kleinen Fehler gemacht (leicht zu kleines Files für den Trim-Test verwendet).

 

Zum ZFS: Das ist eigentlich richtig nett. In der höchsten Ausbaustufe, die allerdings auch nicht günstig zu haben ist, sogar mit transparentem Failover über mehrere Nodes. Dazu extrem gutes Dedup, übelste Performance (trotz verwendung von SATA Platten, weil Read und WriteCaching machbar, sowohl mit SSD's als auch mit RAM). Da kannst zbsp. auch pro Block jeweils Doppel, Dreier, Viererpakete von HDD's oder soviel Du willst machen. Die DiskBlocks hängst dann zusammen. Speichererweiterung in dem du einfach einen identischen Block wieder dazufügst. Windows geht da aber weiter, da hängst einfach Platten rein und definierst in der virtuellen HD, was für Voraussetzungen sie erfüllen muss. Entweder mit JPOD's auf welche mehrere Server gemeinsam Zugriff haben oder eben auch direkt mit lokalen Discs.

 

@ChristianZ: Die HostCPU muss Paritäten berechnen, das braucht sicher etwas mehr Leistung als Mirror-Lösungen. Da habe ich noch keine Tests gefahren, ist aber auch nicht meine Priorität. Ich verwende "nur" Mehrfachspiegel. Aber wie gesagt, bei den Leistungen welche heutige CPU's bringen, zusammen mit dem RAM-Cache, ich glaube da müssen sie sich den wenigsten Einsteiger oder Mittel SAN's geschlagen geben in Sachen Performance und mit den neuen Features sicher auch in Sachen Flexibilität. ;)

Link zu diesem Kommentar

@Zahni: Wartung: Logisch, hier können aber Third-Party Erweiterungen wie es auch sonst für Windows gibt hinzukommen. Dafür gibt es API's, Schnittstellen und dergleichen.

Für kleine und mittlere Umgebung reicht Benachrichtigung und auto Hotspare-verwendung völlig aus.

 

Zu High-Performance: Schau dir mal die neuen Scale-Out-Features aus. Da sind nur die IOPS des Datenträgersystem die Limitierung. Ansonsten geschehen Reads über alle ClusterNodes gemeinsam. Quasi Out Of the Box. Aktuell extra für VHD's und SQL-Datenbanken.

 

Zu den Pools: Da Windows es total egal ist wie gross die Platten sind, kann man einfach alles reinhängen was 'rumsteht'. Der Rest erledigt es selber aufgrund der Definition welche man für die virtuellen Datenträger angegeben hat. Die jeweiligen Platten sucht er sich selber aus.

 

Es steht einem natürlich nichts im Wege - sofern man Windows nicht richtig traut oder als zusätzliche Sicherheit - erstmal RAID-Volumes als Basis für den Aufbau zu nehmen.

 

Und noch eine gute Nachricht: Bei Pools funktioniert Trim trotzdem!

sowohl mit NTFS als auch mit dem neuen. Habe da einen kleinen Fehler gemacht (leicht zu kleines Files für den Trim-Test verwendet).

 

Zum ZFS: Das ist eigentlich richtig nett. In der höchsten Ausbaustufe, die allerdings auch nicht günstig zu haben ist, sogar mit transparentem Failover über mehrere Nodes. Dazu extrem gutes Dedup, übelste Performance (trotz verwendung von SATA Platten, weil Read und WriteCaching machbar, sowohl mit SSD's als auch mit RAM). Da kannst zbsp. auch pro Block jeweils Doppel, Dreier, Viererpakete von HDD's oder soviel Du willst machen. Die DiskBlocks hängst dann zusammen. Speichererweiterung in dem du einfach einen identischen Block wieder dazufügst. Windows geht da aber weiter, da hängst einfach Platten rein und definierst in der virtuellen HD, was für Voraussetzungen sie erfüllen muss. Entweder mit JPOD's auf welche mehrere Server gemeinsam Zugriff haben oder eben auch direkt mit lokalen Discs oder iSCSI/FC Zielen.

 

@ChristianZ: Die HostCPU muss Paritäten berechnen, das braucht sicher etwas mehr Leistung als Mirror-Lösungen. Da habe ich noch keine Tests gefahren, ist aber auch nicht meine Priorität. Ich verwende "nur" Mehrfachspiegel. Aber wie gesagt, bei den Leistungen welche heutige CPU's bringen, zusammen mit dem RAM-Cache, ich glaube da muss sich Windows den wenigsten Einsteiger oder Mittel SAN's geschlagen geben in Sachen Performance und mit den neuen Features sicher auch in Sachen Flexibilität. Ich kann von den IOPS-Werten in meinem TestLab auf meiner (für meine Verhältnisse) teuren SAN mit minimalen Features nur Träumen. ;)

Link zu diesem Kommentar
Zusammen mit iSCSI (was dankbarerweise auch endlich legal verwendet werden darf und nicht nur in Testlabs oder bei kauf des Storage-Servers) würde sich das ganze sogar komplett über mehrere Gebäude/Brandabschnitte zusätzlich gespiegelt erstellen lassen. Hochverfügbarkeit mit Standard-Server-Hardware und Transparentem Failover sowie teilweise Scale Out (also lesen von allen Nodes). Für die absolute Paranoia ;)

 

Also die eierlegende Wollmilchsau für alle Kunden in jeder Größe zum geringen Preis und maximaler Verfügbarkeit?

 

Entschuldige meinen Sarkasmus, aber deine Beiträge lesen sich wie eine Aneinanderreihung von Marketing und "Hab ich im Internet gelesen". Du kannst damit gerne in deinem Testlab rumspielen, aber vom Praxisbetrieb würde ich doch mal absehen. Zu Scale-Out gehört noch etwas mehr als Windows Server 2012. Zudem gilt bei solchen Lösungen immer GIGO - Garbage in, garbage out. Das gilt auch für ZFS. ZFs ist nice, du magst das ganz toll finden, aber ich kann dir gerne Kontakt zu Leuten aus der Praxis vermitteln, die dich je nach Anwendungsfall ganz schnell wieder auf den Boden der Tatsachen zurückholen. Ich teile auch deine Ansichten hinsichtlich lokalem Speicher füt VDI Umgebungen nicht. Die tägliche Praxis präferiert hier andere Lösungen.

Link zu diesem Kommentar
Davon höre ich zum ersten Mal, wie soll das denn gehen z.B. bei einem Drei-Platten-RAID5 mit einer ausgefallenen Platte? Was genau soll da die Host-CPU "erledigen"?

 

Die "Berechnung" der fehlenden Daten aus vorhandenen Daten und Parity. Jeder Read-IO auf einen Block, der auf der ausgefallenen Platte liegt, wird aus den vorhandenen Daten und den Paritätsdaten berechnet. Vom Rebuild ganz zu schweigen, der kommt noch dazu.

Link zu diesem Kommentar
Die "Berechnung" der fehlenden Daten aus vorhandenen Daten und Parity. Jeder Read-IO auf einen Block, der auf der ausgefallenen Platte liegt, wird aus den vorhandenen Daten und den Paritätsdaten berechnet. Vom Rebuild ganz zu schweigen, der kommt noch dazu.

Wir sprechen hier schon von Hardware-RAID, oder?

 

K.A. was Leute hier mit ZFS wollen, wir sind hier im "IT Pro Forum zu Windows Server 2012 / 2008 R2 / 2008 / 2003 & Windows 8 / Windows 7 / Vista / XP" und diese Betriebssysteme können ZFS _nicht_, zumindest nicht nativ.

 

Mein Verständnis von einem "Drei-Platten-RAID5" mittels Hardware-RAID-Controller wie z.B. Adaptec 5405 oder HP p400, mit batterie-gestützten Cache ist: Das Betriebssystem wirft dem Treiber eine Anforderung vor "Ändere in logischen Datenträger 0 im logischen Block 417 das 17. Byte auf 111", damit ist für die Host-CPU der Käse gegessen, die weiss - behaupte ich - _nicht_ mal ob Datenträger 0 ein RAID 0, 1 oder 5 ist. Schlimmstenfalls meldet der Treiber zurück "du heute nicht", z.B. weil alle mechanischen Platten ausgefallen sind. Dass die Anforderung vielleicht bei RAID0 kürzer oder länger dauert als bei RAID5 damit hat die Host-CPU _nüschd_ zu tun.

 

Mal sehen, welches Szenario zahni meinte mit " Performance-GAU, weil Dinge, die der Prozessor im RAID Controller macht, nun von der Host-CPU erledigt werden. "

Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!
Gast
Dieses Thema wurde für weitere Antworten geschlossen.
×
×
  • Neu erstellen...