Jump to content

Storage gesucht


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Hi,

 

es wird Zeit unser Storage auszutauschen. Wir betreiben eine vsphere Umgebung mit 6 Hosts. Vsan kommt nicht in Frage. Storage soll als block device per FC angebunden werden. 

 

Wichtigstes Feature, wir wollen einen transparenten failover ohne irgendetwas an den vsphere hosts umstellen zu müssen. Zwecks Wartungsarbeiten oder eben automatisch beim Ausfall.

 

ssd und Spindel ist selbstverständlich mittlerweile. 

 

Aktuell habe ich eine Dell compellent oder auch SC Serie im Blick. Emc unity kann keinen vernünftigen transparenten failover. 

 

Was för Systeme fallen euch ein? Netapp Metro Cluster ist draußen!

 

 

Link zu diesem Kommentar

Wir haben ganz normale Windows-Server mit Datacore oben drüber.

 

Interne 24 HDD (jeweils) davon je 4 Server-SAS-12-SSD, insgesamt 2 Storage-Bereiche einmal mit Auto-Tiering einmal ohne, insgesamt 20TB

 

FC weil? die Hosts jetzt auch FC haben?

 

Kostet in der Regel extra Geld.

 

Über welche Storage-Größe reden wir?

Link zu diesem Kommentar
vor 2 Stunden schrieb zahni:

Bitte definiere "transparenten Failover"

Bei uns  klappt ein  mit  einer FAS8020 und einer korrekte Multipathing-Config ohne Probleme.

 

Mit failover meine ich den Schwenk auf ein zweites synchron gespiegeltes Storage. Nicht auf einen zweiten Controller. 

 

Storagevilumen en brutto etwa 100 TB pro Seite. 

 

FC weil switche und Kabel vorhanden. Nfs fällt raus und iscsi ja ok, aber haben ja eh die switche. 

Link zu diesem Kommentar
vor 21 Minuten schrieb StefanWe:

Mit failover meine ich den Schwenk auf ein zweites synchron gespiegeltes Storage. Nicht auf einen zweiten Controller. 

 

Storagevilumen en brutto etwa 100 TB pro Seite. 

 

FC weil switche und Kabel vorhanden. Nfs fällt raus und iscsi ja ok, aber haben ja eh die switche. 

Dann schaue dich mal bei Datacore um, da bekommst du genau das, wir haben das als Storage unter den beiden Hyper-V-Clustern.

 

100TB ist schon ´ne Nummer, ich glaube, da ist auch von den Lizenzen Schluss.

 

Brauchst halt zwei vernünftige Kisten entweder mit Storage drinnen (wie bei uns) oder halt mit mehreren SAS-Kanälen extern angebunden. (J-BOD)

 

Ein guten Systemhaus wird dir das anbieten können, sonst trigger mich mal per PM an, ich kann ggf. Kontakte herstellen ;-)

Link zu diesem Kommentar
vor 43 Minuten schrieb zahni:

Und  welche Anforderung  willst  Du damit umsetzen?  Normalerweise sind  2  Controller  völlig ausreichend. Damit kann man sogar im Betrieb viele der kleineren  Ontap-Updates durchführen. Zumindest was den FC-Teil angeht.  

Und was machst du bei Wartungsarbeiten am gesamten Brandabschnitt?

 

@norbert:

datacore haben wir zur Zeit vor einer 3Par hängen. Ich melde mich im März mal per PN. Danke. 

 

Alternative Vorschläge noch?

 

kennt jemand die Systeme von Hitachi?

Link zu diesem Kommentar
vor 3 Stunden schrieb zahni:

Damit kann man sogar im Betrieb viele der kleineren  Ontap-Updates durchführen.

 

Ich war jetzt bei unserem IBM DS3500 sogar so mutig und habe im laufenden Betrieb die Firmware unseres SANs und danach die Firmware der Festplatten aktualisiert. Beides ohne Downtime, ist schon schick was da mittlerweile alles geht :)

 

Wir hatten aber auch schon mal den Fall das unser SAN wegen eines Firmware Bugs komplett down war, und das gleich 2x in 3 Monaten. Downtime insgesamt etwa 5 Stunden. Ob so ein seltener Fall den Preis eines zweiten SAN wert ist muss jeder für sich entscheiden.

bearbeitet von Doso
Link zu diesem Kommentar

Wir haben bei uns verschiedene DELL Systeme im Einsatz, darunter mittlerweile auch eine SC 2020 mit 2 Enclosern. Die haben ebenfalls 2 Controller und bieten soweit eine gute Verfügbarkeit an.

Einzig über die Performance kann man sich hier streiten, diese ist nicht so gut wie bei unseren 38er MDs von DELL. Bei der SC häng auch vieles vom Einsatz ab, also welche Daten liegen auf dem Storage und von welchen Systemen werden diese Verarbeitet. Die SC hat halt einen fest eingebautes Limit pro Verbindung (je nach größe des Kopfes zb. von ca. 3000 Mbit) welches bei unseren Einsatz immer wieder an die grenzen stößt. Des weiteren ist auf der SC eine weitere logische Schicht für die Speicherverwaltung und LUN Zuordnung.

Für einen Einsatz von vielen Hosts/Clients, die auf die SC zugreifen und viele kleine Dateien schreiben/lesen müssen, ist sie sicherlich OK. Jedoch für eine Verarbeitung von großen Daten eher ungeeignet und eher wenigen Hosts ungeeignet. Die MD38xx ist hier wesentlich schneller :).

 

Aktuell spielen wir zusätzlich mit einem "billigen" Storage für die VMs unserer Entwickler, welcher aus Supermicro Enclosern und Kopf besteht. Hier muss du für das OS zwar selber Hand-Anlegen, wirst jedoch mit einem günstigen Speicher und schneller Performance belohnt. Mit bissle RAM oder NVMe's kannst du Dir auch einen schönen Cache gönnen :). Und mit 2 Systemen kannst Du auch ein Voll-Redundantes System einrichten und kannst die Systeme im HA betrieb ohne Probleme warten.

Link zu diesem Kommentar

Netapp-Metrocluster ist für Desaster-Fälle.

Euch sollte ein normaler Netapp-Cluster genügen. Wartungsarbeiten sind ja planbar. Man kann also die die Volumes und SVMs entsprechend vorher verschieben.

Ich würde einen Cluster bestehend aus zwei HA-Dualcontroller-FAS nehmen. Je nach Anforderungen genügen da ja sogar die 2600-Systeme.

 

Alternative: FreeNAS als HA-Cluster.

Link zu diesem Kommentar

Auch wenn Netapp scheinbar draußen ist . . . . eventuell ist doch ein single node stretched Metro Cluster interessant. Pro Site 1 Controller, die Daten werden automatisch gespiegelt. Geht seit Ontap 9.3 auch über IP. Wenn Ihr FC-Switche habt ist die Sache noch leichter (wenn es die richtigen Modelle sind). Alternativ bei genügend LWL-Fasern könnt ihr die Verbindung der Shelfs über optische SAS-Kabel machen. 

 

Bei der Größenordnung kann man auch über Allflash nachdenken, das ist nicht mehr so extrem teuer. Die Deup-Raten sind bei Netapp auch recht nett, da stellt sich dann die Frage ob man wirklich 100 TB braucht.

 

Zudem solltet ihr das Thema Backup & Recovery betrachten (lokale Snapshots, Sicherung von Hardware-Snapshots etc.). 

bearbeitet von djmaker
Link zu diesem Kommentar

HPE 3PAR mit Peer Persistence. Die können das seit vielen Jahren. Failover zwischen den Volumes ist ein simpler Pfadfailover. Du hast 8 Pfade pro LUN, vier aktive vom primären System, vier standy vom Spiegel.

 

DataCore und NetApp können das auch. Allerdings handelt es sich da, streng genommen, um den Failover zwischen zwei Controllern, nicht um den Failover zwischen Speichersystemen.

Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...