Jump to content

Eigenes kleines RAID System für Host Betriebssystem zwingend nötig/sinnvoll?


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Hallo in die Runde,

 

ich würde mich über ein paar Meinungen und Gedanken aus eurer Praxis freuen.

 

Es geht einfach darum, dass ich bisher eigentlich immer bei der Planung eines Hyper-V Systems ein kleines RAID 1 bestehend aus zwei kleinen SAS Platten für das Host System genutzt habe. Und dann ein anderes/weiteres RAID System für die virtuellen Maschinen - also zB ein weiteres SSD @RAID 1 oder auch ein weiteres SAS @RAID 10. Ich habe bisher immer "gerne" das Hostsystem komplett vom virtuellen System getrennt, auch "physikalisch".

 

Die Frage, die sich mir grade zunehmend stellt, ist halt, ob man das überhaupt (noch?) so machen muss bzw. sollte.

 

Wenn ich zB ein SSD RAID 1 bestehend aus zwei Platten habe - und das RAID 1 laut Planung genügend Reserven bezüglich Plattenplatz bietet - was spricht dann dagegen, damit zwei Partitionen zu bilden und auf der ersten (kleinen) dann ganz normal das Host System zu installieren und auf der anderen dann die virtuellen Maschinen? Mir ist klar, dass das Host System jetzt nicht zwingend auf viel IO Performance angewiesen ist. Aber umgekehrt könnte man sich das zusätzliche Geld für die beiden kleinen SAS Platten ja auch sparen - und dafür ggfs. ne Nummer "Größer" bei den SSDs kaufen...?!

 

Ich würde mich wie geschrieben einfach über ein paar Meinungen diesbezüglich freuen. Wie macht ihr das? Spricht was grundsätzlich dagegen, das Hostsystem und die Gastsysteme auf die selben Platten zu installieren?

 

Gruß

Björn

Link zu diesem Kommentar

Eigene physikalische Platten für das OS hat man traditionell aus (mindestens) drei Gründen gemacht, die sich gerade aufdrängen:

 

- vor allem wenn der RAM Speicher mit zunehmender Nutzung des Servers langsam zur Neige geht, steigt der Druck auf die Platte, welche die Paging-Datei halten muss, überproportional an.

 

- Dasselbe gilt, wenn eine Platte ausfällt und das RAID neu aufgebaut werden muss.

 

Ein einzelnes großes dauert länger aufzubauen. Von separaten RAIDs für OS und Datenplatten versprach man sich also eine gewisse Risikostreung für den Ausfall/Recovery Fall.

 

- Mehr Flexibilität. Das OS unabhängig von den Daten als selbständiger "Klotz" nehmen können konnte durchaus nützlich sein bei Tests, Migrationsszenarien, Ausfall-Recovery Szenarien, usw.

 

- Ein gewisses Maß an zusätzlicher Betriebssicherheit. RAID Controller waren mal richtig komplexe Dinger. Durch Fehlbedienung der ebenso komplexen Steuersoftware, Firmwarefehler und andere unliebsame Effekte, die es nicht hätte geben dürfen aber trotzde gab, kam es durchaus vor, dass ein komplettes RAID auf einmal abgeschmiert ist. Deshalb war es sogar durchaus üblich, zwei RAID Controller im Server zu haben. Der Gedanke: triffts dann die OS Platten, kann man die noch intakten Datenplatten an einen anderen Server hängen. Trifft es die Datenplatten hat man ein intaktes OS um hochzufahren und Fehlersuche zu betreiben.

 

Es gab aber nur extrem wenige Fälle, außerhalb von Labor- und Entwicklungsumgebungen, wo ich mich erinnern kann, dass damit im größeren Stil gearbeitet wurde. Eigentlich keinen. Im Labor wars dagegen oft nützlich.

 

Trotzdem wurden Server fast immer so angeboten und auch bestellt. Inwiefern das damit zu tun hatte, dass man damit noch zwei von den sündteuren Serverplatten mehr anbieten konnte, mag ich nicht beurteilen, ebenso wenig inwiefern das angesichts der technischen Weiterentwicklung noch alles Sinn macht. Ich machs in manchen Umgebungen nach wie vor so, jedenfalls bei "universellen" Servern. Immerhin kann ich dadurch als Datenplatten über die Jahre ein wildes Sammelsurium an alten, neuen, schnellen, langsamen und SSD Speichern betreiben und damit jonglieren, ohne das Betriebssystem unnötig zu gefährden. Ich hätte aber auch ohne überleben können.

 

Armin.

bearbeitet von Nimral
Link zu diesem Kommentar

Moin,

 

Das diskutieren wir hier ja alle paar Tage ... Auch bei VMware nimmt man keine USB-Sticks, sondern ein SATA DOM. Ganz andere Kategorie. Mit Hyper-V geht das nicht, macht aber nix, macht man bei VMware in der Praxis nämlich auch praktisch nie.

 

Die Frage nach der Disk-Konfiguration ist zu 100% abhängig von den Anforderungen, und von denen hat hier noch niemand gesprochen.

 

Gruß, Nils

Link zu diesem Kommentar

zumindest IBM hat die bladecenter e und h mit USB-Sticks verkauft. Hatten wir jahrelang im Einsatz. Cisco verkauft SD-Karten, auf Wunsch gespiegelt mit ESX vorinstalliert. Als Flexpod ist das booten von einer LUNs vorgesehen. Wie du schreibts: alles eine Frage der Anforderungen an Geschwindigkeit, Verdügbarkeit und eventueller Lizenzen. Ich hätte mir das für HyperV jetzt ähnlich vorgestellt. Eventuell als core-installation oder wie das heisst?

Link zu diesem Kommentar

Moin,

 

USB-/Flash-Setup ist mit Windows 2016 nicht mehr supported. Es hat sich gezeigt, dass es zu wenig zuverlässig ist (wegen der Flash-Technik, nicht wegen Hyper-V) und zu wenige Kunden es wirklich einsetzen.

 

Abgesehen von ein paar enthusiastischen Versuchen in der Frühzeit der Technik ist das Bild bei VMware ähnlich. Und die Supportaussagen beziehen sich m.W. dort eben auch nur auf ganz bestimmte Lösungen, nicht auf "irgendein" Flash. Wie auch?

 

Am Ende ist die Diskussion doch auch müßig. Es ist eine Frage des Designs, das auf den Anforderungen beruht. Wenn ernsthaft der Kostenunterschied zwischen Flash und einem kleinen RAID-1 ein Thema ist, dann ist man vielleicht mit falschen Erwartungen unterwegs. Alle anderen haben die ganze Bandbreite von "ein großes RAID für alles" über "Host lokal, Daten im SAN" bis zu Hyperconverged.

 

Gruß, Nils

Link zu diesem Kommentar

Unser Cluster hat mit den hosts und dem SAN ein paar zehntausend Euronen gekostet, da machen es ein paar Euronen für 2 kleine RAID1 Boot Festplatten jetzt auch nicht aus. Selbst wenn man VMWare auf irgendwelche USB Sticks installiert und Hyper-V auf extra Festplatten.

 

Ich würde meine Entscheidung welchen Virtualisierer ich nehme jetzt nicht davon abhängig machen was man auf einen USB Stick installieren kann. Vor allem ist Hyper-V vermutlich trotz extra Festplatten immer noch günstiger :p

Link zu diesem Kommentar

Abgesehen von ein paar enthusiastischen Versuchen in der Frühzeit der Technik ist das Bild bei VMware ähnlich. Und die Supportaussagen beziehen sich m.W. dort eben auch nur auf ganz bestimmte Lösungen, nicht auf "irgendein" Flash. Wie auch?

vSphere SSD and Flash Device Support (2145210)

 

Installation auf einem USB Stick oder einer SD Card ist überhaupt kein Problem, ist supported und das schon seit vielen Jahren. Da dort keine Logs geschrieben werden, halten die auch eine halbe Ewigkeit (ich hatte da noch keine Ausfälle). SD Card/ USB Stick kamen immer mit dem Server mit, also vom Hersteller.

 

Mware strictly recommends that customers who do not have a preinstalled system either obtain a USB flash drive directly from their OEM vendor or purchase a model that has been certified for use with their server.

Link zu diesem Kommentar

Auch bei VMware nimmt man keine USB-Sticks, sondern ein SATA DOM. Ganz andere Kategorie. Mit Hyper-V geht das nicht, macht aber nix, macht man bei VMware in der Praxis nämlich auch praktisch nie.

Hmm,

also mit der Aussage praktisch nie wäre ich etwas vorsichtig. Lt. unserem VMware DL werden im Gros der durch Ihn verkauften VMWare-Hosts keine Platten mehr verbaut. Der ESXi läuft auf einem RAID-1 aus 2 SD-Karten (Dell). Haben wir hier auch im Einsatz. Funktioniert 1A. Bei HP kann man das im Übrigen in der tat per USB-Stick realisieren. Die verkaufen einem für viel Geld einen Marken USB-Stick zu den Servern.

Das betrifft natürlich VM-Hosts die ohnehin an einem SAN hängen. Wenn ich eh ein lokales RAID verbaue hab ich den Hypervisor immer mit auf das Array gepackt. Bei ESXi. braucht es dafür ja auch nur ein paar GB...

 

Unser Cluster hat mit den hosts und dem SAN ein paar zehntausend Euronen gekostet, da machen es ein paar Euronen für 2 kleine RAID1 Boot Festplatten jetzt auch nicht aus. Selbst wenn man VMWare auf irgendwelche USB Sticks installiert und Hyper-V auf extra Festplatten.

 

Ich würde meine Entscheidung welchen Virtualisierer ich nehme jetzt nicht davon abhängig machen was man auf einen USB Stick installieren kann. Vor allem ist Hyper-V vermutlich trotz extra Festplatten immer noch günstiger :p

Geht auch weniger um irgendwelche Kosten. Ein keines 2 Platten RAID-1 verbrät halt mehr Energie als ein Flash-Speicher. Macht bei einigen Hosts im Rack dann schon was aus. Zumal die Abwärme ja auch wieder per Klimaanlage entsorgt werden muss!

 

Bei Teil 2 Deiner Aussage stimme ich Dir aber 100%ig zu. Entscheidend sind die Anforderungen und das persönliche KnowHow. Die Kosten spielen natürlich auch eine Rolle, sind aber in m.E. in kleinen Umgebungen vernachlässigbar. Auf die 500€ für eine vSphere-Essentials-Lizenz kommt es zumeist auch nicht an! Und wenn es dann richtig groß wird kostest Hyper-V auch Geld.

Hyper-V mag für einen reinen Windows-Admin "einfacher" zu handeln sein, da man sich in seinem gewohnten Umfeld bewegt. Nach 10 Jahren VMWare-Einsatz bin ich natürlich diesbezüglich vorbelastet und sehe das naturgemäß etwas anders. 

Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...