Jump to content

bla!zilla

Members
  • Gesamte Inhalte

    333
  • Registriert seit

  • Letzter Besuch

Beiträge erstellt von bla!zilla

  1. Ja hat denn mal jemand mit dem Symantec Support gesprochen? Ich kann immer noch nicht ganz nachvollziehen das so ein Major Bug nicht bekannt ist und nicht gefixt werden kann.

     

    Ganz triviale Fragen: Die NAS Devices stehen in der HCL vom Symantec? Es kann kein Berechtigungsproblem sein? Lief die Config überhaupt mal? Hat jemand mal eine laufende Config gesehen?

  2. Dafür dauert dann ein Deployment ewig länger. Man darf das OS installieren und dann noch jede Applikation.

     

    Wie oft installierst du Rechner neu? Dank Softwarepackages und Softwareverteiltung ist das Installieren von Software eh witzlos.

     

    Entweder steckt man den Aufwand in das Image oder den Aufwand in das Deployment.

     

    Das ist keine Frage von Aufwand, es ist eine Frage von zu supportenden Rechnerarchitekturen, unterschiedlichen Benutzergruppen und Effizienz.

  3. Habe ich noch nicht ermittelt. Viele sind es nicht... ich tippe auf ~ 500 IOPS.

     

    500 IOPS bei 60 Usern, zwei Terminalservern, einem SQL, einem Exchangeu nd sechs anderen VMs? Ich halte das zwar für untertrieben, aber wenn ich mal von einem Read/ Write Verhältnis von 70/30 ausgehe, dann sollte ein RAID 1+0 aus 6 10k SAS Platten deinen Performanceanforderungen genügen (ausgehend von 32K IOs komme ich auf ca. 600 random IOPS).

  4. Sofern immer die gleiche Hardware verwendet wird und selten Änderungen gemacht werden, sind Imagelösungen der effektivere Weg. Sofern unterschiedliche Hardware zum Einsatz kommt und öfter man Änderungen gemacht werden, sollte man in Richtung unattended tendieren. In größeren Umgebungen ist eine Softwareverteilung eh Pflicht. Mit WAIK hat sich das Thema Unattended Installations eh sehr entspannt.

  5. Wenn VLANs zum Einsatz kommen reicht es auf dem Switch DHCP Relay zu aktivieren. Auf Basis der IP, die im giaddr Feldes im DHCP Paketes steht, verteilt der DHCP Server aus dem dazu passenden Scope.

     

    Mehrere DHCP Server/ binden von Scopes an Netzwerkkarten (was nicht geht...) ist also nicht notwendig, um in bestimmte VLANs bestimmte Adressen zu verteilen.

  6. es wäre ein zweiter HyperV-Host vorhanden, auf dem dann noch eine Maschine mit SQL installiert werden könnte. Ich möchte allerdings keine großen Klimmzüge machen (Cluster, Shared Storage) und dachte, dass es da eine "Quickie-Variante" gäbe, um einfach eine etwas höhere Verfügbarkeit zu haben.

     

    HA und Quickie-Lösungen sind keine sinnvolle Kombination. Mangels zentralem Storage und SQL Enterprise Version fällt ein Cluster eh bei dir raus. Database Mirroring würde gehen, sofern deine Anwendungen mitspielen. Nutzen diese den SQL Native Client, sehe ich eigentlich kein Problem (außer evtl. das Knowhow)

     

    Das Storage für die VMs (NAS?) würde ich mit ~ 3 TB dimensionieren.

     

    Nee, die Infos reichen nicht für ein Sizing. Wie viele IOPS brauchst du? Welches Verfügbarkeitslevel strebst du an? Kapazitätsangaben alleine sind nicht brauchbar.

     

    Du brauchst einfach nur ne Shared Storage, am besten genug Netzwerkkarten und ein bisschen Planung.

     

    Ach wenn es nur immer so einfach wäre... Leider kenne ich genug Installationen, an die so herangegangen wurde. Etwas mehr Planung darf es schon sein...

  7. "nix für ungut aber wer setzt schon HyperV ein?"

     

    Dieser Satz in einem Microsoft-lastigen Forum? :-)

     

    Ach so, ist das Aussprechen der Wahrheit verboten? VMware war, ist und wird ,mit an Sicherheit grenzender Wahrscheinlichkeit, die Posaune im Blockfötenorchester der Virtualisierungslösungen bleiben.

     

    Bei vielen Kunden funktioniert die Kombination APC/ vMA sehr gut. Bei HP (Powerware) nutzen wir bei einigen Kunden eine Kombination aus Agent im Gast und selbstgeschriebenen Skripten für den Shutdown von ESX Hosts und Storagesystem. Diese Kombination, also USV mit Netzwerkadapter, Agent im Gast und selbstgeschriebene Skripte für den Shutdown, funktioniert übrigens mit so ziemlich jeder USV. Wir haben das z.B. auch mit AEG USVs laufen.

  8. DFS-R ist nur sehr begrenzt sinnvoll, nämlich dann, wenn immer nur einer eine bestimmte Datei arbeitet. Da es keinen serverübergreifenden Lock-Mechanismus gibt, könnte es sonst sein, dass User1 die Datei von Server1 öffnet und User2 die von Server2 - und wer dann als letzter speichert, hat die andere Fassung überschrieben.

     

    Ist bekannt (bzw. sollte jedem der DFS nutzt bekannt sein...). Last save wins. Allerdings habe ich mit DFS-R keinen SPoF (von bestimmten Szenarien mal abgesehen...) Ein zentrales Storage ist halt der SPoF eines jeden Clustes. Außer wir sprechen über MNS Cluster und Dinge wie z.B. HP Continuous Access oder EMC MirrorView.

×
×
  • Neu erstellen...