Jump to content

Ostrich

Members
  • Gesamte Inhalte

    25
  • Registriert seit

  • Letzter Besuch

Profile Fields

  • Member Title
    Newbie

Fortschritt von Ostrich

Contributor

Contributor (5/14)

  • Erste Antwort
  • Engagiert
  • Erster eigener Beitrag
  • Eine Woche dabei
  • Einen Monat dabei

Neueste Abzeichen

10

Reputation in der Community

  1. Danke @Nobbyaushb für den Tip. Ich bin schon mal ein ganzes Stück weiter und habe mir eine Testumgebung, mit 3 alten HP Proliant Gen8 (Xeon E5-2670), 256GB RAM, 2xNC530T Dualport 10Gbit Adaptern aufgebaut. Auf LBFO-Teaming habe ich schlussendlich verzichtet und das Ganze mit SET umgesetzt: #Abfrage der End-IP-Adresse des Systems $IP = Read-Host "Bitte geben Sie den vierten und letzten Bereich der IP-Adresse an (z.B. 101 fuer 192.168.210.101)" $IP1 = Read-Host "Bitte geben Sie den vierten und letzten Bereich der IP-Adresse (2. ISCSI-Adapter) an (z.B. 101 fuer 192.168.210.101)" # create switch New-VMSwitch -Name "vSwitch1" -NetAdapterName "LAN10G1","LAN10G3" -AllowManagementOS $false -EnableEmbeddedTeaming $true # Add Interface Add-VMNetworkAdapter -Switchname vswitch1 -Name Host -managementOS Add-VMNetworkAdapter -Switchname vswitch1 -Name CSV -managementOS Add-VMNetworkAdapter -Switchname vswitch1 -Name LiveMigration -managementOS Add-VMNetworkAdapter -Switchname vswitch1 -Name HeartBeat -managementOS Set-VMNetworkAdapterVlan -VMNetworkAdapterName "Host" -Access -VLANID 1 -ManagementOS Set-VMNetworkAdapterVlan -VMNetworkAdapterName "CSV" -Access -VLANID 91 -ManagementOS Set-VMNetworkAdapterVlan -VMNetworkAdapterName "LiveMigration" -Access -VLANID 92 -ManagementOS Set-VMNetworkAdapterVlan -VMNetworkAdapterName "HeartBeat" -Access -VLANID 93 -ManagementOS Anschließend VMQ und RSS konfiguriert - wobei ich mit beim RSS unsicher bin, ob das so bereits passt: # Configure VMQ set-netadaptervmq -Name "Lan10G1" -BaseProcessorNumber 2 -MaxProcessors 4 set-netadaptervmq -Name "Lan10G3" -BaseProcessorNumber 6 -MaxProcessors 4 # configure RSS Enable-NetAdapterRss * # network setting Set-NetadapterAdvancedProperty -Name "LAN10G1","LAN10G3" -registrykey "*JumboPacket" -registryvalue 9014 # Set-NetadapterRss -name "vethernet (Host)" -BaseProcessorGroup 1 -Maxprocessors 4 # Set-NetadapterRss -name "LAN10G2 iSCSI" -NumaNode 1 -BaseProcessorGroup 1 -baseProcessorNumber 2 -Maxprocessors 4 # Set-NetadapterRss -name "LAN10G4 iSCSI" -NumaNode 0 -BaseProcessorGroup 0 -baseProcessorNumber 2 -Maxprocessors 4 # IP Addresses # Assign static IP addresses to the virtual network adapters Set-NetIPInterface -InterfaceAlias "vEthernet (Livemigration)" -dhcp Disabled -verbose New-NetIPAddress -AddressFamily IPv4 -PrefixLength 24 -InterfaceAlias "vEthernet (Livemigration)" -IPAddress 192.168.1.$IP -verbose Set-NetAdapterBinding -Name "vEthernet (Livemigration)" -ComponentID ms_tcpip6 -Enabled $False set-dnsclient -InterfaceAlias "vethernet (Livemigration)" -RegisterThisConnectionsAddress $FALSE Set-NetIPInterface -InterfaceAlias "vEthernet (Heartbeat)" -dhcp Disabled -verbose New-NetIPAddress -AddressFamily IPv4 -PrefixLength 24 -InterfaceAlias "vEthernet (Heartbeat)" -IPAddress 192.168.0.$IP -verbose Set-NetAdapterBinding -Name "vEthernet (Heartbeat)" -ComponentID ms_tcpip6 -Enabled $False set-dnsclient -InterfaceAlias "vethernet (Heartbeat)" -RegisterThisConnectionsAddress $FALSE Set-NetIPInterface -InterfaceAlias "vEthernet (CSV)" -dhcp Disabled -verbose New-NetIPAddress -AddressFamily IPv4 -PrefixLength 24 -InterfaceAlias "vEthernet (CSV)" -IPAddress 192.168.2.$IP -verbose Set-NetAdapterBinding -Name "vEthernet (CSV)" -ComponentID ms_tcpip6 -Enabled $False set-dnsclient -InterfaceAlias "vethernet (CSV)" -RegisterThisConnectionsAddress $FALSE Set-NetIPInterface -InterfaceAlias "vEthernet (Host)" -dhcp Disabled -verbose New-NetIPAddress -AddressFamily IPv4 -PrefixLength 20 -InterfaceAlias "vEthernet (Host)" -IPAddress 10.65.140.$IP -DefaultGateway 10.65.139.1 -verbose Set-NetAdapterBinding -Name "vEthernet (HOST)" -ComponentID ms_tcpip6 -Enabled $False set-dnsclient -InterfaceAlias "vethernet (Host)" -RegisterThisConnectionsAddress $TRUE SET-DNSClientServerAddress -InterfaceAlias "vEthernet (Host)" -ServerAddresses 10.65.140.18,10.65.140.1,10.65.140.15 (Get-ClusterNetwork "CSV").Metric=900 Zum Schluss noch Netbios disabled: # Disable Netbios $adapters=(gwmi win32_networkadapterconfiguration ) Foreach ($adapter in $adapters){ Write-Host $adapter $adapter.settcpipnetbios(2) } Ein paar hier unwichtige Teile meines Scriptes (iSCSI_Konfiguration etc) hab ich erstmal weg gelassen.
  2. Hi Nils, ja das hab ich befürchtet. Hätte dennoch auf en paar Anregungen gehofft.
  3. Hallo Zusammen, vielleicht kann mir hier jemand helfen - ich muss die Netzwerkkonfiguration eines HyperV-Clusters überarbeiten. ggw. sieht sie so aus: 3 Clusterkonten mit jeweils 4 NIC's 10GBit +1x1Gbit 2x10Gbit iSCSI-NIC an seperatem Switch 1x10GBit NIC für den Host (Cluster & Client) 10.65.128.0/20 VLan1 1x10GBit NIC für die VM's 1x1GBit NIC Heartbeat (Cluster only) 192.168.0.0/24 VLan Heartbreat Wir haben jetzt festgestellt, dass in dieser Konstellation das CSV deutlich ausgebremst wird, statt 700MB/Sekunde liegen hier maximal 40-200MB/Sekunde an. Als Ursache war nach einiger Recherche die CSV-Konfiguration festgestellt, da sie Folgendes nicht erfüllt: - geroutetes Netzwerk - kein eigenes VLAN Wie würdet ihr hier vorgehen? Mein erster Gedanke sieht wie folgt aus, in ANleitung an das hier Beschriebene: http://www.msserverpro.com/best-practices-setting-hyper-v-cluster-networks-windows-server-2016/ - 2x10Gbit als LACP Team aufbauen (passende Switche sind vorhanden) - Auf diesem Team die folgenden Netze anlegen: Management Cluster & Client Cluster Cluster only LiveMigration Cluster only Service Cluster only Folgende Fragen ergeben sich für mich: - Welcher Netze benötigen neben TCP/IP den MS-Client und SMB? Nur Management und Cluster, oder auch LiveMigration? - QoS - wie würde da eine Empfehlung aussehen? - VM-Netze: Macht es nicht Sinn, für jedes VLan, was den VM zugewiesen wird, einen eigenen HyperV-Switch anzulegen? Unsere VM's laufen im Wesentlichen in den Netzen "Produktion", "DMZ", "Management" und sind ggw so konfiguriert, dass Ihnen ein gemeinsamer HyperV-Switch zugewiesen ist, und in der Konfiguration eine VLAN-ID eingetragen ist (siehe Bild). Vielleicht hat auch jemand eine völlig andere Idee, bin für alles offen! Danke im voraus
  4. moin moin, habe 1 HP Proliant DL380 G6 einen Windows Server 2008R2 mit SC DPM20120, 24 Agents, Shelf mit 20TB (externen via SAS-Controller) Storage für Recovery Points (Disk, 20 tage Vorhaltezeit) 1 Backup Library mit 2xLTO4-Tapes (Tape, 2 Jahre Vorhaltezeit) Aufgabe ist es, dieses Konstrukt in eine neue Hardware zu überführen und die alte Installation zu entsorgen, also nicht (länger) nebenher weiterzubetreiben. Ziel ist es, auch alte Recovery-Points (Tape) restoren zu können und die DB mit den historischen Recovery-Points zu behalten. Die Shelf mit den SAS-Controller und Disk's soll übernommen werden. Ich habe mit einem externen Dienstleister folgenden Vorschalg erarbeitet: - Installation WSRV2012+DPM2010 auf dem neuen Server Proliant DL380 Gen8 - Benennung und Konfiguration identisch zum alten Server! - SQL-Instanz und DPM2010-Konfiguration wird 1:1 übernommen (wie?) - Inplace-Upgrade auf DPM 2012 durchführen (Vorher: Aktuelles QFE-Rollup, DPMDB Um Berechtigung erweitern) - Später auf DPM 2012 SP1 migrieren, sobald verfügbar! - Agents updaten Kann das jemand so nachvollziehen oder gar bestätigen? Wo liegen die Schwachstellen bei dieser Vorgehensweise? Mein erster Gedanke war, mit einer völlig neuen Konfiguration zu starten, und die Alte Datenbank mit den Backup to TAPE-Recoverypoints irgendwie zu übernehmen. Danke!
  5. NorbertFe: Nein, nicht nutzlos, aber wie das 5. Rad am Wagen per Definition. @Dukel: klar, einen A/A Cluster würde ich je Node nur zu 40% belegen, einen A/A/A dann eben zu beispielsweise ca. 60%. Danke allen, die geantwortet haben! Ich denke, NorbertFE hat das Wort des Tages gesprochen:
  6. Hi Nils, naja, wie Du meinst. Dann formuliere ich die eigentliche Frage mal anders: Ich habe vor, einen Hyper-V Failovercluster unter WSrv2008R2 mit 3 Nodes zu implementieren. - die 3 Nodes hängen an einem HP EVA SAN mit einem redundantem FC-Controller, es sind alle Windows-Updates, - alle Hardwaretreiber, alle AD-Konten, und alle Rollen auf den 3 Nodes sind identisch installiert, - der Cluster Validation zeigt alles grün. - "Node Majority" ist konfiguriert. - Der Clusterdienst ist in Betrieb, ein CSV ist implementiert und - die VM's sind den einzelnen Knoten zuweisbar. Verwendet werden soll für die "Migration" der vm vom alten Cluster auf den Neuen der VMM2008R2, aber dass ist ein anderes Thema! Zu den Begrifflichkeiten Host- und VM-CLustering: es ist mir bewusst, das eine VM immer nur auf einem Host läuft (aktiv/passiv), die Hosts selber sollen entweder a) A/A/A oder b) A/A/P laufen. In dem von Dir verlinktem Artikel heisst es nun aber, dass man "idealerweise" einen N+1 Cluster vorhält, der einen Node als passiven Node vorhält- In meinem Beispiel wäre das also mindestens ein passiver Node, also Variante b). Warum nicht Variante a) wo wenigstens nicht eine komplette Hardware komplett nutzlos dasteht, falls alles fehlerfrei in Betrieb ist? Ich hoffe, ich schaffe es nun, mich so auszudrücken, dass die Frage klar wird :).
  7. Ups ... sicher? Hab ich mich so mies ausgedrückt, dass der Eindruck entstanden ist, dass mir die Grundlagen fehlen? Dann werd ich mal schwer in mich gehen ... schlage mich mit MS-Clustern seit 1999 und Hyper-V seit 2008 herum und dachte, die Grundlagen verstanden zu haben :confused:. @Dukel: ich rechne damit, dass etwas ausfällt, sonst brauch ich ja nichts zu (Failover-) Clustern ... Die Frage war nur @Lian: Den letzten Absatz hab ich gelesen und er hat meine These A/A/P untermauert, übrigens ist das die Konfiguration, in der mein jetziger Hyper-V Cluster läuft: @all: warum ist das "Idealerweise" so, war meine ursprüngliche Frage. Danke!
  8. was trivialer ist? Nun, ich muss mir keine Gedanken um das Sizing machen, da immer eine komplette Hardware (der passive Node) frei ist, um die vm's von einen ausgefallenen Node zu übernehmen (ich will ja auch nur den Ausfall von 1 Node absichern). Sind die VM's auf 3 Nodes verteilt, wandern die vm's zu den verbliebenen 2 Nodes. Und genau das muss doch erstmal richtig konfiguriert werden, sonst steht irgendwann nicht genug RAM zur verfügung. Oder übersehe ich da was?
  9. Danke für die Antworten! @Lian: Gesichtspunkte sind a) verfügbarkeit und b) sinnvolle Auslastung der Resourcen, genau in der Reihenfolge! Ist da aktiv/aktiv/passiv "sicherer" weil trivialer zu konfigurieren (es geht nur um Hyper-V). btw: Was meinst du mit dem Link auf "clustern von dc ..." hatte ich so nicht vor ... @NilsK: Danke für die links, hab ich mal was zum durcharbeiten. "Ziemlich" identische Hardware brauch ich doch aber spätestens für die Live-Migration der VM's .. @Dukel: ALso würdest Du auch aktiv/aktiv/aktiv vorschlagen, so dass sizing passt?
  10. OH das sind aber gute Nachrichten! SO dümpelt nur "etwas" RAM nutzlos herum, während die CPU-Power mitgenutzt werden kann. btw: Neue Knoten müssen dann identische Hardware haben, oder?
  11. Ups, ja klar gehts ausschliesslich um Hyper-V, Danke für den Hinweis!
  12. Hallo Miteinander, ich planen einen neuen 3-Knoten Failover-CLuster für Hyper-V. Nun streiten mein Kollege und ich, obe es ein a) active-active-active oder ein b) active-active-passiv Modell wird. Für a) spräche die bessere CPU-Auslastung, da ja allen VM's mehr reale CPU-Kerne zur Verfügung stünden. Dem gegenüber steht die reichlich unklare Situation, wenn ein Node ausfällt, und die VM's auf die anderen beiden Nodes "verteilt" werden müssen, was die Konfiguration recht komplex macht - Oder? Ich habe von einem active-active-active Modell in der Praxis auch noch nie gehört! Für b) spräche die einfache Konfigration, da immer ein Clusternode Standby stünde, um für ausgefallene "Kollegen" einzuspringen. Ich habe gw. 15 Server mit 30 vCPU's und ca. 60GB Arbeitsspeicherbedarf zu verteilen auf 3x96GB RAM + 3x24 CPU-Kerne. Vielen Dank schon einmal!
  13. Ich habs damit hinbekommen: Disk Migration (DPM 2007 w/ SP1) in Data Protection Manager Nach der Ausführung des scriptes geht im Hintegrund die eigentlöiche Migration los, kann man sehr schön in der DPM-Console beobachten!
  14. Hi, Also doppelte Sicherheit über die gesamte Storage-Group, da 2xHot Standby Danke Dir! btw: Sicher ist VMWare und vielleicht auch XEN eine momentan bessere Lösung. Schauen wir mal , was in ein paar Jahren ist, meine Virtual-Server/hyper-V Erfahrungen, speziell mit dem VM Manager aus dem Systemcenter, werd ich mal versuchen zu dokumentieren, geht jedenfalls bisher recht störungsfrei und problemlos, was MS da zusammengekauft und weiterentwickelt hat! Momentan stehen jedenfalls 3x3T€ für die Wsrv2008 Datacenter-Edition 24T€ für 40 Standradserver gegenüber, was sich auch in einem VL Enterprise Vertrag entsprechend wiederspiegelt. Ausserdem: Hyper-V ist für kleine Standorte wie geschaffen, wo "mal eben" ein proxy oder ein kleiner Anwendungsserver auf "dem" physikalischen Windows-Server mitlaufen soll. Ich bin hier rundum-verantwortlich für 110 Server in 13 Standorten, da möchte ich schon entsprechend sinnvoll ausdünnen können.
  15. Mensch leute, ihr gebts mir aber richtig :-( ich komm mir ja so was von disqualifiziert in dieser Expertenrunde hier vor, das glaubt ihr gar nicht! Aber der Reihe nach: @thorsatten: - vraid: 24x400GB FC HDD, davon 2 HSB Die HSB werden nach meinem Verständniss automatisch verwendet, wenn eine der anderen 22 Platten ausfällt. Alle LUN's erstrecken sich über alle Platten (vraid). Wodurch unterscheidet sich denn einfache von doppelter Ausfallsicherheit? - das mit den 2 HBA's je Node werde ich vorschlagen, Argumentation passt soweit, es muss halt alles irgendwie auch ins Budget passen ... - 400GB 10k Disks in "grossen" Storagegroups performen ausreichend schnell, wobei gross wohl Definitionssache ist. 24 Platten sind eher klein. I/O-last war dennoch bisher kein thema, wird aber sicher noch mal Thema werden! Danke Dir, Thorsten, aber schonmal sehr! @phoenixcp: 1) über die gesamte Storagegroup (24x400GB) 2) Wir hatten in den Werken (6 Werke, 4 in Europa+2 in Asien),sonst FT-Server von stratus, welche in Hardware ausfallsicher sind. Stimmt! Weist du was ausgefallen ist? - der Plattenplatz ist ausgegangen (Softwarefehler) - der Strom ist länger ausgefallen, als die APC und der nachgeschaltete Diesel Notbetrie aufrecht erhalten konnten - 2x ist ein Cisco Switch defekt gegangen Ich will versuchen, das Restrisiko über ein "startfähiges Image" (um snapshot nicht wieder zu bemühen ..) des SQL-Servers im WOrst-case Szenario abzufangen. 3) Siehe Kommentar an Thorsten, wird verargumentiert + Entscheidung dahingehend abgeändert. Danke auch Dir! @all: keiner mehr nen Kommentar zum Hyper-V Cluster, nur zum SAN?
×
×
  • Neu erstellen...