Jump to content

DerMichl

Members
  • Gesamte Inhalte

    18
  • Registriert seit

  • Letzter Besuch

Fortschritt von DerMichl

Explorer

Explorer (4/14)

  • Erste Antwort
  • Engagiert
  • Erster eigener Beitrag
  • Eine Woche dabei
  • Einen Monat dabei

Neueste Abzeichen

0

Reputation in der Community

  1. Steht irgendwas in den _verschiedenen_ Ereignisprotokollen was deine quotes übersteigt?
  2. Servus, das sind 2 Hyper V Hosts als Kampfgeräte. Ich haette halt gerne die 4GBIT als Bandbreite zwischen den beiden Servern. So wies aussieht wird das aber wohl nicht gehen... ;-O Ich hatte ursprünglich alle Nixcs in einem Team, dann musste ich aber Switche konfigurieren.. ;-)
  3. Wie hilft mir das? ;-) 1.1Algorithms for traffic distribution Outbound traffic can be distributed among the available links in many ways. One rule that guides any distribution algorithm is to try to keep all packets associated with a single flow (TCP-stream) on a single network adapter. This rule minimizes performance degradation caused by reassembling out-of-order TCP segments. NIC teaming in Windows Server 2012 supports the following traffic distribution algorithms: Hyper-V switch port. Since VMs have independent MAC addresses, the VM’s MAC address or the port it’s connected to on the Hyper-V switch can be the basis for dividing traffic. There is an advantage in using this scheme in virtualization. Because the adjacent switch always sees a particular MAC address on one and only one connected port, the switch will distribute the ingress load (the traffic from the switch to the host) on multiple links based on the destination MAC (VM MAC) address. This is particularly useful when Virtual Machine Queues (VMQs) are used as a queue can be placed on the specific NIC where the traffic is expected to arrive. However, if the host has only a few VMs, this mode may not be granular enough to get a well-balanced distribution. This mode will also always limit a single VM (i.e., the traffic from a single switch port) to the bandwidth available on a single interface. Windows Server 2012 uses the Hyper-V Switch Port as the identifier rather than the source MAC address as, in some instances, a VM may be using more than one MAC address on a switch port. Address Hashing. This algorithm creates a hash based on address components of the packet and then assigns packets that have that hash value to one of the available adapters. Usually this mechanism alone is sufficient to create a reasonable balance across the available adapters. The components that can be specified as inputs to the hashing function include the following: Source and destination MAC addresses Source and destination IP addresses Source and destination TCP ports and source and destination IP addresses The TCP ports hash creates the most granular distribution of traffic streams resulting in smaller streams that can be independently moved between members. However, it cannot be used for traffic that is not TCP or UDP-based or where the TCP and UDP ports are hidden from the stack, such as IPsec-protected traffic. In these cases, the hash automatically falls back to the IP address hash or, if the traffic is not IP traffic, to the MAC address hash. 1.2Interactions between Configurations and Load distribution algorithms 1.2.1Switch Independent configuration / Address Hash distributionThis configuration will send packets using all active team members distributing the load through the use of the selected level of address hashing (defaults to using TCP ports and IP addresses to seed the hash function). Because a given IP address can only be associated with a single MAC address for routing purposes, this mode receives inbound traffic on only one team member (the primary member). This means that the inbound traffic cannot mode will also always limit a single VM (i.e., the traffic from a single switch port) to the bandwidth available on a single interface. Windows Server 2012 uses the Hyper-V Switch Port as the identifier rather than the source MAC address as, in some instances, a VM may be using more than one MAC address on a switch port. Address Hashing. This algorithm creates a hash based on address components of the packet and then assigns packets that have that hash value to one of the available adapters. Usually this mechanism alone is sufficient to create a reasonable balance across the available adapters. The components that can be specified as inputs to the hashing function include the following: Source and destination MAC addresses Source and destination IP addresses Source and destination TCP ports and source and destination IP addresses The TCP ports hash creates the most granular distribution of traffic streams resulting in smaller streams that can be independently moved between members. However, it cannot be used for traffic that is not TCP or UDP-based or where the TCP and UDP ports are hidden from the stack, such as IPsec-protected traffic. In these cases, the hash automatically falls back to the IP address hash or, if the traffic is not IP traffic, to the MAC address hash. 1.1Interactions between Configurations and Load distribution algorithms 1.1.1Switch Independent configuration / Address Hash distributionThis configuration will send packets using all active team members distributing the load through the use of the selected level of address hashing (defaults to using TCP ports and IP addresses to seed the hash function). Because a given IP address can only be associated with a single MAC address for routing purposes, this mode receives inbound traffic on only one team member (the primary member). This means that the inbound traffic cannot exceed the bandwidth of one team member no matter how much is getting sent. This mode is best used for: Native mode teaming where switch diversity is a concern; Active/Standby mode teams; and Teaming in a VM. It is also good for: Servers running workloads that are heavy outbound, light inbound workloads (e.g., IIS). 1.1.2Switch Independent configuration / Hyper-V Port distributionThis configuration will send packets using all active team members distributing the load based on the Hyper-V switch port number. Each Hyper-V port will be bandwidth limited to not more than one team member’s bandwidth because the port is affinitized to exactly one team member at any point in time. Because each VM (Hyper-V port) is associated with a single team member, this mode receives inbound traffic for the VM on the same team member the VM’s outbound traffic uses. This also allows maximum use of Virtual Machine Queues (VMQs) for better performance over all. This mode is best used for teaming under the Hyper-V switch when The number of VMs well-exceeds the number of team members; and A restriction of a VM to not greater than one NIC’s bandwidth is acceptable
  4. Ja ich möchte aber eine einzelne Bandbreitenerhöhung haben. Das LACP scheint ja zu laufen, aber nicht so wie ich das gerne hätte. Und ich finde keine andere Möglichkeit der Konfiguration. *moep*
  5. Servus, Overview: http://www.hp.com/rnd/support/manuals/2910.htm Entire Manual: http://cdn.procurve.com/training/Manuals/2910-MCG-Feb09-W_14_03.pdf -> 12.18 Port trunking LACP Hmm...
  6. Doch ich versuches... ;-) Wie soll ich das raus bekommen? Ist eine SMB Copy von SRV1 to SRV2 Mehr oder weniger. ,-) Danke Micha
  7. Servus, ja das kann sein das es pro Client max 1 Nic gibt. Das will ich ja aber gerade ändern ;-) LACP mit Aktiv / Aktiv am Switch sollte wohl summand agieren. (ähnlich balance rr) Kann sein das es ein Interpretationsfehler meinerseits ist Das es ein Bug ist Das es ein Konfigurationsfehler ist? Das ich einfach falsch denke?...
  8. Danke, hilf mir aber leider nciht wirklich weiter. ;-O Gruß Micha
  9. Sorry nochmal, danke für deine Empfehlung. In der Endausbau Stufe hab ich 2 Grosse Server, was spricht denn dagegen die als DC zu fahren? Die Last auf den kompletten Kisten ist relativ gering. Gruß micha
  10. Natürlich aber das ist die Folge dessen. Ok, was wäre , wie deine Empfehlung? Gruß Micha
  11. Servus, hier der Dump, ich dachte LACP ist die Summer der Nics.. oder? Laut Handbuch sind die LACP Ports konfiguriert ;-) Und nein die Platten sind es definitiv nicht (8Port LSI mit 6x 600GB 15KSas) Get-NetLbfoTeam Name : TEAM1 Members : {Ethernet 4, Ethernet 3, Ethernet 2, Ethernet 1} TeamNics : TEAM1 TeamingMode : Lacp LoadBalancingAlgorithm : TransportPorts Status : Up Get-VMSwitch Name SwitchType NetAdapterInterfaceDescription ---- ---------- ------------------------------ SWITCH EXTERN External Microsoft Network Adapter Multiplexor Driver SWITCH INTERNAL Internal Get-VMNetworkAdapter -ManagementOS Name IsManagementOs VMName SwitchName MacAddress Status IPAddresses ---- -------------- ------ ---------- ---------- ------ ----------- SWITCH INTERNAL True SWITCH INTERNAL 00155D64D602 {Ok} SWITCH EXTERN True SWITCH EXTERN 001E67652F3C {Ok}
  12. Microsoft empfiehlt sie in die Domäne zu nehmen. BP Zitat von Windows Pro: Administration, Backup und RestoreDomain Controller dürfen weder per VHD-Kopie gesichert, von einer solchen wiederhergestellt, noch Snapshots von ihnen erstellt werden. Wesentliche Vorteile der Virtualisierung treffen deshalb auf DCs nicht zu – kein Hinderungsgrund, aber einer mehr abzuwägen, ob ein DC auf einer VM wirklich sinnvoller untergebracht ist als auf einem physischen Host. Virtuelle Domain Controller müssen deshalb so konfiguriert werden, dass die im Falle eines Host-Shutdowns ebenfalls heruntergefahren werden, und zwar ohne dass ihr Status gesichert wird. So bin ich hin und hergerissen. ;-) Du meinst es ist in dem kleinen Umfeld besser die Hosts nicht als DC zu haben? .
  13. Sagt BPA etwas anderes aber ich weis was du meinst. Aber da die 2 Dicken Hyper vs die letzten Bleche sind, lässt sich das nciht vermeiden.
  14. Servus Dukel, Sorry für mich sinds Gedanklich immernoch PDC und BDC, aber du hast natürlich Recht... also der Plan war / Ist. Host1 / Host2 je als DC zu setzen. Hyper V mit replizierung auf die andere Kiste zwecks Ausfallsicherheit. Blech 1 Blech 2 a -> A b -> B D <- d E <- e usw. DIe 2 Hardware Kisten sind nun schon in der Domain und laufen.
  15. Servus, ich habe einen 2910 AL+ und möchte 2 meiner Server mit je einer 4x NIC via 2910 verbinden. Also Port 1357 mit SRV 1 verbunden - NICTEAM Mit LACP eingerichtet, alles CAT6a gepatched (-> Ein VSwitch extern) Also Port 2579 mit SRV 2 verbunden - NICTEAM Mit LACP eingerichtet, alles CAT6a gepatched (-> Ein VSwitch extern) Dannach im Switch alle 8 Ports auf LACP active eingestellt. 1GBIT FDX Das funktioniert leider nicht, beim kopieren von 1 -> 2 komme ich immer mit 113 MB/s an. Der Switch ist auf der Aktuellen FW W.15.08.0012, ROM W.14.06 Was mache ich falsch? Evtl ein fehler im Vswitch? Wobei ich von Host zu Host kopiere. Switch Screen anbei. UPS, Hoffe ich bin hier richtig, wenn nicht, bitte um huldvolle verschiebung ;-)
×
×
  • Neu erstellen...