Jump to content

Live-Migration


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Halllo,

ich habe 2 hyper-V Host, die zu eine Domäne gehören. Wenn ich versuche eine VMs zwischen Hosts über Shared Nothing Live-Migration übertragen, wird die Übertragungsrate nur von 700 mbit/s übertragen und nicht von eine 1 GB/s. Kann es sein das am Anfang der RAM und Festplatte im Blöcke überträgt wird? Weil am Schluss als die Konfigurationsdatei der VMs überträgt steigt der Durchsatz auf 950 mbit/s. Woran kann das  liegen?

Danke 

Link zu diesem Kommentar

Wenns schneller gehen soll, rüste auf 10GB Dual-Port NICs auf und nutze "Converged-Network".

Je nachdem wie viele Adapter du derzeit hast könntest du die auch alle in ein Team zusammenfügen und ebenfalls Richtung "Converged-Network".

Oder eben auf SMB switchen und  das Managementnetz mitnutze.

 

Wie viele VMs laufen denn pro Host, wie viele Daten müssen denn da verschoben werden und wie oft kommt das vor?

Link zu diesem Kommentar

Hallo,

Netz-Performanz

Die Leistung eines Netzes bemisst sich an drei Grössen: Der Sicherheit, der Zuverlässigkeit und der Übertragungsrate. Die beiden erstgenannten Faktoren können lediglich erwähnt werden, ihre Erörterung würde den Rahmen dieser Darstellung sprengen.

Die Übertragungsrate muß in zwei Kategorien unterschieden werden: den tatsächlichen Durchsatz (Brutto-Datenrate) und die letztendliche Nutzdatenrate. Für den Anwender ist nicht so wichtig, wieviele Bit-Signale über das Medium jagen; ihn interessieren die Antwortzeiten für seine Applikationen.

Generell sei gesagt, dass die technisch bzw. physikalisch vorhandene (nominelle) Bandbreite von Standard-Ethernet nicht ausgeschöpft wird. Geht man nach der für den Endbenutzer sichtbaren Netzleistung, liegt diese oft weit unter 50 % der angebotenen nominellen Datenrate.

Für Ethernet ergeben sich Einschränkungen der Performanz durch verschiedene Einflüsse:

  • Physikalische Bandbreite
    - Latenzzeiten
    - sendefreie Zeiten

    = Durchsatz
  • Durchsatz
    - Protokoll-Overhead
    - Frame-Overhead
    - Kollisions-Overhead

    = Nutzdatenrate

Latenzzeiten und sendefreie Zeiten

Die Jabber-Funktion, die verhindert, dass eine Station das Medium länger als 30 mS am Stück belegt (Sendefenster = 30 KBit = ca. 4KB), führt dazu, dass die Übertragung grosser Dateien in mehreren Anläfen erfolgt. (Zeit-Multiplexing.) Muss bei hoher Netzlast zwischendurch jedesmal lange gewartet werden, wächst die Latenzzeit an.

Ferner haben etliche Netzwerkkomponenten, etwa Bridges, Router und Switches, ihre eigenen Latenzzeiten, die sich auf die Transferrate niederschlagen.

Sendefreie Zeiten entstehen, ausser durch fehlende Netz-Beanspruchung, durch verfahrensbedingte Verzögerungen wie etwa die Inter-Frame-Gap.

Protokoll-Overhead

Auch: Software-Overhead. Beim Datenfluss müssen die Protokollebenen des OSI-Referenzmodells softwaremässig aufeinander abgebildet werden; ein Datenpaket aus der Anwendungsschicht (Ebene 7) wird bis zum Übertragungsmedium sechsmal in einen Rahmen aus Adress- und Kontrollinformationen eingepackt. Dieser Protokoll-Overhead beansprucht einen Teil der Übertragungskapazität.

Frame-Overhead

Jedes Nutzdatenpaket (incl. Protokolloverhead) wird in der MAC-Schicht bei der Aufbereitung zum sendefähigen Frame mit 26 Byte Transferdaten umgeben. Das Nutzdatenfeld darf bei Ethernet zwischen 46 und 1500 Byte gross sein. An dem kleinstmöglichen Datenpaket von 72 Byte hat der Frame-Overhead einen Anteil von 36 %, an dem grösstmöglichen Paket von 1526 Byte einen Anteil von 1,7%. Der Frame-Overhead ist anteilig umso grösser, je kleiner die Datenpakete sind. Die Übertragung kleiner Datenpakete ist demnach ineffizient.

Kollisions-Overhead

Bei Ethernet kann immer nur eine Station auf einmal senden. Sendet eine Station, müssen die anderen im Empfangsmodus verharren (Halb-Duplex). Das Zugriffsverfahren CSMA/CD vermeidet zwar Daten-Zusammenstösse, räumt sie jedoch nicht gänzlich aus.

Die Slotzeit ist das zweifache der Zeit, die ein Datenpaket benötigt, um sich über die maximale Entfernung im Netz auszubreiten. Im schlechtesten Fall vergeht diese Zeitspanne, bis eine Station bemerkt, dass ihre Sendung mit einer anderen kollidiert ist. Die Collision-Detection-Funktion verringert verschenkte Wartezeiten und Übertragungskapazitäten, weil eine missglückte Übertragung bereits beim Empfang des Jam-Signals, nicht erst bei ausbleibender Quittung registriert (Detektionszeit) und frühzeitig abgebrochen wird. Mit wachsender Netzausdehnung nimmt andereseits die Slotzeit selbst zu und damit die Möglichkeit, dass Signale unnötig in das Netz eingespeist werden und nach ihrer Kollision wiederholt werden müssen.

Bei hohen Verkehrslasten stellt der Kollisions-Overhead eine zusätzliche, die Konfliktwahrscheinlichkeit erhöhende Last dar, da die Neubewerber und die aufgelaufenen Wiederholungsversuche sich gegenseitig die Übertragungskapazität streitig machen.

Die Wahrscheinlichkeit von Kollisionen steigt ihrerseits mit wachsender Netzlast. In Spitzenzeiten, wo viele Stationen Pakete versenden wollen, geht viel Zeit im Wartemodus (Backup) dahin.

Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...