Jump to content

2012R2 NIC Teaming - Netzwerkkarten hinzufügen


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Hallo zusammen

 

ich habe hier einen fertig konfigurierten 2012R2 der auch als Hyper-V Host agiert.

 

Dieser hatte per Hardware 2 NIC´s welche ich mittels Teaming an einem LACP fähigen Switch gehängt habe - soweit kein Problem die config des TEamings läuft ja per Wizzard eigentlich kinderleicht ab und der Switch war auch schnell konfiguriert (bin ich von Linux als Client her soweit gewohnt).

 

Nun bekommt der Server noch eine weitere Intel NIC Karte verpasst, welche dem bestehenden Team hinzugefügt werden soll.

 

Leider finde ich zwar im Netz jede Menge Anleitungen wie man ein NIC Team einrichtet - aber nicht wie man ein bestehendes Team erweitert.

 

Kann mir hier jemand einen Tipp geben ?

 

Da die Kiste Produktiv läuft hab ich ein wenig panik da was zu vermasseln und das ding ist offline...

 

CU

GTR

bearbeitet von GTRDRIVER
Link zu diesem Kommentar

Hallo

 

Vielen Dank für für die Info - könntest du das mit dem "Mach sinn" genauer ausführen ?

 

Ich beschreibe am Besten mal was ich vor habe:

 

2 Identische Server (einer hat ein stärkers SSD Raid) - ansonsten alles gleich.

Auf beiden läuft HyperV 

 

Server1 spielt auf DB Server und Fileserver - zudem läuft im HyperV als Gast ein 2012R2 als RDS Server (für diese File und Datenbankanwendungen)

Server2 - hier läuft nur in dem HyperV als Gast ein 2012R2 als RDS Server (greift auf Server1 (File und Datenbank) zu

 

Da hier auch große Datenmengen geschaufelt werden ist hier das NIC die Engstelle - daher hatte ich an Teaming gedacht.

 

Oder sagst du (ihr) das ist murks und ich soll auf 10 GBE gehen 

 

CU

GTR

Link zu diesem Kommentar

Hallo

 

So war das mal angedacht - aus Performance Gründen - da aber keine weitere Physikalische Maschine her soll würde das bedeuten ich lege auf Server1 einen weiteren Gast an und lasse auf diesem File + DB Server laufen.

 

Ich bin zugegeben neu bei HyperV und hatte bisher nur mit ESXi zu tun - und nein - ich würde auf dem ESXI Host keinen Web-Server installieren :-)

 

CU

GTR

Link zu diesem Kommentar

Hallo

 

Ich habe niemals behauptet dass es ein Problem ist ! 

In diesem Fall brauche ich einfach maximale Performance für den Datenbankserver - schlicht weil die Datenbank für den Firebird Server zu groß ist - aber ich kann leider weder das Datenbank Format noch das Design beeinflussen sondern muss nur versuchen das maximale raus zu holen.

 

Daher dachte ich daran den FB Server auf dem Host laufen zu lassen - aber gut - wenn das keine gute Idee ist - ich bin auf jeden Fall lernfähig !

Link zu diesem Kommentar

Moin,

 

es sollte problemlos sein, die neue Karte nachträglich hinzuzufügen. Allerdings gilt dabei wie immer: Der Konjunktiv wurde für die IT erfunden - es sollte gehen ...

 

Bei unterschiedlichen NICs habe ich im Windows-Teaming hier und da leider schon gesehen, dass es nicht reibungslos lief (was es eigentlich sollte). Ich würde da also ausreichend Vorsichtspuffer einbauen.

 

Gruß, Nils

Link zu diesem Kommentar

Hallo Nilsk

 

Das sind onboard Intel NICs und dann komtm eine Intel Quad NIC rein (da sind ja definitiv alle Ports gleich)

Notfalls nehme ich halt die Quad als hauptkarte und definiere die beiden Onboard ports als REserve 

 

Werde das mal testen.

 

Ich wollte eigentlich 10GBe  machen - aber die Switche kosten ja ein vermögen... (zumindest für einen kleineren Mittelständler)

 

Nachtrag: (auch wenn es hier schon erwähnt wurde)

 

Was ist an LACP  eigentlich so schlecht  oder Kritisch ?

 

Ich setzte das bisher auf 2 ESXI (in Verbindung mit DLink Switches) ein - zudem in Verbindung  zwischen mehreren Linux Servern und ebenfalls DLink Switches

Zudem in verschiedenen Firmen wo mehrere Dlink Switches per Glasfaster miteinandere verbunden wurden (jeweils 4 Glasfaster Ports als 1 Trunk mit LACP)

Das läuft alles teilweise seit jahren absolut stabil und zuverlässig.

 

Von da her hatte ich an LACP irgendwie nie gezweifelt - wenn man aber alleine in diesem Board nach LACP sucht findet man viele Einträge die eher dagegen sprechen.

bearbeitet von GTRDRIVER
Link zu diesem Kommentar

Moin,

 

die Switch-Kosten relativieren sich, wenn man genau schaut, wieviele Ports man braucht. Mit 10 GbE reichen 2 Ports pro Server i.d.R. aus.

Aber ist schon richtig, ein Kostenfaktor ist es, und da muss man dann schauen, was man wirklich benötigt.

 

Es ist allerdings kein sinnvoller Weg, 10 GbE durch Teaming von 1-GbE-Adaptern quasi nachzubauen. Komplexität, Fehlerquellen und Overhead steigen zu schnell an.

 

Gruß, Nils

Link zu diesem Kommentar

Hallo zusammen

 

erstmal danke für die Beiträge - ich denke ein Stichwort ist 'overhead" .. - das klingt durchaus logisch.

 

Ich werde jetzt trotzdem mal einen Test mit LACP und Teaming machen - dazu dann mal einfach Tests mit div. Benchmark Tools - mal sehen ob das in der Umgebung  in der ich es einsetzen will den gewünschten Effekt bringt - wenn nicht  habe ich mich inzwischen bei 10GBE soweit fortgebildet dass ich hie rmal einen Versuch starten kann ...

 

CU

GTR

Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...