Jump to content

Vinc211

Members
  • Gesamte Inhalte

    237
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Vinc211

  1. Ich kann dir leider nicht ganz folgen. Ich weiß leider nicht wie gut vNIC's mitlerweile sind. Wie ich euch verstehe ist es die beste Lösung. Ich hätte jetzt gedacht das würde zuviel Overhead produzieren und eine weitere "Software" Abhängigkeit schaffen...?
  2. Meine aktuelle Konfiguration auf Storage Seite sieht wie folgt aus: 8 NIC's = 2x Client Netz für Management (wird noch aufgelöst) 3x NIC Team Vlan X mit MPIO 3x NIC Team Vlan Y mit MPIO. Host Seite: 6NIC's 2x NIC Team für Clients (Hyper V Virtual Switch) 1x MPIO Vlan Y 1x MPIO Vlan Z 1x Cluster Live MIgration Es funktioniert meines erachtens ziemlich gut. Nur leider finde ich nichts über diese Methode NIC Teaming und MPIO zu kombinieren. Hier wären weitere Erfahrungswerte ganz interessant. Das NIC Team habe ich gemacht da weitere Host Server das Storage ansprechen.
  3. Moin, Ich habe ein RAID 5 mit 7450GB Platz und habe davon eine 2000GB Partition abgeteilt. Darauf habe ich ein iSCSI Target mit 1,75TB gelegt damit Windows Storage Server 2012 R2 nicht ständig die 10% Warning angibt das kein Platz mehr Frei ist. Bzw. das Popup kommt das nur noch wenig speicherplatz frei ist. Meine Frage also wie ist die best practice für das anlegen von iSCSI Targets nach eurer Erfahrung. Muss bzw. sollte Speicherplatz auf der Festplatte freibleiben? Aktuell verschwende ich 207 GB die einfach nur brach liegen damit Windows nicht meckert.
  4. Vielen Dank für die Hilfe. Ich habe einen Fall bei DELL erstellt und auch ohne Supportvertrag einen Anruf bekommen und der Kollege ist mit mir den Fehler komplett durchgegangen und hat mir Daraufhin ein White Paper zugesandt, wie ich das System entsprechend verändere. Er hat auch bestätigt das dieses Verhalten auftritt wenn die Karte nicht entsprechend von DELL "gebranded" ist. Das es im Endeffekt dann die selbe Karte ist, ist dem Server wohl egal. Es wird einfach eine neue Karte erkannt und entsprechend mehr Kühlleistung hinzugefügt. Windows Storage Server ist OEM unterscheidet sich im 2012 R2 aber in keinem Punkt von Server 2012 R2, außer das die Software halt rumspinnt.Third Party PCIe Card Cooling Response Disable Command - updated Nov 2015 (002).pdf
  5. Die Karte wird definitiv supported. Liegt wahrscheinlich nur am firmware Update das ich nicht eingespielt bekomme.
  6. Nein, Support gibts nicht mehr. Der Server ist n paar Jahre alt. Die zusätzlichen Netzwerkkarten kommen nun dazu. Das mit der Firmware ist eine gute Idee, nur wo setze ich die installation einer neuen Firmware an? Wird die genauso wie ein Treiber installiert? Das kann ich mir nicht vorstellen =D Ich kenne den unterschied zwischen Treiber und Firmware nur an welcher stelle ich diese aktualisieren soll ist mir unklar. Ich hab jetzt entsprechende sachen von Dell runterladen können. Leider ist diese für windows Server 2012 R2 und ich bekomme Sie nicht auf Windows Storage Server 2012 R2 installiert obwohl die Systeme ja bis auf die Lizenz keinen Unterschied haben. Hat jemand eine schmutzige Lösung wie ich es trotzdem installiert bekomme?
  7. Dell NX3230 Intel XEON 2630v3 32GB RAM BIOS-Version 1.3.6 iDRAC Firmware-Version 2.15.10.10 Windows Storage Server 2012 R2 - Fileserver und iSCSI Target Nach dem Einbau der Pci-E Intel I350-T4 Quad Port (egal welcher Riser) drehen die Lüfter permanent bei 90%. iDRAC und BIOS habe ich eingestellt doch ohne Erfolg. Server fährt ganz normal hoch. Alle Temperaturen sind okay. Der Installierte Dell Sever Manager zeigt keine Probleme. Die Karte wird ordnungsgemäß erkannt und war sofort nach dem Start des Windows Storage Server 2012 R2 nutzbar. Wieso setzt die Lüftersteuerung komplett aus? Server wurde 7 mal neugestartet. Nach Ausbau der Karte drehen die Lüfter wieder normal.
  8. Switche und Server haben keine 10Gbit Ports. Mein Favorit wäre es auch aber die Kosten sind bei einer sehr kleinen Infrastruktur (2 VM Server und 1 SAN) nicht im Verhältnis.
  9. Ich würde übrigens 2*10G 6*1G vorziehen - können deine Switche 10G Glas oder Kupfer? dann müsste ich allerdings MPIO, Cluster und Live Migration über die vSwitche realisieren oder? Aktuell plane ich 2 NIC fürs VM Netz, 2 NIC für MPIO, 1 Management und 1 Live MIgration/Cluster. Spricht etwas gegen die güntigeren Intel PRO 1000 ? die i340-t4 habe ich bis jetzt noch nicht für Dell gefunden, die setzen eher auf Broadcom.
  10. Für unsere Dell Sever benötigen wir eine 4 Port Netzwerkkarte. Wie kommen diese enorem Preisunterschiede zustande obwohl es der selbe Chip ist. Die Intel i340-T4 für IBM kostet weniger als die "Standard" Variante und die für Lenovo kostet noch weniger. Nach meinem Verständnis hängt es doch eigtl nur vom Treiber ab ob eine Karte verwendet werden kann, oder wurden restriktionen in die Karte eingebaut? Wäre für den Dell R510 auch eine Intel PRo 1000 eine Lösung. Ich möchte ein Hyper V Cluster aufbauen und benötige min 6 NIC's
  11. Nebenbei schaue ich mir grad entsprechende Netzwerkkarten mit 4 Ports an. Gibt es da empfehlungen? Die Preise zwischen einer Intel PRO/1000 PT MT etc, 340 oder 350I-T4 und einer DELL Broadcom 5719 QP sind ja schon nicht unerheblich. Wahrscheinlich gibt es da unterschiede in den Features die unterstützt werden. Gibt es da etwas besonderes auf das man achten sollte
  12. Vielen Dank für die Antworten. Sehe ich das richtig das ich die MPIO nur auf den Host Servern aktivieren muss? Mein Storage wird weiterhin mit 4Gbit NIC Teaming betrieben? Mit 6 Gbit Ports pro Host würde es dann so aussehen. 2x VM LAN (vlan x - Ip Range für Server) pro Server und in diesem vlan x ist auch das 4Gbit NIC Team vom Storage? 2x iSCSI MPIO (vlan y - IP Range iSCSI) pro Server 1x management (vlan z) pro Server 1x cluster (vlan z) pro Server Das bezieht sich jetzt komplett auf die Windows Server 2012 R2 ebene und nicht auf die vSwitch Ebene. Ich hoffe wir reden da nicht aneinander vorbei.
  13. Hallo, Ich habe eine Storage mit fünf 2TB SAS Platten im Raid 5 und sieben 1TB Sas Platten im Raid 5 (historisch gewachsen) Die Maschine hat 32Gb Ram, Intel Xeon 2630v3 und 4x Gbit LAN (Nic Teaming). Die Maschine soll mein Storage über iSCSI werden. Als VM Server habe ich einen Server mit 2x Intel XEON X5650 128GB RAM (2Gbit Lan) und einen 2x Intel XEON X5650 96GB RAM (2Gbit Lan). Auf dem Storage läuft Windows Storage Server 2012 R2 und die beiden VM Server sollen im Cluster laufen ebenfalls mit Windows Server 2012 R2 Als VM's habe ich einen Fileserver, CRM mit SQL Datenbank. Domaincontroller. Exchange Server, Intranet, WSUS., etc. Ich mache mir sorgen um die Performance. Nicht der der Maschinen sondern um die IO's und generell um die iSSCI anbindung. FC ist leider keine option. Eventuell könnten die VMServer auf mit 4Gbit angeschlossen werden. Vielen Dank für Hilfe. Mfg
×
×
  • Neu erstellen...