Jump to content

DocData

Members
  • Gesamte Inhalte

    1.605
  • Registriert seit

  • Letzter Besuch

Beiträge erstellt von DocData

  1. Was die wohl kosten? Ich habe eine Anfrage für den NX-6020 gestartet.

    2 Nodes in einem Gehäuse mit Shared Storage im Gehäuse.

    Mal schauen wann die sich melden.

     

    Jetzt kommt der Hammer die NX-6020 fängt bei 60.000$ (49.291€) an.

    Ich habe einige Nutanix Installationen hinter mit. Das wäre genau das Richtige für dich. ***ensicher und du hast Server und Storage in einem System kombiniert. Bei entsprechender Anzahl von Nodes oder Blöcken hast du sogar ganz ordentlich Redundanz.

     

    die 6020 ist aber für deinen Fall viel zu groß. Da würde ich eher die 1000er oder 3000er Serie in Betracht ziehen. btw: Bei den 60k US-$ fehlt der Support... Und an dieser Stelle hast du dann auch keine Switches und keine Lizenzen.

     

    Ein von mir immer wieder gern verkauftes Bundle ist die 1050 oder 3050. Dazu vSphere Standard bzw Enterprise (8 CPUs), zwei HP 2920 oder 5820 Switches, ein paar DAC Kabel, Veeam B&R für das Backup und fertig ist die Laube. Sind ein paar Lineitems, das Angebot ist nicht länger als eine Seite. Inbetriebnahme ist an einem Tag erledigt. Das geht weg wie warmes Popcorn.

  2. Ich habe mir jetzt einmal einige SANs angeschaut, aber es ist nicht ganz einfach diese zu konfigurieren.

    Kommt auf das Knowhow und das System an.

     

    1) Reicht eine SAN mit 1 GBit (ISCSI) für eine virtuelle Umgebung aus mit 4 VMs aus?

    Kann sein, muss nicht. Kommt auf die Anforderungen an.

     

    2) Was haltet Ihr von dieser SAN DELL PowerVault MD3200i External iSCSI RAID 12 Bays Array with Single Controller (4 Ports per Controller) 

    http://configure.euro.dell.com/dellstore/config.aspx?oc=sv4md3200i&model_id=powervault-md32x0i-series&c=de&l=de&s=bsd&cs=debsdt1&

    Kinderspielzeug. Kann reichen, muss aber nicht.

     

    3) Was bedeutet 4 Port per Controller?

    Können da nur 4 Platten geschlossen werden, obwohl 12 Bays da sind?

    Brauche ich den noch 2 weitere Controller um alle Babys mit Platten zu bestücken?

    i.d.R. ist damit gemeint, dass pro Controller zwei 1 GbE Ports vorhanden sind. Die sog. Front-End Ports haben nichts mit dem Plattenbackend zu tun.

     

    4) Kann man auch eine SAN mit 2 LAN 1 Gbit bekommen?

    Die Frage habe ich nicht vestanden.

     

    5) Kann ich eine SAN (ISCSI) direkt mit dem Server über einen eigenen LAN-Port verbinden oder brauche ich eine Switch?

    Direkt-attached geht auch. Aber wozu dann iSCSI? Dann nimmst du SAS. Dürfte für dich auch einfacher sein. 

     

    So funktioniert eine SAN

    http://www.topix.ch/files/HP_SAN.pdf

    Etwas Älteres hast du nicht gefunden? MSA20, MSA1000/1500, EVA4000... habe ich alle in den Händen gehabt... vor 10 Jahren (okay, die EVA4000 vielleicht vor 8 Jahren, dafür die MSA1000, damals noch von Compaq, schon vor 12 Jahren).

     

    Ganz wichtig: Es ist DAS SAN! Das STORAGE AREA NETWORK. Es ist ein Netzwerk, kein einzelnes Device. Das SAN ist ein Netzwerk, an das Speichersysteme, Bandlaufwerke, Server etc. angeschlossen werden. Du baust mit Switches, Host Bus Adaptern/ Netzwerkkarten, Servern und unterschiedlichen Speichersystemen ein SAN auf. Was du die ganze Zeit meinst ist ein Speichersystem. Bitte, bitte, bitte, mit Zucker oben drauf, sprich nie wieder in meiner Gegenwart von "der SAN".

    • Like 1
  3. Nichts Anderes habe ich geschrieben. Ich habe viele iSCSI Umgebungen aufgebaut (viele mit HP P4000, NetApp oder DataCore SANmelody/ SANsymphony/ SANsymphony-V). Diverse sind über die Jahre soweit gewachsen, dass sinnlos war mit iSCSI weiterzumachen. Diese Kunden sind zum größten Teil auf FC gewechselt, wenige in Richtung NFS (alle mit NetApp). Dedizierte Switches und ordentliche Switches sind das Wichtigste. Deswegen ist der Schritt auf 10 GbE iSCSI auch oft nicht sinnvoll. Bei den Kosten kann man direkt in FC investieren und hat dann eine deutlich bessere Effizienz. Jumbo-Frames sind nice to have. Heute würde ich eher darauf verzichten.

     

    Ab einer gewissen Größe kommt man einfach nicht um FC herum. Ich sitze derzeit bei einem Kunden mit einer mittleren, dreistelligen Anzahl Hosts und einigen tausend VMs. Mit iSCSI undenkbar. FCoE wird an einigen Stellen verwendet, aber der Vorteil einer konvergenten Infrastruktur lässt sich nur sehr schwer heben. Der Kunde setzt primär auf FC, teilweise auf NFS. Insbesondere NFS würde ich, ähnlich wie SMB3, den Vorzug gegenüber iSCSI geben.

  4. Ja, mehr Platten und schnelle Platten. Da bringen dir auch Jumbo Frames nichts mehr. Jumbo Frames sind im übrigend kein Allerheilmittel und ich würde sie heute nicht mal mehr als Best Practice bezeichnen, wenn überhaupt ein Common Practice. Dumm nur, dass viele IOs < 9000 Byte sind und in vielen Fällen (wenn wir von echtem IO ausgehen und nicht irgendwelcher Benchmarkkram) der Vorteil von Jumbo Frames nicht gehoben werden kann.

     

    Aber um es noch mal ganz konkret zu sagen: Mehr und schnellere Platten. Der Rest ist nur Kosmetik.

  5. Sollte IMHO so sein, habe gerade keine Maschine hier um das zu testen. Ich bin mir aber relativ sicher das es so ist. Daher würde ich den integrierten Windows Scheduler verwenden. Wie gesagt: Das Skript muss nur auf einem der Server in der Gruppe ausgeführt werden. Das Backup wird auf jeder Maschine unter C:\\SSVBACKUP abgelegt. Theoretisch kann der Aufruf des Skriptes sogar von einem Client aus erfolgen, so dass auf dem Server nur das Backupfile abgeholt werden muss. Eine Dateirotation hat das Skript auch. Da hat sich der Autor Mühe gegeben!

  6. Schau dir mal dieses Skript an. Nicht von mir, aber es funktioniert bei vielen meiner Kunden. *klick* Es muss nur auf einem Storage Server ausgeführt werden, es funktioniert per Windows Scheduler und am Ende kannst du gerne einen Eintrag reinmachen, der dir das aktuellste CAB File irgendwohin kopiert. Es ist aber auch völlig okay auf den Storage Server robocopy (es ist bei 2012 eh dabei...) zu nutzen oder einen Backupagent eurer Backupsoftware zu installieren.

     

    Wenn du den internen Scheduler verwendest, dann läuft der Task übrigens als DcsAdmin, nicht als Administrator. Das erklärt warum es bei dir als Admin funktioniert, aus dem Scheduler heraus aber nicht.

  7. Als CCNA sollte man wissen, dass wenn der Host Frames mit VLAN Informationen sendet (und das tut er, wenn du VLANs im OS konfigurierst), die Switchports im Trunk-Mode laufen müssen.

     

    Hinsichtlich deiner verwendeten Subnetze würde ich mich auf eine Netzklasse festlegen und unterschiedliche Subnetze verwenden, wobei ich jedes Subnetz einem VLAN zuordnen würde.

  8. Eure Kommentare lösen einfach das Problem nicht. Bin gerne bereit dafür zu bezahlen wenn es denn sein muß. Fühle mich von MS verars***t.

     

    Dann wende dich an einen Partner in deiner Nähe. Ich bin untröstlich das unsere Fragen, um den von dir geschilderten Sachverhalt für uns verständlich zu machen, dein Problem nicht lösen. Denk mal scharf nach an wem das liegen könnte... Ich bin raus aus dem Thread.

  9. Was glaubst du eigentlich was die Leute hier versuchen? Wenn es so dringend ist, dann kannst du gerne jemanden dafür bezahlen. Robert wird die sicherlich gerne, nach Einwurf kleiner Münzen, bei dem Problem helfen.

     

    Ansonsten könntest du auch einfach mal die hervorragende Dokumentation von Microsoft lesen. In der TechNet steht so ziemlich alles drin was benötigt wird, um Exchange in Betrieb zu nehmen.

  10. Du brauchst keine Adressen vergeben. Die Geräte verfügen bereits über sog. World Wide Port und Node Names. Du musst lediglich auf den Brocade Switches das Zoning einrichten (idealerweise Single Initiator, Single Target). Anschließend auf dem Speichersystem Volumes anlegen und diese an die Hosts präsentieren. Eine Sache von vielleicht 15 Minuten.

×
×
  • Neu erstellen...