Jump to content

msinger

Members
  • Gesamte Inhalte

    16
  • Registriert seit

  • Letzter Besuch

Beiträge erstellt von msinger

  1. Hallo Peter,

     

    soll das zweite NAS als Sicherung von den LUNs dienen oder nur allgemein als Sicherung...

     

    Wie sieht denn dein Netzwerk sonst noch so aus ? Wer macht die Sicherung darauf? Gibt es ein eigenes Netz/VLAN dafür ....

    Stehen die beiden Switche in unterschiedlichen Brandabschnitte oder einfach nur nebeneinander...

     

    So primär würde ich zum gleichen Setup tendieren: 2 trunks auf jeden Switch, am NAS ALB einschalten und am Switch Trunking mit RR

  2. Hallo Peter,

     

    Multipathing hat nix mit der Anzahl der LUNs zum tun, sondern nur mit der Anzahl an Pfaden zwischen Target und Initiator.

     

    Von dem was du bisher beschrieben hast (oder nicht geschrieben hast) würd ich sagen:

    1 Target mit 4 LUNs

     

    Und hier gibt es ne QNAP spezifische Anleitung wie man einen W2k8 Server und MPIO anschließt und konfiguriert:

    http://files.qnap.com/news/pressresource/product/How_to_connect_to_iSCSI_targets_on_QNAP_NAS_using_MPIO_on_Windows_2008.pdf

     

    Bezüglich dem Trunk gäbe es noch eine Überlegung:

    Wenn eth1 und eth2 sich denselben ASIC teilen dann könnte es evtl Sinn machen, den Trunk dann über eth1 und eth3 bzw eth2 und eth4 zu machen

  3. Ach ja, meine andere Frage: Ein Target mit 4 LUNS oder 4 Targets?

    --> Ich würde ein Target mit 4 LUNs erstellen, da alle LUNs an einem iSCSI-Initiator (Client) sind. Will man die LUNs mit verschiedenen Initiatoren (Clients) einbinden (z.B. 2 am Client 1 und 2 am Client 2), so braucht man verschiedene Targets, da sonst die Hardware beschädigt werden kann (auf ein Target darf man nicht mit verschiedenen iSCSI-Initiatoren zugreifen). Habe ich das richtig verstanden?

    Hallo Peter

     

    abhängig vom OS und dem verwendeten Filesystem können mehrer Initiatoren auf das gleiche Target/LUN zugreifen.

    Verschiedene Targets können/dürfen nicht auf die gleiche LUN zugreifen.

     

    Multipathing konfigurierst du auf dem Client, im Falle von Microsoft wäre das Stichwort eben MPIO.

     

    Und wir bereits oben erwähnt: für iSCSI kein Trunking, sondern zB 2 Kabel an Switch #1 und die anderen beiden an Switch #2 und dann in der Multipathings Software einstellen was du haben möchtest: Active/Active oder Active/Passive...

     

    Zu den Jumbo Frames:

    Diese Einstellung bringt dir nur etwas bei NFS/CIFS Protokoll. Auf allen beteiligten bzw kommunizierenden Geräten sollte dann auch der gleiche Wert eingestellt werden, z.B. 4k, 7k, 9k

    Dein Switch unterstützt alles bis 9k, das Qnap auch damit ist dann nur die Frage was kann das Gerät das darauf per NFS/CIFS drauf zugreifen soll.

    Nimm dann den kleinsten gemeinsamen Nenner.

    Und noch ein Hinweis: Jumbo Frames können eine häufige Ursache für interessante Netzwerkprobleme sein :cool:

     

     

    MS

  4. Hallo Skyacer,

     

    ich hatte das vor ein paar Wochen mit einem W2012 Essentials Server gemacht und bin dabei nach folgender Anleitung vorgegangen:

     

    http://technet.microsoft.com/de-de/library/jj730387.aspx

     

    Hatte prima geklappt, bis auf ein paar Fehlermeldungen bzgl ADS & DNS, doch die ließen sich relativ einfach und schnell beheben.

     

    Good luck und frohe Weihnachten

     

    Marc(us)

  5. Hallo iDiddi

     

    nun, 1) hab ich mittlerweile ausprobiert, mit dem Resultat dass meine ganzen Backups weg sind....

    Das backuptarget wurde komplett neu initialisiert....

    Deswegen stelle ich Fragen um so etwas zu vermeiden..... :mad:

     

    zu 5)

    Auch das ist so nicht korrekt, das Fullbackup wird ebenfalls gelöscht.

    Angenommen ich hab 10 Backups (für jeden Tag eines, das erste als Full) und ich mach z.B. wbadmin delete backup -keepversions:3

    bleiben tatsächlich nur die letzten drei übrig (gestern, vorgestern und vor-vorgestern)

     

     

    Auch hier noch mal: Der Artikel bezieht sich noch auf eine ältere WBadmin-Version.

     

    Vielleicht diesen Artikel dann besser nicht mehr referenzieren.

     

     

    Und was die Schattenkopien betrifft, so wird durch das Backup immer eine neue erzeugt.

    Da laut Microsoft jedoch nicht mehr als 2 Schattenkopien erstellt werden sollen und insgesamt nur 64 pro Volume verfügbar sein können stehe ich nun vor einem anderen Problem:

     

    Ich hätte gerne folgendes

    a) Immer zu vollen Stunde soll eine Schattenkopie erstellt (und somit über Vorgängerversion verfügbar) und

    b) immer zur halben Stunde eine Sicherung mit wbadmin von 2 bestimmten Ordnern

     

    a) klappt problemlos

    bei b) gibt es Probleme mit dem -include Befehl:

     

    wbadmin start backup -backupTarget:"\\?\Volume{d8a121f8-GUID...}\" -include:H:\ServerFolders\Ordner1\Dateien*.*,H:\ServerFolders\Ordner2\* -quiet

     

    Die Fehlermeldung die ich bekomme lautet

     

    Volumeinformationen werden abgerufen...
    FEHLER - Der von "H:\ServerFolders\Ordner1\Datei*.* H:\ServerFolders\Ordner2\*" angegebene Pfad wurde nicht gefunden.

    Der angegebene Dateipfad ist nicht vorhanden oder befindet sich nicht auf einem lokal angeschlossenen Datenträger.

     

    Es sieht also so aus, als wenn das Komma nicht interpretiert wird. Ich hab auch schon andere Varianten mit * und ohne ausprobiert.

    Verwende ich jeden Pfad einzeln klappt es.

    Ich könnte nun in der Aufgabenplanung für jeden Pfad eine eigene Aktion definieren, doch dann bin ich eben bei 3 Schattenkopien pro Stunde

     

    Irgendeine Idee ?

     

    Marc(us)

  6. Um nochmal den Screenshot aufzugreifen:

     

    Was mir hier auffällt ist zum einen das die Priority mit 1 statt mit 10 angegeben ist und

    dass inc.inbox.com wohl kein Mailserver ist....

     

    Als einfaches Tool um rauszufinden wer der Mailserver einer Domain ist, kannst du

     

    http://mxtoolbox.com/

     

    benutzen.

    Gib den Domain Namen dort ein ohne "www" und klick auf MX Lookup

     

    Grüße

     

    Marc(us)

  7. Aaaaaaahrgl

     

    jetzt hab ich grad mal so zufällig den Dienst "Microsoft iSCSI-Softwareziel" auf dem Server neu gestartet und jetzt gehts......

     

    Ich hasse Computer :cool:

     

    @Dukel

    Ja, mehrfach und sogar nach Anleitung.

     

    Merke die alte Weisheit: Reboot tut gut bzw in diesem Falle: Dienst neu starten...

  8. Hallo Zusammen,

     

    von einem physikalischen Windows 2012 Essentials Server möchte ich per iSCSI einem (ebenfalls physikalischen) Windows 7 Prof Client eine iSCSI LUN zur Verfügung stellen.

     

    Am Server wurde über den Server Manager und dem Wizard zunächst eine Virtuelle Disk erstellt und diese dann einem Target zugewiesen. Das Target wurde für die IP Adresse des W7 Clients konfiguriert.

    In der Server Firewall ist Port 3260 ebenfalls grün für ein- und ausgehende Verbindungen.

     

    Wenn ich jetzt am Client den Initiater konfiguriere, bekomme ich bereits bei der Eingabe des

    "Zielportals ermitteln/hinzufügen" die lapidare Fehlermeldung: "Fehler bei der Verbindung"

     

    In der Ereignisanzeige am Client findet sich folgendes:

     

    Fehler bei der iSCSI-Ermittlung über "SendTargets" mit Zielportal "*192.168.0.200 0003260 ROOT\ISCSIPRT\0000_0 ". Fehlercode 0xefff0003.

    und

    Vom Initiator konnte keine Verbindung mit dem Ziel hergestellt werden. Die Ziel-IP-Adresse und die TCP-Anschlussnummer sind in Sicherungsdaten angegeben.

    und

    Fehler beim Verarbeiten der iSCSI-Anmeldeanforderung. Die Anforderung wurde nicht wiederholt. Der Fehlerstatus wird in den Sicherungsdaten angegeben.

     

    Am Server findet sich dazu nichts.

    Wenn ich am Client dagegen eine iSCSI LUN von z.B. einem QNAP NAS hole, klappt alles wunderbar.

    Ergo müsste der Fehler irgendwo beim Server liegen.

    Die von Microsoft angebotenen Ursachen/Lösungsansätze (zu den jeweiligen Event IDs) funktionieren nicht und ich bin jetzt ratlos...

     

    Irgendjemand eine Idee ?

     

    Grüße

     

    Marc(us)

     

  9. Hallo iDiddi,

     

    danke für die rasche Antwort.

    Der Artikel beantwortet nur einen Teil meiner Fragen und wirft gleichzeitig ein paar neue auf:

     

    Beantwortet ist dadurch

    2. Im Prinzip braucht man keine Fullbackups mehr

    3. Nein, da es vergleichbar mit einer Differential Sicherung ist

    4. erübrigt sich im Prinzip

     

    Offen ist noch die Frage 1 und ein bisschen die Frage 5

     

    Eine neue Frage ergibt sich aus der Aussage:

     

    You can only select entire volumes for backup, not individual files and directories.

     

    Wenn ich mir die Backups ansehe wo ich den -include Schalter mit verwendet habe, sehe ich auch tatsächlich nur den Ordner und Dateien die ich gesichert habe bzw in der Syntax angegeben habe, damit wäre die Aussage nicht korrekt. Wenn ich mir auch den Hilfetext von wbadmin ansehe, wird auch von Dateien gesprochen:

    Gibt die kommagetrennte Liste der in die Sicherung einzuschließenden Elemente an. Es können mehrere Volumes einbezogen werden. Volumepfade können mit Volume- laufwerkbuchstaben, Volumebereitstellungspunkten oder GUID-basierten Volumenamen angegeben werden. Bei Verwendung eines GUID-basierten Volumenamens sollte dieser mit einem umgekehrten Schrägstrich ("\") beendet werden. Sie können im Dateinamen das Platzhalterzeichen ("*") verwenden, wenn ein Pfad zu einer Datei angegeben wird. Sollte nur verwendet werden, wenn der Parameter "-backupTarget" verwendet wird.

     

     

    Und jetzt noch die Bonusfrage :-)

     

    Wenn für die Disk z.B. eine (reguläre) Schattenkopie für 18:00 gescheduled ist und das Backup für 18:00 oder 18:05, löst dann das Backup eine erneute Schattenkopie aus oder verwendet es die zuvor erzeugt reguläre ?

     

    Bis denn,

    Marc(us)

  10. Hallo Peter,

     

     

    1. Netzwerkauslastung
    Wie schaut es mit der Netzwerkauslastung beim Löschen dieser großen Einzeldateien aus? Ein Kollege wollte mal während des Tages 70GB von der aktuellen NAS (mit Gigabit-Anbindung) löschen und das Netzwerk ist massiv in die "Knie gegangen". Da habe ich bei der Technik von Buffalo angerufen und man sagte mir: Wenn man über den Windows-Explorer Daten von der NAS löscht, dann werden diese erst temporär zum Rechner kopiert und dann erst gelöscht. Daher kann das Löschen solch großer Datenmengen währen der regulären Arbeitszeit (wo auch alle anderen arbeiten) schon problematisch für das Netz werden. Stimmt das? Wir haben übrigens ein Gigabit-Netzwerk.

    Buffalo hat hier einen großen Nachteil, dass man eben bei den Soho Geräten nicht direkt "auf" dem NAS arbeiten kann. Andere Hersteller, wie z.B. QNAP bieten hier die Möglichkeit, mittels webbrowser direkt auf das NAS zu gehen und Dateien/Ordner "lokal" zu verschieben/löschen/kopieren. Damit wird das Netzwerk entlastet und es bleibt lediglich der I/O auf den Platten.

     

    2. Serverauslastung
    Wenn ein DAS-System am Server hängt, wie schaut es hier mit der Server-Performance aus? Dieser verwaltet ja dann den Speicher wie eine interne Festplatte und es arbeiten ja alle Kollegen mit dem Server. Wir haben einen Fujitsu TX200 S6 (2 Prozessoren, 2x16 GB RAM, 8x 300GB SAS) und als Betriebssystem MS SBS 2011 Std.

    Wie funktioniert zudem hier das Löschen großer Einzeldateien, wenn dies über einen Client gemacht wird? Hier habe ich doch intern höhere Transferraten, unabhängig vom Netzwerk.

    Nun die Netzwerklast geht in diesem Falle mit über den Server und am Server selbst wird es auch etwas mehr CPU Last geben dadurch.

     

    Ich habe lange Zeit für einen der größen Storage Hersteller gearbeitet und bei den meisten Kunden wurde der Mischbetrieb von NAS und SAN verwendet.
    D.h. es gab einen Filer der sowohl als NAS (über SMB/CIFS) zur Verfügung stand, als auch über iSCSI oder FC.

    Bei einem Gerät das beides kann und hier kann ich mich der Empfehlung für ein QNAP nur anschließen (zumindest im unteren Preisbereich/Features) bist du auf der sicheren Seite. Die NAS shares bekommen deine User zB direkt zugewiesen für ihre temporären Speicherorgien und dem Server kannst du iSCSI LUNs zur Verfügung stellen und damit blockbasierte Sicherungen darauf fahren.

     

    Letztendlich bestimmen deine Anwendungen was du besser gebrauchen kannst:

    File basierten Zugrif (NAS) oder Block basierten Zugriff (DAS, SAN)

    und die benötigte Performance bestimmt den Preis des Geräts.

    Es gibt NAS Filer schon ab 150 € und du kannst für ein komfortables Gerät auch mal 250.000 € ausgeben, das tut dafür deine Daten gleich weltweit replizieren und im K-Fall automatisch die Daten woanders zur Verfügung stellen....

     

    Marc(us)

  11. Hallo Zusammen,

    ich hätte da mal ein paar (Verständnis) Fragen zu wbadmin und Fullbackup/Inkrementiell

    Derzeit gibt es folgendes Backupszenario auf einem Windows 2012 Essentials Server:

    Über die GUI wird täglich "alles" gesichert auf ein externes Laufwerk (RAID über USB angeschlossen).
    "Alles" besteht aus:

    • BMR,
    • Systemstatus,
    • system-reserviert,
    • gespiegelter Bootplatte C:
    • gespiegelter Datenplatten H:

    und das ganze als VSS Kopie Sicherung.

    Zusätzlich werden per Aufgabenplanung und wbadmin verschiedene Ordner mehrmals am Tag auf eine iSCSI LUN gesichert.
    Die verwendete Syntax:

    wbadmin start backup -backupTarget:\\?\Volume{GUID 123...}\ -include:H:\ServerFolders\Ordner1\Datei_Abc*.* -quiet

     

    Soweit funktioniert alles ganz gut, das erste Backup war jeweils ein Vollbackup, alle weiteren sind Inkrementiell.

    Nun zu den Fragen:


    1. Wie kann ich z.B. einmal im Monat ein zusätzliches Fullbackup erzeugen, das ebenfalls auf der iSCSI Lun liegt bzw auf dem externen Laufwerk . Wenn ich diesen Thread hier  richtig interpretiere, dann müsste es doch reichen, wenn ich meine Syntax um ein -vssFull erweitere oder ?

    Also z.B. wbadmin start backup -backupTarget:\\?\Volume{GUID 123...}\ -include:H:\ServerFolders\Ordner1\Datei_Abc*.* -quiet -vssfull

    Eine weitere/andere Backup Software wird nicht verwendet.


    2. Ist es überhaupt noch notwendig regelmäßige Fullbackups zu haben ?


    3. Ist es trotz neuer Backuptechnologie immer noch so, dass wenn ich irgendwann mal ganz viele Inkrementielle Backups habe,

    der Restore im K-Fall evtl etwas länger dauern wird ?


    4. Mein Notfall Workaround wäre ein NAS Share zu verwenden (da ja hier immer ein Fullbackup gemacht wird), vermutlich können aber die Inkrementiellen Sicherungen die auf dem externen Laufwerk bzw iSCSI Lun liegen, dieses Fullbackup nicht verwenden, oder ?

     

    5. Wenn ich ein wbadmin delete backup -keepversions:n verwende, wird dann auch das initiale Fullbackup gelöscht oder bezieht sich das nur auf die inkrementiellen ?

     

    Vielen Dank schon mal und ein schönes Wochenende

     

    Marc(us)
     

×
×
  • Neu erstellen...