Jump to content

TheBiker006

Members
  • Gesamte Inhalte

    133
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von TheBiker006

  1. Ich möchte euch heute mal mein einfaches Backup-Konzept schreiben, und würde gerne eure Meinung hören, ob man dies heute noch Zeitgemäß so einsetzen kann und wo es Probleme geben könnte. Ausgangssituation: 1 Fileserver HP Micro G8 8 GB ECC RAM, Celeron CPU sehr sparsam (gemessene Watt 45) 2. Server 2012R2 mit 4 HDDs und 1 SSD (1HDD für das Betriebssystem, 3HDD + 1 SSD als Write back Cache) Folgende Rollen und Features sind installiert: Storage Spaces, Arbeitsordner, Data Dedublication, DNS, AD, Hyper-V, Server Sicherung Die 2 NICS habe ich geteamt. Mein Wunsch ist es nun durch SMB Multichannel, die 500MB/s mit mindestens 200MB/s auch zu den Servern zu bringen. Dazu werden ja keine Subnetze benötigt da die Clusterrolle nicht installiert ist. So wird es bei Microsoft beschrieben. Mein Konzept 2 x 3000GB HDD als REFS formatiert und im Raid 1 über die Storage Spaces verbunden die SSD von 64 GB dient dazu als kleiner schneller Cache welcher eine sehr gute Schreibperformance in diesem System von 500 MB/s intern liefert. 1 x HDD 3000GB als REFS formatierter Datenträger welcher als Backup für das im Raid1 laufenden Fileserver Verbund dienen soll. Diesen habe ich nicht in den Storage-Spaces Verbund, da ich schon einige male Fehler mit Storage Spaces hatte, und das Volume plötzlich weg war oder nicht mehr lesbar oder offline usw........ Mit der Powershell und viel probieren wurde dieses Volume dann wieder nutzbar. Die Daten legt mein Kunde auf den Fileserver welcher ja einfach gespiegelt wird. Geht eine HDD kaputt hat man hier schonmal eine einfache Sicherheit. Jetzt bin ich hingegangen, und habe mit Robocopy ein Script erstellt, welches über einen Aufgabentask eingebunden ist. Das Script startet beim Serverstart automatisch unabhängig von der Benutzeranmledung und kontrolliert alle 2 Minuten die Änderung welche auf dem Fileserver stattfinden und kopiert diese auf das Singlevolume. Zusätzlich wird mit Robocopy nachts auch eine Sicherung der Daten auf eine kleine Synology NAS geschrieben. Zusätzlich wird nachts noch eine Windows Serversicherung gefahren, welche das BS sichert und den Fileserver welcher im Raid 1 läuft. Bisher funktioniert alles. Es ist kein Performanceverlust, da Robocopy nur die geänderten Daten neu schreibt. Was nicht funktioniert ist SMB Multichannel. Lt. dem Mikrotik RX/TX Chart, wird hautpsächlich immer 1 NIC voll ausgelastet. Manchmal springen ein paar KB/s auf die andere NIC. Insgesamt geht nicht mehr als 1GB/s über die Leitung. Aber es ist ausdrücklich angepriesen das auch bei einem Datenstrom mehrere NICS genommen werden um den Datendurchsatz zu steigern. Jetzt meine Angst. Kann es sein, das wenn die im Raid 1 laufende Fileserver defekt ist, diese defekte auch auf die Sicherungsplatte repliziert werden? Wie würdet Ihr dies lösen, ohne jetzt eine 10000 euro Fertigsoftware zu nutzen? Ist dieses Backupkonzept tragbar? In welchen Fällen könnte es zu Datenverlusten kommen? Ist dieses Konzept der Datensicherung schon zu übertrieben?
  2. @NorbertFe: Ja manchmal sind 2 oder mehr Standard Lizenzen in der Tat günstiger wenn du das damit meinst. @Docdata: Ich möchte mich mit dir eigentlich nicht mehr unterhalten. Bitte schreibe in anderen Threads. Und ja ich habe für meine Kunden auch gekaufte Datacenter Lizenzen. Ich selbst habe 2 Standard Lizenzen für mein Firmennetz und nutze Testlizenzen für den Aufbau. Ich hoffe alle deine Anspielungen beantwortet zu haben. Ich habe auch meinen MCSE gekauft war garnicht so teuer.
  3. @NorbertFe: Die Datacenter braucht man in der Produktivumgebung wenn man mehr als 2 VMs auf einem Blech nutzen möchte. @DocData: Ich nutze die 180 Tage Test Lizenz Und ja ich bin auch Partner und habe auch gekaufte Datacenter Lizenzen. Es geht hier rein um eine Testumgebung. @lefg: Die Leistungsaufnahme von einem HP Microserver G8 liegt bei 40 Watt. Er ist sehr beliebt als Fileserver.
  4. Der Host 3 ist halt 24h in Betrieb da es später mein Fileserver für die privaten Daten werden soll. Die VMs machen soweit nicht viel. Ich wollte mir Linux Mint, Mikrotik Router OS, MSDos, und ein paar kleine Betriebssysteme installieren und die hin und her schieben und verschiedene Failover Szenarien durchspielen mit den Wartungsfunktionen. Mein Testszenario werde ich mir noch einmal anschauen, und die DCs wohl nur virtualisieren, und auf dem Blech dann den Failovercluster-Manager installieren. Was meinst du dazu? Ich sehe meine Testumgebung nicht als Nutzlos an. Was nicht supportet ist und supportet findet man manchmal nur im kleingedruckten. Ich lerne gerne dazu und stehe auf konstruktive Kritik wie von Norbert. Hier der Link zur Testumgebung welche ich nachstellen möchte https://www.hyper-v-server.de/management/unsere-best-practise-erfahrungen-teil-1-die-installation-eines-hyper-v-failover-cluster-unter-windows-server-2012-r2/ @DocData: Allerdings habe ich kein Verständnis für Postings mit 100000 Rechtschreibfehlern mit Kommentaren wie alles Nutzlos und alles schlecht. Hauptsache viele Beiträge schreiben. Denk mal drüber nach DocData. ;-) PS: Ich habe dein Kommentar mit dem Dacia und Mikrotik Routern noch nicht vergessen ;-) So der DC ist jetzt auf dem Host1 und auf dem Host3 virtualisiert mit der Essentials Umgebung. Kein DC mehr auf dem Blech. Die Failovercluster Rolle ist jetzt auf allen 3 Hosts auf dem Blech. Es funktioniert. Wäre nur in der Produktivumgebung die Frage der Lizenzierung 1. Host brauch man dann wohl Datacenter. Da der DC schon virtualisiert ist und nur noch 1 VM sonst zugelassen wäre. Wobei das auch nicht ginge, da die Failover Manager Rolle schon auf dem Blech ist, und dann keine Virtualisierung mehr zulässig ist. Eigentlich bräuchte man auf allen Blechen die Datacenter Edition. Also alles in allem eine sehr teure Angelegenheit. Norbert ein dickes plus ++
  5. Hallo Norbert, der DC auf dem Fileserver habe ich gewählt, weil dieser Hauptsächlich im 24 h Betrieb ist und meine Clients sich dann an der Domäne anmelden können. Die Anzahl von 2-3 Nodes ist denke ich mal zum Testen und verschieben der VMs ok. Der Host 3 welcher meine ganzen Daten enthält und als SMB3 Freigabe der Hyper-V Daten dient, macht auch bisher keine Probleme. Den Fileserver musste ich physikalisch erstellen, da Microsoft für virtualisierte Storage Spaces kein Support gibt. Der HOST 3 dient auch nur für 1-2 VMS Platz, da dieser nur ein kleiner HP GEN8 Microserver ist mit nem kleinen Celeron und 8GB RAM. Ich weiß nicht ob ich noch einen Server 2012 Virtualisieren könnte darauf mit der Essentials Rolle und als DC. Er ist halt sehr schwach auf der Brust und da es ein Fileserver sein soll mit Performance....... Im Mittelpunkt steht halt der Fehler mit der Essentials Rolle. Die baut wohl den ganzen Server um und verursacht wohl den Fehler beim Konfigurieren der Failovercluster Rolle. Falls der Fehler nicht zu beheben ist, oder Microsoft kein Clustermanager in Verbindung mit der Essentials Rolle bietet, nutze ich halt den Host1 und Host2 nur und der Host3 ist nur für die SMB3 Freigabe zuständig. Hab mir gerade deinen Link angeschaut. Meinst du wirklich es liegt nicht an der Essentials rolle, sondern daran das ich die DC Rolle auf dem Host installiert habe? Hmm Aber dann darf ich ja auf keinem Host die DC Rolle instlalieren. Dies ist bedenklich, weil wenn im Produktivsystem die VMs durch einen Fehler nicht starten, ist im Netz kein DC zur Anmeldung. Oder werden heute die DCs nur noch Virtualisiert? Dank dir aber für die schnelle Antwort. :-)
  6. Ich habe mich heute mal weiter mit dem Hyper-V Cluster beschäftigt. Hardware Gegebenheiten 1. Host 1 Server 2012R2 Dieser dient als Hyper-V Node mit den Rollen Hyper-V, DC, DNS, Failoverclustering 2. Host 2 Server 2012R2 Dieser dient als Hyper-V Node mit den Rollen Hyper-V, Failoverclustering 3. Host 3 Server 2012R2 Dieser dient als Fileserver SOFS, Medienserver mit den Rollen, DC,DNS,Essentials, Failoverclustering und soll auch ein Hyper-V Node werden. Jetzt mein Problem. Da dies nur eine Testumgebung ist, bekomme ich immer beim einrichten des Failoverclusters nach der Best Practice Lösung oder generell zu dem Ergebnis, das der Failovercluster nicht gebildet werden kann wenn die Essentials Rolle installiert ist. Diese Essentials Rolle brauche ich aber für den Medienserver (DLNA). Der Bericht bringt einen mit einem roten X gekennzeichneten Fehler "Aufgrund des folgenden Fehlers konnte nicht festgestellt werden, ob der Knoten "SRV4.test.local" ein schreibgeschützter Domänencontroller ist: Das Objekt ist nicht vorhanden." Danach wird die Konfiguration automatisch rückgängig gemacht. Es ist aber kein RODC. Wie gesagt der fehler kommt erst nach der installation der Essentials Rolle. Im Internet finde ich hierzu keine Informationen. Oder sollte ich einfach versuchen zuerst die Failover Rolle zu installieren, dann den Cluster konfigurieren und zum Schluss die Essentials Rolle erst aufspielen.
  7. Was soll an Mikrotik Cloud Routern so lustig sein. Diese bieten sehr viel fürs Geld. Ich glaub die Problematik hast du in dem Fall nicht verstanden. MikroTik Cloud Core Router CCR1072-1G-8S+ 1.0GHz 72 Core CPU, 16GB RAM, 8 x SFP+, 1 x 10/100/1000Base-T, 1 x microUSB 2.0, 1 x regular USB 2.0, 1 x serial RJ45, full size Smart Card slot, microSD slot, 2 x M.2 slots with x4 PCIE 2.0, 2 x IEC C14 standard connectors 110/220V redundant PSU, RouterOS Level 6 License Und das unter 2000 euro. Was für ne Juniper musst du da wohl kaufen für wieviel Euros. Und dieser Router wiegt weniger wie 60 Kg und hat weniger Verlustwärme. Ausserdem bei welchen Kunden brauch man wohl so ein Vorkriegsmonster von Router. Muss gerade an einen der ersten Rechner denken. Die haben auch ganze Sporthallen ausgefüllt.
  8. Hmm irgendwie wird das Word FC von jedem anders aufgefasst. FC heisst für mich Fibre Channel und ist eine Anbindung über Glasfaser. Auch SFP bei Routern genannt. Und ja oben das ist eine FC Karte für Device Anbindungen. Zahni sagte es gibt keine 10Gbit FC Karten. Und ich habe einen Link über eine bereits existierende eingefügt. https://de.wikipedia.org/wiki/Fibre_Channel Es kann auch sein das ich was falsch verstanden habe, und FC nicht das übertragungsmedium darstellt sondern das Protokoll. Ich lese bei Wiki auch gerade FC over Ethernet.........
  9. Ich rede auch von Routeranbindungen. Die Cloud Router haben 10Gbit Nennt man auch SFP+ Oder wieder auf Qlogic FC Adapter zurück zu kommen. Hier ist ein 10Gbit pci-e https://www.harlander.com/qlogic-42c1800-ibm-fibre-channel-pci-express-4x.html Oder wie skaliert man HP Switche. Die haben auch 10Gbit sfp die man sogar per lacp Trunk anbinden kann Ich denke aber du meinst andere FC
  10. Danke für den Sinnlosen Kommentar DocData und testperson. Zum Thema FibreChannel kann ich nur sagen das ich Mikrotik CloudCore Router in Rechenzentren konfiguriere. Die schließe ich generell über 10GB FC direkt an. Und den Witz mit dem Nullmodemkabel und Parrallelkabel verstehe ich gerade nicht. Das man in meinem Testcluster 6 NICs oder mehr pro Node braucht ist ja wohl bekannt. Die Idee mit dem Qlogic FC Adapter war wohl ein Fehlgriff. Aber is ja gut das einige Fachleute hier schon von Geburt an alles wussten. ;-) PS: Hatte ich nicht schon oben den Thread als Gelöst markiert?
  11. Das erklärt natürlich alles. Dann kann ich diesen pci-e FC Adapter wohl in die Tonne treten. Aber die Info zur Bündelung der Physikalischen NICs und daraus dann V-NICs zu machen ist sehr gut. Dann nehme ich alle 5 Karten ins Teaming und virtualisiere diese dann zu Storage1, Storage2, Management, Livemigration und VMs. Fehlt noch was? CSV und ISCSI brauch ich ja im Falle von SOFS über SMB3 nicht. Mal schauen ob das so alles funzt. In der Praxis wird das denke ich mal nicht so gemacht. Da hätte man wohl echte 10Gbit Karten genommen und Kreuzweise geteamt. Ein Glück hab ich die Nodes und die Fileserver Verkabelung schön hinter mein Schrank geschmissen wo es keiner sieht. :-)) 2 Nodes mit jeweils 5 physikalischen NICs 1 Fileserver mit 4 NICs das alles an ein Mikrotik Cloud Switch Es gibt zeit das die 10Gbit karten und Switches günstiger werden.
  12. Ja das mit den Zügen hab ich auch schon gelesen und in Videos gesehen. Aber hier kommt ja die Balancing funktion zum Einsatz. Der Datenstrom läuft ja über mehrere Karten gleichzeitig. Aber insgesamt halt nicht mehr als 1000 Mbit/s (ca. 104 MB/s). Intern können das die HDDS. Eine SATA Platte hat 200MB/s schreibgeschwindigikeit.Und im Raid 0 Verbund sind es ca. 350MB/s ohne eine SSD. Wenn jetzt noch der WB Cache hinzu kommt von den Storage spaces, rechne ich mit ca. 400 echten MB/s intern. Das muss jetzt nur über die Netzwerkkarten verteilt werden. Lt. der SMB Multichannel technik sollte das funktionieren. Herr Rachfahl hat dazu schöne Youtube Videos des neuen SMB3 Protocoll erstellt indem er bei einem Datenstrom zusätzliche Netzwerkkarten einschaltet. Da es sich erst einmal um eine Testumgebung handelt, möchte ich aber keine Antworten mit erhobenen Finger, welche sagen ja die MB/s sind unwichtig was zählt sind nur die I/O s oder ich soll mir doch ein 5000 euro SAN kaufen. :-) und nein ich nutze auch keine 200 euro/Stück RDMA Karten. Vielleicht liege ich ja auch falsch. In dem Fall kann ich ich ja auch ganz einfach die Karten mit LACP Teamen und auf dem Mikrotik Cloud Router ein Bond mit LACP einrichten. Dann bräuchte man die SMB Multichannel Funktion garnicht.
  13. Hallo Leute Mein erster eigener Beitrag und ich möchte mal kurz in die Runde fragen, ob jemand eine Lösung für mein kleines Problem hat. Folgende Situation: Aufgrund der großen Netzwerkkarten Voraussetzung bei einer HV Cluster Einrichtung, habe ich mir gedacht ich versuche es mal mit FC karten. Ein 5 m Glas Kabel hab ich noch vorrätig. Als alternative wären 4 x 1GB NICs zum Einsatz gekommen. Aber das gekabel wollte ich mir ersparen. Im Internet bin ich schnell fündig geworden. eine 4,25 GBit/s Qlogic QLE2460 die auch lt. Herstellerseite Server 2012R2 Treiber bietet. 2 Stück habe ich in meine 2 Hyper-V Nodes per PCI-E eingebaut. Beim Booten leuchten alle 3 LEDs an der Karte dauerhaft. Nach dem Bootvorgang sind immer noch alle 3 LEDs dauerhaft am leuchten. Im Gerätemanager finde ich diese Karte leider nicht. Auch eine Installation des Treibers kann nicht durchgeführt werden. Wo ist hier mein Fehler. Ein defekt schließe ich aus, da beide Karten das gleiche dauerhafte leuchten der 3 LEDs aufweisen.
  14. Ich finde die Microsoft Zertifizierungen sind nicht mehr viel Wert. Die hängen bei mir an der Wand und sehen einfach nur schön aus. Nice to have halt. Ab MCSE wird es sowieso erst interessant. Aber so schnell wie die Ihre Gültigkeit verlieren.......... Ich würde lieber Mikrotik Router Zertifizierungen, VMWARE oder Cisco empfehlen. Aber zum Thema zurück fang mit der 410 an dann bist du schonmal MCP. Quasi Mitglied bei Microsoft lol :-)
  15. Vielen Dank für die Infos Monstermania. Zu dem eigenen Thread kann ich nur sagen das ich wohl zu wenig Beiträge habe für einen eigenen zu erstellen. Die Synology NAS war auch eher als Sarkasmus gedacht. Es gibt auch gute Storage Lösungen von Synology und Qnap im Business Bereich. Von Microsoft wird ja die Storage Spaces Funktion angepriesen. Aber anscheinend ist das praktisch wohl eher nur ein schönes guddi zum spielen wie ich dies hier im Text raushöre. Mit dem SSD Cache hast du Recht. Die SSD war auch nur für den WBC gedacht. Halt nur ein schneller Cache der ja direkt geleert wird und auf die gespiegelten HDDs geschrieben wird. Was du meinst ist die Tiering Funktion. Was die Downtime betrifft, wird hier auch kein HA angestrebt sondern nur ein DR System. 2 Nodes im Cluster ist kein HA. Stürzt ein Node ab, ist der RAM auch weg und der andere Node startet quasi neu. Die Frage nach einer weit verbreiteten, leicht konfigurierbaren und stabilen Storagelösung bleibt immer noch. Ich denke aber die Richtung NetAPP ist schon richtig. Für eine Testumgebung im Bereich von 400 Euronen bekommt man sicher auch eine die nicht nur Strom in Wärme umwandelt. :-)
  16. Ich bin auch gerade Storage Lösungen für die Anbindung meiner Hyper-V Nodes am suchen. Die Angelegenheit ist alles andere als Trivial. Meine bisherigen Versuche 1. Ein HP Microserver als SOFS mit 2 x 3000 GB SATA im RAID 1 plus den von MS angepriesenen SSD Cache. Naja der Cache ist normal immer nur 1 GB das findet man aber nur im kleingedrucketen in Foren. Das merkt man deutlich beim Datendurchsatz. Nach einigen Sekunden geht dieser von 400MB/s runter auf nur noch 200MB/s. Die Technik mit SMB Multichannel funktioniert auch nur so halb. Das Balancing ist hergestellt lt. meinem Mikrotik Cloud Router. Aber mehr als 1 GB/s geht nicht durch. Ich habe auch LACP und alles deaktiviert. Ausserdem ist auch nur Mirror verfügbar. Simple ist blödsinn und Parity geht im Cluster nicht. Vielleicht noch ein Raid 10 wenn man 2 x 2 HDDs als Mirror im Raid 0 macht. Naja alles nur gebastel. Wenn das Betriebssystem abraucht dann kann man schauen wie man die Daten wieder bekommt. Ich traue den Storagespaces nicht ganz über den Weg. Habe schon 2 mal aus versehen diesen erfolgreich gelöscht. Ein klick und alles ist weg. Ich suche immer noch nach einer Lösung diesen wieder anzubinden wenn das Volume und die Virtuellen Datenträger gelöscht wurden. Die Daten sind ja auf den Platten lt. Microsoft...... 2. Im Internet (Ebay) bin ich auf Net-APP gestoßen. Hört sich interessant an. Besonders dieses Angebot http://www.ebay.de/itm/NetApp-DS14-MK4-Disk-Shelf-inkl-14x-300-GB-15K-Festplatten-2x-ESH4-/151264265120?hash=item23380d83a0:g:xFAAAOxykmZTM~eP . Hier sollen angeblich 14 Festplatten inklusive sein für den Spottpreis von 89 euro. Sehr komisch. Würde ich mir aber bestellen wenn es gut ist. Was meint Ihr dazu. Als Storage Lösung oder Hyper-V Storage. 3. ISCSI Anbindung hier hatte ich auch den oben erwähnten HP Microserver verwendet. Aber jetzt kommt wohl kein SMB Multichannel mehr zum Einsatz sondern MPIO. Hat noch nicht funktioniert damit mehr als 1 GB/s über die Leitung gehen. 4. Am besten ich hol mein Synology NAS damit hatte ich bisher noch keine Speicher Probleme. Allerdings hat diese nur 1 LAN Port und ist wohl mehr für klein Erna zuhause. Gibt es hier ein Storage spezialisten der mir für Kundenlösungen mit 2 Hyper-V Nodes für hohen Datendurchsatz und gleichzeitige Ausfallsicherheit ein paar Tipps geben kann? Danke für eure Hilfe im voraus.
  17. Vielen Dank für die ausführliche Antwort Jan. Ja das mit den Lizenzen ist ein komplexes Thema. Ich dachte wenn eine Cold passiv Replica auf einem Blech liegt brauch diese nicht extra lizenziert zu werden. Ich werde mir das Cluster und Replica Thema noch etwas genauer anschauen. :-) SMB Multichannel funktioniert jetzt auch im Teaming. Das Problem war das ich durch einen Hyper V Switch die RSS Funktionalität der NIC verloren hatte. Lt. Powershell Befehl war diese nicht mehr auf true. Ich habe deshalb den HV Switch gelöscht und schon funktionierte das SMB Multichannel schön verteilt auf 3 NICs. Jetzt steh ich vor dem Problem das mein HP Microserver keinen großen Datendurchsatz hat. Es kommen maximal 70 MB/s an den Servern an. Die CPU ist aber dabei nur ca. 60 Prozent ausgelastet. Oder können die Stromspar Celerons nicht mehr smb Traffic verarbeiten. Die Festplatten sind es nicht (4x Seagate 3TB im Simple Modus ) über Speicherpools Die NICs auch nicht 3 x Gigabit im Team Entweder der Celeron G1610T oder der RAM von 4 GB (1333 MHZ) im System. Oder eine andere von HP gedrosselte Komponente. Ich möchte doch nur um die 300MB/S übers Netz bringen. Die Netzwerkkarten bringen um die 320 MB/S
  18. Hallo Leute, ich schreibe mal auf diesen fast passenden Beitrag meine Erfahrungen mit Storage Spaces, Fileserver und Hyper-V. Grund dieses Beitrages sind IT Lösungen für meine Kunden zu suchen die kostengünstig und effizient sind. Zuerst mal zu der Fileserver Geschichte. Aktuell nutze ich noch eine Synology NAS die bisher ohne Fehler im RAID 1 die Daten als Datenspeicher und Medienserver zu Verfügung stellt. Diese wird mir allerdings etwas zu klein, da nur 2 HDD Slots vorhanden sind und 1 RJ45. Deshalb habe ich mir einen HP Microserver G8 zugelegt mit folgender Hardware: 4 GB RAM 4 x 3,5 " HDD für den Datenspeicher 1x 2,5 " HDD für das Hostsystem Dieser Server ist sehr vielversprechend und mir stellt sich nun die Frage, wie ich diesen am besten nutzen kann. Erste Ansätze waren eine ESXi 6.0 Virtualisierung mit Server 2012R2 mit der Storage Spaces Rolle und als Datenserver für meine Hyper-V Server im Cluster. Allerdings im Kleingedruckten bei Microsoft lese ich doch das eine Virtualisierung nicht supportet wird. Macht auch sinn. Freenas und solche Dinge möchte ich nicht. Deshalb habe ich mich entschieden den Server 2012R2 direkt auf der Host SSD zu installieren. Als Rollen habe ich Storagespaces,DNS, Failover Cluster Manager, Mediaserver und die Rolle als DC dies war sinnvoll da der Fileserver immer läuft. Die 4 x 3TB HDDs habe ich als Mirror im Pool genommen mit einer zusätzlichen SSD als Cache und Tiering. Allerdings beginnen jetzt die Stolperfallen. wo ich ein paar Tipps bräuchte. 1. Intern habe ich jetzt theoretisch einen Guten Datendurchsatz. Der Server hat auch 2 x RJ45 was mit einer Linkaggregation auch gut nach aussen kommen könnte. Was bei Microsoft aber nicht so einfach ist. Es gibt eine Vielzahl an Techniken welches diese Funktion scheinbar bietet. Teaming: Entfällt da dies im besten fall als Failover dient. Es wird keine aktive Bündelung mit Roundrobbin geboten. MPIO: Ist wohl eher für ISCSI gedacht NLB: Wohl auch ein guter Ansatz aber unbrauchbar in dem Fall Jetzt bleibt nur noch SMB3 Multichannel. Nach vielen versuchen und viel Frust kann ich sagen es funktioniert wenn man vorher viel konfiguriert und mehrere Subnetze konfiguriert. Warum muss Microsoft dieses dumme Loadbalancing so verkomplizieren. 2. Nachdem ich meine Storage-Spaces erfolgreich mit Daten gefüllt hatte, habe ich mich kurz verklickt und den Pool gelöscht. Jetzt finde mal jemand eine Seite im Internet wo beschrieben ist, wie man Daten aus dem Pool rettet. Oder der Server abstürzt und der Pool automatisch auch natürlich nicht mehr vorhanden ist. Die Daten liegen weiter auf den Platten verteilt, aber man hat kein Zugriff mehr. So das war die Speichergeschichte. Das nächte wäre die Bildung eines Clusterspeichers. Hier habe ich noch etwas lernbedarf. Es gibt die Möglichkeit über sofs (Scale out Fileserver) was sich recht gut anhört oder über iSCSI die Anbindung zu den Notes. Ich habe leider nur 5 Netzwerkkarten pro Node und möchte alles recht Professionell in einer Teststellung nachbilden. Da ich selbst MCSE bin darf ich nicht so viel über Microsoft meckern. Aber es wird viel geschrieben das die Hyper-V Funktion kostenlos und schon alles fertig implementiert ist. Wenn man das alles genauer betrachtet, ist da nichts kostenlos selbst mit dem kostenlosen Server2012R2. Um nur die Lizenzierung bereitzustellen, wird schon eine Menge an euros benötigt. Ein einfaches Konzept von aktiv/passiv DR funktioniert in der Realität meistens nicht da ja komischerweise der Exchange nicht für Replica geeignet ist. Wieso steht nirgends. Ich hatte bisher keine Probleme in einer 2 Server Teststellung. Was ich aber bisher noch nicht rauslesen konnte und jeder anders darüber erzählt, ist die Lizenzierung von Folgendem Scenario. 1 Host Server 2012 R2 mit 2 VMs (DC und Fileserver) 1 Host Hyper-V Server 2012R2 der nur im Cold Modus läuft und im DR Fall die VMs kurzzeitig zur Verfügung stellt aber nicht aktiv läuft. Es ist also eine aktiv/passiv Umgebung und ich bräuchte nur 1 Server 2012R2 Lizenz. Falls ich da falsch liege, nennt mir doch bitte eine sinnige Nutzung dieses kostenlosen Hyper-V Servers um Lizenzen zu Sparen und nicht den Standard stattdessen zu installieren. Entschuldigt bitte meinen Sarkasmus an manchen stellen. :-)
  19. Hallo Leute, ich schreibe mal auf diesen fast passenden Beitrag meine Erfahrungen mit Storage Spaces, Fileserver und Hyper-V. Grund dieses Beitrages sind IT Lösungen für meine Kunden zu suchen die kostengünstig und effizient sind. Zuerst mal zu der Fileserver Geschichte. Aktuell nutze ich noch eine Synology NAS die bisher ohne Fehler im RAID 1 die Daten als Datenspeicher und Medienserver zu Verfügung stellt. Diese wird mir allerdings etwas zu klein, da nur 2 HDD Slots vorhanden sind und 1 RJ45. Deshalb habe ich mir einen HP Microserver G8 zugelegt mit folgender Hardware: 4 GB RAM 4 x 3,5 " HDD für den Datenspeicher 1x 2,5 " HDD für das Hostsystem Dieser Server ist sehr vielversprechend und mir stellt sich nun die Frage, wie ich diesen am besten nutzen kann. Erste Ansätze waren eine ESXi 6.0 Virtualisierung mit Server 2012R2 mit der Storage Spaces Rolle und als Datenserver für meine Hyper-V Server im Cluster. Allerdings im Kleingedruckten bei Microsoft lese ich doch das eine Virtualisierung nicht supportet wird. Macht auch sinn. Freenas und solche Dinge möchte ich nicht. Deshalb habe ich mich entschieden den Server 2012R2 direkt auf der Host SSD zu installieren. Als Rollen habe ich Storagespaces,DNS, Failover Cluster Manager, Mediaserver und die Rolle als DC dies war sinnvoll da der Fileserver immer läuft. Die 4 x 3TB HDDs habe ich als Mirror im Pool genommen mit einer zusätzlichen SSD als Cache und Tiering. Allerdings beginnen jetzt die Stolperfallen. wo ich ein paar Tipps bräuchte. 1. Intern habe ich jetzt theoretisch einen Guten Datendurchsatz. Der Server hat auch 2 x RJ45 was mit einer Linkaggregation auch gut nach aussen kommen könnte. Was bei Microsoft aber nicht so einfach ist. Es gibt eine Vielzahl an Techniken welches diese Funktion scheinbar bietet. Teaming: Entfällt da dies im besten fall als Failover dient. Es wird keine aktive Bündelung mit Roundrobbin geboten. MPIO: Ist wohl eher für ISCSI gedacht NLB: Wohl auch ein guter Ansatz aber unbrauchbar in dem Fall Jetzt bleibt nur noch SMB3 Multichannel. Nach vielen versuchen und viel Frust kann ich sagen es funktioniert wenn man vorher viel konfiguriert und mehrere Subnetze konfiguriert. Warum muss Microsoft dieses dumme Loadbalancing so verkomplizieren. 2. Nachdem ich meine Storage-Spaces erfolgreich mit Daten gefüllt hatte, habe ich mich kurz verklickt und den Pool gelöscht. Jetzt finde mal jemand eine Seite im Internet wo beschrieben ist, wie man Daten aus dem Pool rettet. Oder der Server abstürzt und der Pool automatisch auch natürlich nicht mehr vorhanden ist. Die Daten liegen weiter auf den Platten verteilt, aber man hat kein Zugriff mehr. So das war die Speichergeschichte. Das nächte wäre die Bildung eines Clusterspeichers. Hier habe ich noch etwas lernbedarf. Es gibt die Möglichkeit über sofs (Scale out Fileserver) was sich recht gut anhört oder über iSCSI die Anbindung zu den Notes. Ich habe leider nur 5 Netzwerkkarten pro Node und möchte alles recht Professionell in einer Teststellung nachbilden. Vielen Dank für die Mühe die Ihr euch macht.
  20. Hier kommt die Antwort vom Logo Builder wenn ich es versuche. Sorry, you don’t appear to have access to Logo Builder. Access is restricted to partners who are actively qualified in at least one Microsoft competency, or individuals who have passed the Sales Specialist or Presales Technical Specialist assessment. It can be used for the following purposes: To create, save, and download Microsoft partner logos: If your company does not hold a competency then you cannot create a Microsoft partner logo and under the terms of the partner agreement you are not entitled to use a Microsoft partner logo. To download Sales Specialist logos: any individual who is associated to your company and has passed a Sales Specialist or Presales Technical Specialist assessment can download logos for their use. For more information visit the training overview page. To download technical certification logos: any individual who is associated to your company as a Microsoft Certified Professional (MCP) or holds other technical certifications can download logos for the certifications that they hold. For more information visit Microsoft Learning.
  21. Der Logo Builder kann aber nicht benutzt werden für einen kostenlosen Registrierten Partner account. Diese Meldung kommt immer.
  22. Ich habe jetzt auch meine Zertifikate soweit fertig (MCP,MCSA,MCSE Server Infrastructur) Der einzige Vorteil und was auch nützlich ist, das ich in meiner Email Signatur die schönen Logos verwenden kann. Allerdings habe ich mich jetzt als Microsoft Partner angemeldet (kostenlos) Ich würde gern ein Microsoft Partner Logo auf meiner Webseite haben und noch zusätzlich in der Email Signatur. Ist das so einfach machbar und legal? Ich bin ja im Partner Network registriert mit ID. Kennt sich da jemand aus ? Bitte keine Links zu dem Logo Builder von Microsoft. Ich steh auf kurze knackige Antworten :-)
  23. Ich hatte mir es einmal schicken lassen. Aber leider ist das Format total falsch, und es wird als billiges Foto von Arvato Bertelsmann versendet. Seid meinem MCSE drucke ich mir die Zertifikate nur noch an einem guten Laserdrucker aus und ab in ein IKEA Bilderrahmen und zur ansicht aufs Toilettenhäuschen gehangen :-) . Mehr sind diese Scheinzertifikate nicht mehr Wert :-)
  24. Nein Gummibärchen brauche ich keine. Aber den Sarkasmus muss ich mir wohl jetzt anhören. Anfangs haben hier MCPs und Fachleute geschrieben das es ein komplexes Thema ist und jetzt wo es funktioniert kommen hier kommentare wie. Ach wie ist das doch so leicht. Mein Nachbar ist KFZ Mechaniker. Er sagt auch immer am PC zu schrauben ist ganz einfach. Nur klicken. Ne Spass bei Seite. Wenn man sich nicht Tagelang in die Materie einarbeitet ist dieses Thema wie alle anderen sehr komplex. Und ja ich habe Roaming Profile verstanden. Seid Windows 2012 jetzt auch für RDP was ja neu ist. Und nein ich habe nicht nur einen MCSE sondern bin noch Wirtschaftsinformatiker und seid 10 Jahren im Nebengewerbe Selbstständig. So mein Sarkasmus ist jetzt auch erledigt :D Ich wünsche euch allen die mir bei dem Thema beistanden noch ein schönes Wochenende. :)
×
×
  • Neu erstellen...