Jump to content

TheBiker006

Members
  • Gesamte Inhalte

    133
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von TheBiker006

  1. @testperson: ich denke ja nicht das du was gegen Biker hast. Ich bin kein Rocker. Ich fahre ne GSX-R. Ein anderes Thema ist das Geld haben oder nicht. Bei mir geht es mehr in Richtung Risikobereitschaft. Ich stehe dazu das ich kleine Umgebungen Administriere. Ebenso könnte ich große Unternehmen Administrieren. Aber als one Man Show ist das schwer zu realisieren und man verliert schnell den Überblick. Ich versuche halt Einsparungen dort zu treffen wo man es noch kann. Nach Best Practice könnte ich auch einem 5 Mann Betrieb einen Cluster anbieten. Es muss ja alles doppelt redundant und abgesichert werden und sein. Dann könnte ich meine Firma schnell zu machen weil ich keine Aufträge bekommen würde. Das ist Realität. So ich klinke mich hier auch mal raus. Bye Alex PS: Monstermania du fährst Moped ?
  2. OK gefunden. New-VirtualDisk -StoragePoolFriendlyName "My Storage Pool" -FriendlyNameTieredSpace -StorageTiers @($ssd_tier, $hdd_tier) -StorageTierSizes @(50GB, 300GB) -ResiliencySettingName Mirror -WriteCacheSize 2GB Dieser Befehl richtet auch gleichzeitig Tiering ein was ich aber explizit nicht möchte da kein Speicher auf der SSD liegen soll. Dieser soll ja nur als Caching dienen. New-VirtualDisk -StoragePoolFriendlyName "My Storage Pool" -ResiliencySettingName Mirror -WriteCacheSize 512GB Wäre das dann der Befehl ohne Tiering?
  3. Sag ich doch. Nicht best practice. :cool: . Ich schäme mich ja schon. Ich schaue mir mal noch die Performance an, wenn ich den Hardware Raid deaktiviere, und die 2 separaten SSDs im Pool einbinde als WriteBack Cache OK er kann nicht geändert werden und er wird auf 1 GB gestellt. Und wenn nicht genug physikalische Disks vorhanden sind, wird dieser auch sogar auf nur 32 MB gestellt. Hier ein Auszug von dem obigen Link. Newly created storage spaces automatically use a 1 GB write-back cache by default when the storage pool contains enough physical disks with MediaType set to SSD or Usage set to Journal to support the specified resiliency setting. If there aren’t enough physical disks with these settings, the write-back cache size is set to 0, except for parity spaces, when it’s set to 32 MB. What must I do for more write Back Cache. This is my question. Und sorry my english is not the Yellow from the egg. :p Habt etwas nachsicht mit mir. Meine Powershell Befehle in Bezug auf Storage Spaces sind noch etwas dürftig.
  4. Ich habe mir auch mal alle 3 Seiten durchgelesen, und bin erst einmal beruhigt das ich nicht der einzige bin mit dem etwas ich nenn es mal "belustigend abwertend" geschrieben wird. Aber wie kommt man denn mit 1300 Beiträgen zu dem Titel "vollkommener Ahnungsloser" schlimmer geht nimmer. Und nein ich möchte ihn nicht :D . Aber mal ehrlich. Bei den Summen von 30000 euro für Projekte und dann das Wort Samung EVO SSD stellen sich mir die Nackenhaare auf. Die SSDs sind sehr gut und schnell für Clients oder auch Testbauten wie ich sie gerade mache. Aber in der Praxis nie und nimmer. Wobei meine Projekte nicht in dem Umfang sind(nur klein und Mittelständler) die eh kein Geld haben.
  5. In meinem Testaufbau hat sich bzgl. den Storage Spaces ein kleines aber bisher noch nicht behobenes Problem aufgetan. Vielleicht hat da jemand ein Tipp. Festplatten und SSDs: 2 x 3000GB SATA2 2 x 512 MB SSD Es heisst ja wenn Storage Spaces genutzt werden, soll auf jegliches Hardware Raid verzichtet werden. Diese best Practice habe ich jetzt mal nicht befolgt. Die 2 SSDs sind im Hardware Raid 0 konfiguriert. Ein kleiner Test ergab 1100 MB/s schreibgeschwindigkeit. Das hier keine Sicherhiet vorliegt ist mir soweit klar. Zur Einrichtung: Die SSDs hat Windows natürlich als unbekannter Medientyp erkannt. Dies habe ich über die PS umgestellt. Soweit alles gut. Nach der Einrichtung des Pools mit allen jetzt verbliebenen 3 Datenträgern, wollte ich eine Volume und eine Disk einrichten mit Mirror (Raid 1). Die im Hardware Raid konfigurierte SSD soll hierbei ausschliesslich als WriteBack Cache dienen. Auch das Tiering möchte ich nicht, da oft benötigte Daten sonst auf die nicht gespiegelte SSD ausgelagert werden. Das Problem: Standardmäßig vergibt Windows nur 1 GB WriteBack Cache. Dies kann man im nachhinein auch nicht mehr ändern so wie ich gelesen habe. Ist das so? Mein Ziel: Das Ziel sollte es sein, die 3 Datenträger im Pool zu einem großen und schnellen virtuellen Datenträger einzurichten. Wenn Daten geschrieben werden, soll diese zuerst auf die SSD gepuffert werden, und so den Datentransfer erheblich beschleunigen und im Hintergrund die Daten dann "komplett" auf die gespiegelten 2 HDDs zu übertragen. In der Praxis funktioniert das bisher nur eingeschränkt. Wenn eine angenommen 10 GB Datei geschrieben wird, liegen die ersten sekunden die 1100MB/s an. Dannach fällt der Traffic auf 120MB/s. Kann es an dem nur 1 GB WriteBack Cache liegen? Kann ich diesen nicht auf 512 GB stellen?
  6. @mba: Mein Konzept steht nun. Ich migriere die VMs nicht sondern verschiebe sie auf den neuen G8 Rack Server. Der Kunde möchte nur einen Server. Aber ich als Dienstleister sage es kommen 2 physikalische Server hin. @monstermania: Die 400€ Essentials Lizenz zahlt der kd. plus die kleine Veeam Lizenz. Auf den neuen G8 Server kommen wie erwähnt die VMs welche bereits mit Server 2012R2 richtig lizenziert sind. Dazu kommt eine VDI Lizenz für das virtualisierte Win7. Aber zusätzlich um DC Fehler zu vermeiden, kommt noch ein HP G8 Microserver zum Einsatz, welcher einen physikalischen DC beinhaltet plus ein paar Fileserverdienste und Backups die dann weiter auf die Qnap nachts dubliziert werden und als offline Backup jeden Tag eine USB Festplatte. Die Server 2012R2 Lizenz muss dann wohl auch noch dazu.
  7. @OliverHu nein das sind KO Kriterien was man nicht machen sollte wenn man vDCs einsetzen möchte. So viel nicht nicht nicht nein Vernicht(ungen). :D
  8. @ testperson: Das ist leider das beste was ich über vDCs gefunden habe. Server 2012R2 ist ja auch schon fast 5 Jahre alt ;) . Aber grundsätzlich würde ich den vDC nach diesen vorgaben aufsetzen. Hört sich alles sehr sinnig an. Mal schauen was für Neuerungen es in 2016 gibt.
  9. Der Thread ist zwar schon etwas älter, aber da stimme ich DocData zu. Und ich habe auch keines der vielen Zettel per Post bekommen. Man kann sie sich ausdrucken, oder im Microsoft Portal für 10 euro pro Zertifikat über die Firma Bertelsmann zusenden lassen. Die Qualität ist gut. Allerdings ist das Format so falsch, das es in keinen Ikea Fotorahmen passt. :D
  10. @Dr. Meltzer: ich bin da ganz D`accord. Ein Chat fehlt hier definitiv. Für alles neue Threads aufmachen daran muss ich mich gewöhnen. :) @NorbertFe: diesmal sprachlos und schreiblos. Aber erst nach dem Satz :D @OliverHu: Hier mal ein link da steht viel interessantes über NoGo s bei vDCs http://blog.dikmenoglu.de/2011/02/die-no-gos-und-empfehlungen-zu-virtuellen-dcs/ @Squire: ESXi ist eine gute Idee darauf dann den vDC, Exchange, Win7 und das sollte doch dann mit einer Standard 2012R2 Lizenz + VDI Lizenz abgedeckt sein. Dann habe ich halt die Einschränkung, dass ich keine Virtualisierungsinstanz mehr habe mit den Hyper-V Funktionalitäten. Mit ESXi 6.0 und der neuen Weboberfläche macht das arbeiten auch Spass. Nur der Rosa Bildschirm wo bei Tests mehrfach gekommen war mit Cache und Dump und Problemen macht mir noch Sorgen. Das darf bei Kunden nie passieren. @monstermani: Gute Idee. Was hälst du von der Lösung HP Microserver als 2. physikalischen DC natürlich mit einer 2. Server 2012R2 Lizenz. Microsoft will es ja so. Mir juckt es trotzdem immer noch in den Fingern, den HV-Host auch als physikalischen DC zu konfigurieren, und 2 VM instanzen mit Exch und vDC einzurichten. So habe ich 2 sich abgleichende DCs. Aber das erlaubt ja die Lizenz nicht :mad: . Alles was ich im Internet dazu gefunden habe, war die Aussage das der Festplattencache deaktiviert wird bei dem Hyper-V Laufwerk. Die Hyper-V Daten lege ich sowieso auf ein gesondertes Laufwerk.
  11. Ich habe mich hier nicht diskreditiert. Und meine Äusserung zu Port 80 bezieht sich hierauf. Zitat TheBiker006 - 06 Jul 2016 - 06:20: Liegt vermutlich daran, dass tcp 443 ausgehend häufig erlaubt ist und erlaubt häufig nicht protokoliert wird. Ich sehe zumindest ne ganze Menge zu Teamviewer in den Logs (wenn ich das möchte). Teamviewer nutzt nicht nur grundsätzlich den https port 443 sondern auch 80 und ggf. auch noch den 5938 Quelle: https://www.teamviewer.com/de/help/334-which Immer diese Haarspaltereien. Wie meine Freundin. Die dreht auch immer alles so das Sie zum Schluss doch Recht hat und ich Ihr dann noch Recht geben muss um mein Frieden zu haben. :D :rolleyes: Übrigens MCSE ist kein Titel. Das ist nur eine Qualifizierung. Sonst könnte ich ja in jedem schreiben Herr MCSE Alexander ....... eintragen. Hört sich doch doof an. Ich finde es schon eine Schande das auf meinem Zeugnis kein Bill Gates mehr drauf steht, sondern nur noch ein Satya Nadella. Hört sich an wie ein Italienisches Nudelgericht. PS: Zu der Anmerkung das ich vorher mal lieber im Forum lesen sollte, ist was dran. Ich halte mich etwas zurück. Es gibt ja immer jemanden dessen Voodoo stärker ist.
  12. Aber mal Spaß bei Seite. Durch Diskussionen lernt man manchmal auch was. Aber dieses ganze ich kann aber etwas besser als du geschreibe und bin aber MVP und blaaaa....... gehört denke ich mal nicht hier her. Was auf der Seite hier fehlt, wäre ein Technik-Chat den man immer nebenbei mitlaufen lassen könnte. Bye Alexander
  13. monstermania so ist es :D :jau:. MCSE ist nix besonderes. Das hab ich nur aus langeweile gemacht weil ich ein paar Logos für den Visitenkarten brauchte. In deinem Profil ist alles anonym. Wie die Lottoverkäufer Anrufer mit unterdrückter Nummer @testperson: Hast den Port 80 vergessen.
  14. Ich würde weniger in Firewall Logs schauen als mehr in den AGB und Datenschutzbestimmungen von Microsoft. Und wenn etwas per Mausklick abgeschaltet ist, muss es dann zwangshalber nicht mehr aktiv sein ? Denk mal drüber nach. Teamviewer sieht man auch in keinen Firewall Logs aber es funktioniert.
  15. Da bin ich ja in dem Thread genau richtig. Ich bin nämlich seit 2 Tagen über ein Konzept am grübeln wie ich ein funktionierendes System mit einem vDC aufbauen kann. Die Antwort ist Finger weg. Auch wenn überall steht ja klar kann der DC virtualisiert werden.... sollte man dies nicht grundsätzlich im Produktivbetrieb tun. Ich wollte in dem Fall auf einen physikalischen Host mit Serverlizenzierung verzichten. Aber das geht nicht. Deshalb habe ich mir vorgenommen immer 1 HOST nur als physikalischen DC und auf dem 2. HOST ein vDC in Hyper-V. Dann gibts auch kein Henne EI Problem und auch kein Desaster wenn der Hyper-V Service durch ein Windows Update nicht funktioniert. Bei einem vDC gibts auch strikte vorgaben die man so auch konfigurieren sollte. Ansonster läuft der vDC nicht lange. 1. Thick provisioning 2. Zeitabgleich abschalten in den Hyper-V Diensten 3. Die Host Firewall darf den Festplattenbereich des vDC nicht beinhalten. Also ausschliessen. 4. Da war doch noch was. Fällt mir gerade nicht ein. Ah doch jetzt. Der Zustand des vDC darf nicht gespeichert werden. Sauber hoch und runterfahren konfigurieren. 5. Und Es dürfen auf keinen Fall Prüfpunkte erstellt werden und auch darf der vDC nicht geklont werden. 6. Fällt noch jemandem was ein? Hab auch herausgefunden wieso auf einen Host nicht der Hyper-V Dienst und AD gleichzeitig installiert werden darf. Es wird der Festplattencache des Host auf dem das AD liegt deaktiviert. Ist wirklich so. Das ist auch eine vorgabe von Microsoft.
  16. Windows 10 in einer Domänenumgebung finde ich sowieso erst einmal sehr fahrlässig. Und wenn Microsoft 1000 mal sagt aber du musst doch updaten damit Cortana funktioniert und die neuen Spionagefunktionen. Und da ich auch mal auf ein Thread eine Antwort schreibe, muss ich sagen, du hast gegenüber deinem Kunden oder Arbeitgeber eine Datenschutzverletzung begangen. Das ist ein NO GO Screens zu machen. Klugsc***er Modus ende. :nene: :D
  17. Testperson. Dann aber ein anderes Scenario. Ich habe 2 HV-Hosts auf jeweils einen, lege ich eine 10 GB Testdatei. Diese möchte ich auf den anderen HV-Host rüberschieben. Gleiches Bild. wie von mir oben beschrieben. Hier sind keine auf mehrere Festplatten verteilten Daten vorhanden. Die vorhandene Seagate leistet 200 MB/s schreibgeschwindigkeit. Wie gesagt, wenn wenigstens 130 MB/s an Datendurchsatz wären, ist es ok aber immer exact nur soviel wie 1 GBit/s Port liefern würde. Der Router ist auch nicht ausgelastet. Ich habe schon von CPU lastigem Bridge auf Switch Betrieb umgeschaltet. Auf dem Router ist kein Bonding oder LACP aktiviert. Hier soll rein das SMB Multichannel von Server 2012R2 greifen. Wenn es sein muss baue ich auch 2 SSDs ein. Wenn dann immer noch genau der gleiche Wert ist, dann kann es nicht an den Platten liegen. Bei der Netzwerkkarte kann ich noch RSS aktivieren und auch Warteschlangen von 1-4 einstellen. Aktuell ist RSS auf aktiv und 1 Warteschlange in den NIC einstellungen. Das habe ich als vorraussetzung für SMB Multichannel gelesen.
  18. DocData du hast in Bezug auf die in der VM liegenden Daten Recht. Ich möchte ja nur bei 2 HV-Hosts die physikalischen Daten von einem Rost auf den anderen Bringen und das ziemlich zügig :cool: Kurzes Zwischenergebnis. Also aktuell bin ich soweit, dass wenn ich mir den Routerdatendurchsatz bei einer Livemigration anschaue, die Daten schön per SMB Multichannel auf 2 physikalische NICs verteilt werden. Schalte ich bei der Übertragung 1 LAN Port aus, übernimmt der andere sauber die arbeit ohne Abbruch des Datenstromes. Was mir auffällt ist, wenn 2 NICs arbeiten verteilt sich der Durchsatz auf ca 500 Mbit/s pro Karte. Deaktiviere ich eine arbeitet die andere Karte mit vollem Datendurchsatz. Ich sehe noch keine Hardwaregrenze wo da der Flaschenhals sein könnte. Es ist halt sehr auffällig, dass egal was ich mache immer exakt 1Gbit/s übertragen werden. Ich muss mal schauen ob da ein Queueing irgendwo reinhaut. Aber da habe ich nichts definiert. Wären es jetzt bei beiden LAN Karten 150 MB/s Datendurchsatz wäre ich auch schon zufrieden. Das würde zeigen, das SMB Multichannel sauber arbeitet. Aber bei Exakt immer um die 110 MB/s liegt es halt nahe das noch was nicht ganz stimmt. Ich bleibe da dran und schreibe immer mal die Fortschritte. :thumb1:
  19. Dann bin ich mal gespannt, ob ab 1. August auch das Thema Feste IP machbar ist für Privatkunden. Da hieß es immer, Sie müssen den Kabelrouter haben sonst gibt es keine Feste IP Adresse
  20. ÄÄhm nein. Falsch geraten. :D Komm einen haste noch.
  21. Ja MBA. Jetzt sag nicht das ist verboten.
  22. Der Kunde gibt mir nur den Auftrag wenn ich die Struktur verbessere und die Lizenzierung korrekt einrichte. Vorhanden ist 1 x Server 2012 R2 Standard und 3 Client PCs mit Win7 und den benötigten Cals und Exchange Cals. Der Server läuft unter ESXi 5.1 mit 2 VMs und auf dem DC ist auch der Exchange 2013 und popcon mit noch einigen kleinen Tools. Ich muss hier die Planung genau durchführen mit einer Teststellung. Einige Tipps bzgl. der Windows 7 virtualisierungs Lizenz und andere Dinge habe ich hier schon erfahren können. Da hab ich garnicht mehr dran gedacht. Er würde für einen neuen HP G8 Geld investieren, da aktuell ein HP G4 läuft mit Business SATA HDDs aus dem Jahre 2008 wo die Garantie auch schon abgelaufen ist. Das Anfangsproblem war der DC welcher virtualisiert wird und das ESX zu Hyper V migrationstool. Ich schaue auch das ich den DC vom Exchange getrennt bekomme. Wurde mir hier mehrfach empfohlen. Aber ich bin immer noch am überlegen. Soll ich jetzt in das Hyper-V Lager wechseln oder weiterhin auf ESXi setzen. Hyper-V bietet halt viele Dinge, wofür man bei ESXi viel Geld zahlen muss. Was das Thema DC betrifft, davor habe ich mittlerweile Respekt. Bei vielen neulingen wird dieser nur als "Er muss halt drauf" installiert. Aber dieses Tierchen kann einem die ganze Netzwerkumgebung zerstören. Jetzt hab ich hier noch ein DC der sich nicht mehr syncronisiert usw......
  23. . Trilead gibt es in der Form nicht mehr.Lade dir mal die Version für den ESXi 6.0 runter. Es ist ein HPE Explorer Enterprise und hat nix mehr mit dem damaligen Trilead zu tun. Und auch demnach nicht kompatibel zur Free ESX 6.0 Version. Monstermania ich hab meine Hausaufgaben gemacht und Norbert geh mal an die frische Luft und sei mal nett. :nene:
  24. Danke Powershelladmin. Norbert hat auch den ESX favorisiert. Keiner würde es hier mit Hyper-V versuchen. Ich finde ESX6.0 auch gut mit der neuen Weboberfläche und das ohne V-Center. Allerdings hat der Free-ESXi einige nicht supportete Features wie das Backup der VMs mit Veeam oder anderer Software. Hier wird die Essentials Lizenz benötigt für ca. 400 euro. Aktuell läuft ein ESX 5.1 wo die Datensicherungen mit Robocopy und dubiosen Scripten ein Horror für jeden neuen Dienstleister darstellen. Auch der Bootvorgang des ESX Hypervisors ist manchmal ein graus. Mir ist es bei dem Kunden jetzt schon 2 mal passiert das ein rosaner Bildschirm erscheint mit ddump Fehlern. Nach dem 4 Booten ging es dann. Seitdem wird dieser nicht mehr neu gestartet. Danke für die kurze Darstellung der Struktur. Es ist sehr komplex und um eine Testumgebung mit einem älteren Backup des Kunden komme ich wohl nicht rum.
  25. Sunny61 Dienste habe ich noch keine Migriert speziell den Exchange 2013 den ich dann vom DC trennen müsste in einer VM. Ich schaue mir das mal an. Danke. Hier noch ein kleiner Link zu der vDC problematik http://blog.dikmenoglu.de/2011/02/die-no-gos-und-empfehlungen-zu-virtuellen-dcs/
×
×
  • Neu erstellen...