Jump to content

Vandro

Members
  • Gesamte Inhalte

    16
  • Registriert seit

  • Letzter Besuch

Letzte Besucher des Profils

352 Profilaufrufe

Fortschritt von Vandro

Explorer

Explorer (4/14)

  • Erste Antwort
  • Engagiert
  • Erster eigener Beitrag
  • Eine Woche dabei
  • Einen Monat dabei

Neueste Abzeichen

0

Reputation in der Community

  1. Problem gelöst Die Lösung habe ich hier gefunden: https://community.spiceworks.com/topic/291388-windows-doesn-t-recognize-domain-until-60-seconds-after-startup Netbios Domainname in DNS eintragen, Cache leeren und alles funktioniert auf den Rechnern tadellos. Es betrifft scheinbar nur PCs mit SSD, die zu schnell starten. Die jeweiligen GPOs haben bei mir bekanntlich nichts gebracht. Der einfache Host A Eintrag hingegen schon, die Erklärung was genau passiert und warum das die Lösung ist, bleibt aber leider aus. Vielleicht kann das von euch ja jemand aufklären? Laut dem Link oben, ist dies eine Lösung aus einem Microsoft Call. Danke euch für die Hilfe.
  2. Fastboot ist definitv abgeschaltet, habe es auch nochmals mit powercfg /hibernate off getestet. Der Regkey "SyncForegroundPolicy" mit dem DWORD Wert 1 ist gesetzt. Die GPO habe ich ebenfalls nochmals lokal gesetzt... Ihr könnt es euch denken --> keine Änderung. Ich teste alles auf einem frisch installierten Windows 10 1703 Client mit allen Updates, ohne Virenscanner und Firewall.
  3. Sie wird mir zumindest im RSOP angezeigt, ob sie auch tatsächlich zieht weiß ich nicht. Wie kann ich das im Detail prüfen?
  4. Ich habe heute wieder ein paar Tests gefahren und die GPPs auf AKTUALISIEREN geändert, kein Erfolg. So wie Du die Wirkweise von "ERSTELLEN" beschreibst, habe ich es nicht erfahren. Bei mir bewirkt ERSETZTEN genau das von Dir beschriebenen Vorgehen, dass es getrennt und neu verbunden wird. Beim ERSTELLEN prüft er nur ob vorhanden, falls ja macht er gar nichts, falls nein verbindet er. So ist zumindest meine Erfahrung. Ebenfalls habe ich erneut den Artikel gelesen und die GPO (Wartezeit für Richtlinienverarbeitung...) erneut gesetzt. Wenn ich es richtig verstehe, bringt der Trick mit der Abhängigkeit nur weniger Wartezeit für Geräten außerhalb des Netztes. Dennoch habe ich das am Testclient umgesetzt, keine Änderung. Es bleibt leider bisher dabei, wenn der User sehr schnell sein Kennwort eingibt, sind die Netzlaufwerke erst nach ca. 60 Sekunden verbunden. Danke für deinen Kommentar. Steht schon im Eingangspost, diese GPO ist selbstverständlich gesetzt. Alle GPOs und GPPs werden auch ordnungsgemäß verarbeitet, nur die Netzlaufwerke stehen eben nicht sofort zur Verfügung.
  5. Per GPP mit der Option Erstellen. Bei Aktualisieren hatten wir immer Schwierigkeiten, dass sich die geöffnete Ordnerstruktur der User immer zum Aktualisierungszeitpunkt der GPO geschlossen hat. Den Link kenne ich, die GPO ist gesetzt und der Registrywert bringt keine Besserung.
  6. Hallo liebe MCSE Gemeinschaft, ich komme bei einem kleinen, aber nervigen Problem derzeit nicht weiter. Aktuelle Clients haben reproduzierbar das Problem, dass wenn der User den Clients startet und sobald es möglich ist sein Kennwort eingibt und sich anmeldet, die Netzlaufwerke nicht verbunden sind. Er erhält eine Meldung und die Laufwerke haben ein rotes X. Wartet er nun ca. 60 Sekunden, kann er auf die Laufwerke zugreifen. Wenn der User den PC startet und mit der Kennworteingabe ein paar Sekunden wartet, läuft alles problemlos. Packe ich z.B. Outlook in den Autostart, funktioniert der Zugriff auf den Exchange perfekt, während die Netzlaufwerke noch nicht funktionieren. Ein Ping geht ebenfalls an alle Server sofort nach der Anmeldung, während die Netzlaufwerke die besagten 60 Sekunden benötigen, bis der Zugriff möglich ist. Das Netzwerk scheint also bereit zu sein. Das Phänomen tritt nur auf neuen PCs auf und auch nur, wenn User wirklich sehr schnell sein Kennwort eingibt. Die Ereignisanzeigen sind sauber, keine Fehler die auf Netzlaufwerke oder nicht bearbeitete GPO hinweisen. Alle Dienste starten vernünftig und die GPOs werden auch korrekt verarbeitet. Virenscanner und Firewall testweise deaktiviert, keine Änderung. Folgende GPOs / GPPs sind gesetzt: Fast Boot deaktiviert (HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Session Manager\Power\HiberbootEnabled) Computerkonfiguration\Administrative Vorlagen\System\Gruppenrichtlinie\Wartezeit für Richtlinienverarbeitung beim Systemstart angeben (60 Sekunden) Computerkonfiguration\Administrative Vorlagen\System\Anmelden\Beim Neustart des Computer... immer auf das Netzwerk warten Hier bin ich mir unsicher, ob ich diese Richtlinie überhaupt benötige, da wir nicht mit Login Skripten arbeiten - aktiviert sind derzeit folgende: Computerkonfiguration\Administrative Vorlagen\System\Skripts --> Anmeldeskripts gleichzeitig ausführen --> Maximale Wartezeit für Gruppenrichtlinienskripts angeben (0 Sekunden, also solange warten, bis das Skript abgeschlossen ist) --> Startskripts asynchron ausführen GPP für die Laufwerke Option Erstellen mit dem jeweiligen Pfad auf den DFS Share. Eckdaten: Clients alle homogen auf Windows 10 Pro, IPs via DHCP (mit fester IP selbiges Problem), DNS, WINS arbeiten sauber 2x DCs 2012R2 DFS-Namespaceserver 1x STORAGE 2012R2 worauf die Shares liegen Hat jemand von euch ein ähnliches Problem und eventuell eine Lösung? Ich könnte natürlich die Kennwortrichtlinie auf 14 Stellen setzen, aber da steigen mir meine User sicher aufs Dach :-) Grüße
  7. Dann widmen wir uns doch einmal der technischen Frage aus dem Eingangspost, welche hier bisher kaum Beachtung gefunden hat. "2.) Welches RAID erstelle ich am besten für die VHD’s? Alle 8 Platten zu einem RAID10? Oder zwei RAIDs, eins für die DCs und Filserver und eins für Exchange und SQL? Blocksize im RAID10, welche Blockgröße ist empfohlen, wenn auf dem RAID nur die VHDs liegen"
  8. Nein. Der magische Peter ist nicht mein Ansprechpartner :-D Ich fasse zusammen: Die Lösung "zwei HyperV Hosts mit jeweils lokalen Platte und Replika für den Fileserver" ist euer Meinung nach Unsinn? Ich sollte ein Blech für DC, ein Blech für HyperV und ein Blech für Backup nehmen. Fällt mir der HyperV-Host aus, muss schnellstmöglich Ersatzhardware beschaffen oder 4Std. SLA und einen Restore aus dem Backup anschieben. Genau den Stand habe ich jetzt bereits und davon wollte ich weg! Entschuldigt, aber mir ist einfach nicht ganz klar, warum die vorgeschlagene Lösung derart "verteufelt" wird.
  9. Mit jeweils einer Datacenter-Lizenz pro Host ist doch sowohl Replica als auch Live Migration für alle installierten virtuellen Maschinen mit Server 2012R2 korrekt lizensiert? Sorry, aber ich bin jetzt verunsichert.
  10. Ich plane zwei Datacenter ein, warum wird das nicht reichen? In dem Thread unter Punkt 2 bestätigst Du diese Konstellation?! Oder sprichst Du von den CALs? Diese sind selbstverständlich berücksichtigt. Hilf mir doch bitte mal auf die Sprünge :-)
  11. Ziele des Projekts ist folgendes: Konsolidierung der Hardware Skalierbarkeit, für einen Zeitraum von 6 Jahren keine „größeren“ Serverinvestitionen mehr Flexibles Hinzufügen von neuen Serversystemen, ohne erneute Anschaffungskosten für Hardware. Ausfallzeit beim Fileserver <= 4 Stunden Datenverlust beim Fileserver <= 4 Stunden Wiederherstellungszeiten: ASAP Derzeit sind die Wiederherstellungszeiten miserabel, da keine Ersatzhardware zur Verfügung steht und die bestehenden Maschinen kein SLA haben. Daher fand ich die Idee mit zwei HyperV Host und Replika ganz reizvoll. Ein großes Thema spielt eben die Flexibilität, da unser Wachstum und künftige Projekte schlicht nicht absehbar sind. Daher rührt auch die recht große Dimensionierung im Vergleich zum Ist-Zustand. Ich muss dazu sagen, dass es uns KEIN Geld kostet wenn die Hardware mal für einen halben Tag nicht verfügbar ist. Es ist ärgerlich und es wäre eben schön wenn das nicht passiert. Daher gibt es keine Diskussionen "was kostet uns eine Stunde Ausfall- somit stellen wir folgendes Budget zur Verfügung" Ich habe einen Betrag X für eine neue Serverlösung, den ich sinnvoll investieren möchte.
  12. Und genau deswegen frage ich hier. Der oben genannte Vorschlag kommt von meinem betreuenden Systemhaus und ich wollte hier eine zweite Meinung hören. Danke dafür. Mit diesem Vorschlag komme ich doch in meiner Recherche weiter und kann die "vollwertige HA-Lösung" anfragen. :thumb1:
  13. Wir haben zwei 2012R2 Datacenter Lizenzen mit SA eingeplant. Laut meiner Recherche sind damit alle für uns denkbaren Fälle abgedeckt. Bin ich auf dem richtigen Pfad? Was wir künftig benötigen sind Exchange und SQL-Lizenzen, aber hier kommt die DR bzw. DAG Lösung erst später in diesem Jahr.
  14. "Almost" Shared Nothing, richtig :-) Aber die LiveMigration ist für mich ja nur relevant, wenn am HyperV-Host Wartungen / Updates durchgeführt werden. Die Replika soll doch angeblich so ressourcenschonend arbeiten, daher habe ich damit gerechnet, dass 1gb reichen wird. Ich danke Dir für den Tip und werde deinen Vorschlag berücksichtigen. Die erhöhte Verfügbarkeit bzw. DR-funktionalität möchte ich über Hyper V Replika erreichen. Kritischster Dienst ist neben den DCs der Fileserver, welcher möglichst schnell wiederhergestellt sein sollte. Daher meine Frage im Anfangspost unter Punkt 3 - HyperV Replika oder DFS? Exchange würde ich, sobald ich auf 2013 migriere, via DAG verfügbar machen wollen - aber damit muss ich mich noch detallierter auseinandersetzen. Eine Antwort auf Punkt 2 bzwl. der RAID-Konfiguration und der Blockgröße im RAID & auf der NTFS Partition, würde mir noch sehr helfen Die HyperV-Replika Lösung macht in deinen Augen ohne shared-storage und Cluster also keinen Sinn?Ist-Zustand ist ein Blech pro Server. Wenn bei deinem Vorschlag der "Host" ausfällt geht nichts mehr. Bei meinem Vorschlag 2x Hosts und alles virtuell ließe sich über die Replika der Server binnen weniger Minute auf dem anderen Host wieder starten. Habe ich irgendwo einen Denkfehler? Denn ich sehe an deinem Beispiel keine Vorteile. Weder noch. Bei einem Small Business Setup sollte der Fokus zunächst auf einem vernünftigen Backup & Restore Konzept liegen. Danach kann man über Weiteres nachdenken. Ich denke, dass wir durchaus ein vernünftiges Backup&Restore Konzept haben. Es geht um die Wiederherstellungszeiten und die Flexibilität die ich durch die Virtualisierung erreichen möchte.
  15. Ist das ein Selbstbau Server oder ein "richtiger" Server? Ein richtiger Server von der Stange inkl. Vor-Ort-Service 24 Std. Wiederherstellungszeit. Hyper-V Replika ist keine HA Lösung sondern eine DR Lösung. Das solltet Ihr bedenken! Niemand spricht von einer HA-Lösung. Wieso 1GB und keine 10 GB für Replika / Live Migration? Weil das Geld begrenzt ist und ich die vorhanden 10gb für die Clientanbindung als sinnvoller ansehe. Wieso nur eine Leitung für die Client? Die eine 10gb Netzwerkkarte hat zwei SFP Anschlüsse, wovon jeweils einer an einen Switch und der andere an einen anderen Switch geht. Wieso Live Migration? Das ist kein Cluster. Meines Wissens nach ist Live-Migration mit Server 2012R2 ohne Cluster und ohne shared Storage möglich - Aber Du hast recht, hier liegt nicht der Fokus. Wollt ihr die Software aktualisieren? Windows, Exchange, SQL Server,...? Alle Server werden auf 2012R2 aufgesetzt. Exchange bleibt vorerst auf 2010 SQL auch
×
×
  • Neu erstellen...