Jump to content

NilsK

Expert Member
  • Gesamte Inhalte

    17.564
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von NilsK

  1. Moin, es gibt keine Serversuche auf einem Dateiserver. Wenn du von einem Client aus den Server durchsuchst, sucht der Client. Wenn du einen zentralisierten Suchindex oder sowas willst, brauchst du ein Zusatzprodukt. Offenbar nicht korrekt, siehe weiteren Verlauf des Threads. Gruß, Nils
  2. Moin, deine Befindlichkeiten in Ehren, aber vielleicht denkst du bei Gelegenheit mal über deinen Ton nach. Wir schätzen deine Expertise, aber wir legen durchaus Wert auf ein respektvolles Miteinander. Gruß, Nils
  3. Moin, das ist - wie alles - eine Frage der Anforderungen. Prüfe im Unternehmen, was in welcher Situation in welcher Qualität wiederherstellbar sein muss. Daran orientierst du die Recovery-Methoden und danach legst du fest, wie das Backup laufen muss, um das zu erfüllen. Erst dann kannst du eine Aussage darüber treffen, welche Werkzeuge dafür geeignet sind. Gruß, Nils
  4. Moin, sorry, aber der Kommentar ist nicht angemessen (und hilft inhaltlich auch nicht weiter). Der TO hat die Umgebung nicht so aufgebaut, wie sie ist. Gruß, Nils
  5. Moin, danke euch für die Empfehlungen. Ich schau mir das mal an. Gruß, Nils
  6. Moin, was genau meinst du mit "Produktivsystem" und was mit "Testsystem"? Was willst du produzieren, was testen? Die Hardware gibt ja nun mit ihren 8 GB wenig her. Da solltest du aufrüsten. Bei 8 GB würde ich mit Hyper-V nicht anfangen, du hättest dann weniger als 6 GB für die VMs übrig. Selbst für einen Einzelserver mit den diversen Applikationen und Rollen wären 8 GB sehr knapp. Würde laufen, aber je nachdem, was du da vorhast, wird das keine Freude machen. Bei einem reinen Test- und Spielsystem wäre es vertretbar, alle Applikationen und Rollen auf demselben Server zu installieren. Wenn du auf mindestens 16 GB hochgingest, könntest du das auf zwei VMs aufteilen. Mehr kann man bei den dürren Angaben zum Einsatz nicht dazu sagen. Gruß, Nils
  7. Moin, Im Prinzip schon, nur dass es kein 1607 ist, sondern eben Windows Server 2016. Gruß, Nils
  8. Moin, ein "normaler" Server aktualisiert sich nicht laufend wie Windows 10. Das Server-OS hat den Charakter einer Longterm-Version und wird nur alle paar Jahre grundlegend erneuert. Das von dir beobachtete Verhalten ist also korrekt. Die auf deinen 2016-Server folgende Version wird Windows Server 2019 sein, sie ist neu zu lizenzieren, wenn man sie haben will. Neu ist seit etwa einem Jahr eine völlig separate Serverversion, die ca. alle sechs Monate wie Windows 10 erneuert wird. Die ist aber nicht für "normale" Server gedacht, sondern im Wesentlichen für Container (also "Docker"). Dort führt man dann auch kein Upgrade durch, sondern wirft alle halbe Jahr die Container und ihr Basis-Image weg und macht sie automatisiert neu. Für diese separate Version ist die SA für die Lizenz erforderlich. Gruß, Nils
  9. Moin, danke für die Tipps. Schau ich mir mal an. Falls noch jemand eine Empfehlung hat, gern. Gruß, Nils
  10. Moin, inhaltlich haben die Kollegen schon nicht unrecht. Verschlüsselung ist eine Angelegenheit, die CPU und RAM benötigt. Ob Das Enigmail-Plugin dabei von CPU-Optimierungen profitieren kann oder alles "zu Fuß" macht, kann ich nicht beurteilen, aber da liegen schon einige Stellen, an denen es dauern kann. Und zu dem indirekten Versand war im Eröffnungspost nichts gesagt worden, daher war die Vermutung, dass die Internetanbindung mitschuldig ist, durchaus naheliegend. Also: Es kann durchaus sein, dass Enigmail einfach für große Dateien lange braucht. Sucht man nach "enigmail performance", findet man einiges in der Richtung, dort scheint es architektonische Hintergründe zu geben. Ich nehme auch mal an, dass ein Programm zum Verschlüsseln von Mail nicht auf große Dateien optimiert ist. Man könnte mit einem besser ausgestatteten Rechner (oder einer neueren Version der Software?) prüfen, ob sich dort bessere Zeiten ergeben. Viel mehr kann man anhand der vorliegenden Informationen aber leider nicht beitragen. Gruß, Nils
  11. Moin, Ja, danke. Die Verbindungstechnik ist mir an der Stelle egal. Den Berichten zufolge scheint Bluetooth eher noch anfälliger sein als ein eigener Dongle. Daher suche ich nach konkreten Modell-Empfehlungen. Vielleicht hat ja jemand hier Erfahrungen, so exotisch dürfte mein Szenario ja nicht sein. Gruß, Nils
  12. Moin, "ganz normaler" PC mit Windows 10. Die Bedienung bezieht sich meistens auf Suche in Spotify und Web sowie Anmeldungen bei Webdiensten - genau an der Stelle muss es ausreichend zuverlässig sein, damit ich nicht auf Lulli-Kennwörter ausweichen muss. Normale Fernbedienungen oder Controller machen da zu viele Umstände. Romane will ich nicht tippen, es sollte halt nur zuverlässig und ohne Verrenkungen auch vom Sofa gehen (=WAF). Von da sind es vielleicht vier Meter zum Empfänger, aber das ist der Logitech schon zu viel. Laut Kundenberichten scheint genau dieses Szenario aber wohl die meisten Geräte zu überfordern ... Gruß, Nils
  13. Moin, ich habe keinen Tipp, sondern suche einen: Für meinen Wohnzimmer-PC (Windows 10) suche ich eine kompakte kabellose Tastatur, die auch in ein paar Metern Abstand noch zuverlässsig funktioniert. Touchpad soll mit drin sein. Derzeit habe ich eine Logitech bla-400 (hab die genaue Modellbezeichnung nicht parat, ist etwa 5 Jahre alt), die sehr hakelig funktioniert. Selbst wenn ich nah am PC sitze, muss ich die Tastatur auf den Empfänger ausrichten, damit Tippen und Mauszeiger gehen. Die Geräte, die ich bislang im Onlinehandel gefunden habe, scheinen dieselben Probleme zu haben. Viele Anwender berichten, dass bei einem oder zwei Metern Schluss ist. Gibt es wirklich nichts Zuverlässiges für einen Abstand von vier, fünf Metern? Danke & Gruß, Nils
  14. Moin, prima, danke für die Rückmeldung! Gruß, Nils
  15. Moin, DFS-N = System, das einen virtuellen Verzeichnisbaum bereitstellt. Die Einträge des Verzeichnisbaums sind Shares, die auf beliebigen SMB-Dateiservern liegen können. Die Dateiserver brauchen nichts von DFS zu wissen. DFS-N ist nur auf dem Server bzw. den (wenigen) Servern installiert, die den Baum als Verteilpunkt anbieten, diese Server sind typischerweise selbst keine Dateiserver. DFS-R = Replikationssystem, das Dateien zwischen mehreren Servern repliziert. Kann mit oder ohne DFS-N verwendet werden. Ohne DFS-N nutzt man sowas manchmal, um Dateien von mehreren Servern z.B. für ein zentrales Backup zu konsolidieren. DFS-R und DFS-N in Kombination kann dafür sorgen, dieselben Daten z.B. an mehreren Standorten für User bereitzustellen. Vorsicht, DFS-R steuert die Zugriffe nicht und ist in der Hinsicht "dumm", es besteht also das Risiko des Datenverlusts oder von Inkonsistenzen, wenn man es falsch konzipiert und einsetzt. Gruß, Nils
  16. Moin, hm, dann war das in anderem Zusammenhang. Jedenfalls müsste das hier eigentlich helfen, konkret der untere Teil in dem Artikel. https://mssqltrek.com/2012/06/28/how-to-add-a-new-diskdrive-to-sql-server-failover-cluster/ Gruß, Nils
  17. Moin, ich hab leider gerade keine Zeit, aber ich meine, dass wir sowas vor einiger Zeit hier im Board schon mal hatten. Vielleicht hilft eine Suche und es gab damals eine Lösung. Gruß, Nils
  18. Moin, Windows ist einfach kein Router. Selbst wenn du es damit grundlegend hinbekommst, wirst du schnell unzufrieden sein. Wenn du also was eigenes dort einsetzen willst, solltest du dich nach einer spezialisierten Software dafür umsehen. Eine Produktempfehlung habe ich dazu nicht, aber Windows eben nicht. Gruß, Nils
  19. Moin, der SQL-Screenshot ist von Node1? Taucht das Device auf, wenn ihr im Disk Management die Datenträger neu einlest? Gruß, Nils
  20. NilsK

    Second DC

    Moin, das klingt aber immer noch nicht gut. Auf einem DC muss man DFS nicht als Rolle einrichten. Ich würde dazu neigen, die Umgebung noch mal genau zu inspizieren und ggf. den "neuen" DC noch mal ganz neu zu installieren. Gibt folgendes Kommando Fehler in der Ergebnisdatei aus? dcdiag /E > C:\Pfad\dcdiag.txt Gruß, Nils
  21. Moin, sich das anzuschauen, ist sicher nicht verkehrt. Meine Prognose: Viel teurer als ein VM-Replikationskonzept, aber ohne handfeste Vorteile. "Wäre schmerzhaft" und "wäre gut" sind ein guter Ausgangspunkt, reichen aber nicht für ein belastbares Konzept. Da ihr über Investitionen sprecht, die für so ein Unternehmen nicht unter "Portokasse" fallen, rate ich aus Erfahrung, die Definition der Anforderungen deutlich ernster zu nehmen. Mit "Ausweichmöglichkeiten" meine ich z.B. keine anderen IT-Systeme, sondern die Frage, wie der Ausfall einer IT-Applikation für einen konkreten Prozess überbrückt werden kann (z.B. manuelle Datenerfassung mit späterer Übernahme). So etwas ist mindestens teilweise in jedem Unternehmen möglich, man muss es sich "nur" für jeden Prozess ansehen. Verabschiedet euch von der Idee, dass es eine einfache technische Lösung gäbe. Ein ungünstig aufgebautes IT-System zu doppeln, führt zu zwei ungünstig aufgebauten IT-Systemen, löst aber selten konkrete Probleme ... Gruß, Nils
  22. Moin, die grundsätzliche Idee ist schon nachvollziehbar. Um die tatsächliche Eignung verschiedener Lösungsmöglichkeiten abwägen zu können, sind die Anforderungen aber nicht ausreichend definiert. Dazu solltet ihr intern noch etwas Arbeit investieren. Dazu gehören Fragen wie: Welche Ausfallzeiten sind für die einzelnen Applikationen tolerierbar, welche Ausweichmöglichkeiten gibt es bei Ausfällen? Welche Wiederanlaufzeit ist tolerierbar, bis der jeweilige Prozess wieder arbeitsfähig ist? Welche Datenverluste sind tolerierbar? Welche Schadensszenarien sind zu betrachten? So in dem Stil. Antworten wie "so schnell wie möglich" liegen auf der Hand, helfen aber nicht weiter. Angesichts der Unternehmensgröße halte ich ein Konzept mit VM-Replikation für das wahrscheinlichste, aber mehr kann man auf diesem Abstraktionsgrad dazu nicht sagen. Vor allem hilft so ein Konzept eben längst nicht in allen Szenarien. Gruß, Nils
  23. Moin, wenn die beschriebene Situation tatsächlich zutrifft, habt ihr nicht nur eine nicht supportete Umgebung, sondern ein handfestes Problem. Der Beschreibung nach haben die Domänen identische Domain SIDs und stellen daher natürlich identische SIDs für die Objekte aus (denn ein Objekt-SID besteht aus dem Domain SID mit angehängtem RID, was nichts weiter ist als eine fortlaufende Nummer). Das lässt sich nicht beheben. Auch der Workaround mit dem Neuanlegen der User ist bestenfalls halbgar, weil er an dem zugrundeliegenden Problem nichts ändert. Bei sechs Domänen, die möglicherweise identisch sind, ist es sehr unwahrscheinlich, dass ihr überhaupt unterschiedliche SIDs für die Objekte hinbekommt. Und selbst dann wären sie formell alle Teil desselben Sicherheitsbereichs. Unter der Annahme, dass die Beschreibung stimmt, müssten also alle Domänen, die identische Domain SIDs haben, komplett neu installiert werden (mit Ausnahme von einer, die den SID behalten könnte). Andere Auswege gibt es nicht. Gruß, Nils
  24. Moin, VMware FT hat eine ganze Reihe von Einschränkungen und setzt eine aufwändige Infrastruktur voraus. Ohne die Anforderungen näher definiert zu haben, würde ich das nicht in Erwägung ziehen. Abgesehen davon handelt es sich um exotische Technik, die in Wirklichkeit sehr selten eingesetzt wird. Ich rate dem TO, zunächst die Anforderungen zu definieren, sonst haben technische Empfehlungen wenig Sinn. Gruß, Nils
  25. Moin, dazu fällt mir aus der Ferne leider auch nichts mehr ein. Gruß, Nils
×
×
  • Neu erstellen...