Jump to content

NilsK

Expert Member
  • Gesamte Inhalte

    17.551
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von NilsK

  1. Moin, danke für die Tipps. Schau ich mir mal an. Falls noch jemand eine Empfehlung hat, gern. Gruß, Nils
  2. Moin, inhaltlich haben die Kollegen schon nicht unrecht. Verschlüsselung ist eine Angelegenheit, die CPU und RAM benötigt. Ob Das Enigmail-Plugin dabei von CPU-Optimierungen profitieren kann oder alles "zu Fuß" macht, kann ich nicht beurteilen, aber da liegen schon einige Stellen, an denen es dauern kann. Und zu dem indirekten Versand war im Eröffnungspost nichts gesagt worden, daher war die Vermutung, dass die Internetanbindung mitschuldig ist, durchaus naheliegend. Also: Es kann durchaus sein, dass Enigmail einfach für große Dateien lange braucht. Sucht man nach "enigmail performance", findet man einiges in der Richtung, dort scheint es architektonische Hintergründe zu geben. Ich nehme auch mal an, dass ein Programm zum Verschlüsseln von Mail nicht auf große Dateien optimiert ist. Man könnte mit einem besser ausgestatteten Rechner (oder einer neueren Version der Software?) prüfen, ob sich dort bessere Zeiten ergeben. Viel mehr kann man anhand der vorliegenden Informationen aber leider nicht beitragen. Gruß, Nils
  3. Moin, Ja, danke. Die Verbindungstechnik ist mir an der Stelle egal. Den Berichten zufolge scheint Bluetooth eher noch anfälliger sein als ein eigener Dongle. Daher suche ich nach konkreten Modell-Empfehlungen. Vielleicht hat ja jemand hier Erfahrungen, so exotisch dürfte mein Szenario ja nicht sein. Gruß, Nils
  4. Moin, "ganz normaler" PC mit Windows 10. Die Bedienung bezieht sich meistens auf Suche in Spotify und Web sowie Anmeldungen bei Webdiensten - genau an der Stelle muss es ausreichend zuverlässig sein, damit ich nicht auf Lulli-Kennwörter ausweichen muss. Normale Fernbedienungen oder Controller machen da zu viele Umstände. Romane will ich nicht tippen, es sollte halt nur zuverlässig und ohne Verrenkungen auch vom Sofa gehen (=WAF). Von da sind es vielleicht vier Meter zum Empfänger, aber das ist der Logitech schon zu viel. Laut Kundenberichten scheint genau dieses Szenario aber wohl die meisten Geräte zu überfordern ... Gruß, Nils
  5. Moin, ich habe keinen Tipp, sondern suche einen: Für meinen Wohnzimmer-PC (Windows 10) suche ich eine kompakte kabellose Tastatur, die auch in ein paar Metern Abstand noch zuverlässsig funktioniert. Touchpad soll mit drin sein. Derzeit habe ich eine Logitech bla-400 (hab die genaue Modellbezeichnung nicht parat, ist etwa 5 Jahre alt), die sehr hakelig funktioniert. Selbst wenn ich nah am PC sitze, muss ich die Tastatur auf den Empfänger ausrichten, damit Tippen und Mauszeiger gehen. Die Geräte, die ich bislang im Onlinehandel gefunden habe, scheinen dieselben Probleme zu haben. Viele Anwender berichten, dass bei einem oder zwei Metern Schluss ist. Gibt es wirklich nichts Zuverlässiges für einen Abstand von vier, fünf Metern? Danke & Gruß, Nils
  6. Moin, prima, danke für die Rückmeldung! Gruß, Nils
  7. Moin, DFS-N = System, das einen virtuellen Verzeichnisbaum bereitstellt. Die Einträge des Verzeichnisbaums sind Shares, die auf beliebigen SMB-Dateiservern liegen können. Die Dateiserver brauchen nichts von DFS zu wissen. DFS-N ist nur auf dem Server bzw. den (wenigen) Servern installiert, die den Baum als Verteilpunkt anbieten, diese Server sind typischerweise selbst keine Dateiserver. DFS-R = Replikationssystem, das Dateien zwischen mehreren Servern repliziert. Kann mit oder ohne DFS-N verwendet werden. Ohne DFS-N nutzt man sowas manchmal, um Dateien von mehreren Servern z.B. für ein zentrales Backup zu konsolidieren. DFS-R und DFS-N in Kombination kann dafür sorgen, dieselben Daten z.B. an mehreren Standorten für User bereitzustellen. Vorsicht, DFS-R steuert die Zugriffe nicht und ist in der Hinsicht "dumm", es besteht also das Risiko des Datenverlusts oder von Inkonsistenzen, wenn man es falsch konzipiert und einsetzt. Gruß, Nils
  8. Moin, hm, dann war das in anderem Zusammenhang. Jedenfalls müsste das hier eigentlich helfen, konkret der untere Teil in dem Artikel. https://mssqltrek.com/2012/06/28/how-to-add-a-new-diskdrive-to-sql-server-failover-cluster/ Gruß, Nils
  9. Moin, ich hab leider gerade keine Zeit, aber ich meine, dass wir sowas vor einiger Zeit hier im Board schon mal hatten. Vielleicht hilft eine Suche und es gab damals eine Lösung. Gruß, Nils
  10. Moin, Windows ist einfach kein Router. Selbst wenn du es damit grundlegend hinbekommst, wirst du schnell unzufrieden sein. Wenn du also was eigenes dort einsetzen willst, solltest du dich nach einer spezialisierten Software dafür umsehen. Eine Produktempfehlung habe ich dazu nicht, aber Windows eben nicht. Gruß, Nils
  11. Moin, der SQL-Screenshot ist von Node1? Taucht das Device auf, wenn ihr im Disk Management die Datenträger neu einlest? Gruß, Nils
  12. NilsK

    Second DC

    Moin, das klingt aber immer noch nicht gut. Auf einem DC muss man DFS nicht als Rolle einrichten. Ich würde dazu neigen, die Umgebung noch mal genau zu inspizieren und ggf. den "neuen" DC noch mal ganz neu zu installieren. Gibt folgendes Kommando Fehler in der Ergebnisdatei aus? dcdiag /E > C:\Pfad\dcdiag.txt Gruß, Nils
  13. Moin, sich das anzuschauen, ist sicher nicht verkehrt. Meine Prognose: Viel teurer als ein VM-Replikationskonzept, aber ohne handfeste Vorteile. "Wäre schmerzhaft" und "wäre gut" sind ein guter Ausgangspunkt, reichen aber nicht für ein belastbares Konzept. Da ihr über Investitionen sprecht, die für so ein Unternehmen nicht unter "Portokasse" fallen, rate ich aus Erfahrung, die Definition der Anforderungen deutlich ernster zu nehmen. Mit "Ausweichmöglichkeiten" meine ich z.B. keine anderen IT-Systeme, sondern die Frage, wie der Ausfall einer IT-Applikation für einen konkreten Prozess überbrückt werden kann (z.B. manuelle Datenerfassung mit späterer Übernahme). So etwas ist mindestens teilweise in jedem Unternehmen möglich, man muss es sich "nur" für jeden Prozess ansehen. Verabschiedet euch von der Idee, dass es eine einfache technische Lösung gäbe. Ein ungünstig aufgebautes IT-System zu doppeln, führt zu zwei ungünstig aufgebauten IT-Systemen, löst aber selten konkrete Probleme ... Gruß, Nils
  14. Moin, die grundsätzliche Idee ist schon nachvollziehbar. Um die tatsächliche Eignung verschiedener Lösungsmöglichkeiten abwägen zu können, sind die Anforderungen aber nicht ausreichend definiert. Dazu solltet ihr intern noch etwas Arbeit investieren. Dazu gehören Fragen wie: Welche Ausfallzeiten sind für die einzelnen Applikationen tolerierbar, welche Ausweichmöglichkeiten gibt es bei Ausfällen? Welche Wiederanlaufzeit ist tolerierbar, bis der jeweilige Prozess wieder arbeitsfähig ist? Welche Datenverluste sind tolerierbar? Welche Schadensszenarien sind zu betrachten? So in dem Stil. Antworten wie "so schnell wie möglich" liegen auf der Hand, helfen aber nicht weiter. Angesichts der Unternehmensgröße halte ich ein Konzept mit VM-Replikation für das wahrscheinlichste, aber mehr kann man auf diesem Abstraktionsgrad dazu nicht sagen. Vor allem hilft so ein Konzept eben längst nicht in allen Szenarien. Gruß, Nils
  15. Moin, wenn die beschriebene Situation tatsächlich zutrifft, habt ihr nicht nur eine nicht supportete Umgebung, sondern ein handfestes Problem. Der Beschreibung nach haben die Domänen identische Domain SIDs und stellen daher natürlich identische SIDs für die Objekte aus (denn ein Objekt-SID besteht aus dem Domain SID mit angehängtem RID, was nichts weiter ist als eine fortlaufende Nummer). Das lässt sich nicht beheben. Auch der Workaround mit dem Neuanlegen der User ist bestenfalls halbgar, weil er an dem zugrundeliegenden Problem nichts ändert. Bei sechs Domänen, die möglicherweise identisch sind, ist es sehr unwahrscheinlich, dass ihr überhaupt unterschiedliche SIDs für die Objekte hinbekommt. Und selbst dann wären sie formell alle Teil desselben Sicherheitsbereichs. Unter der Annahme, dass die Beschreibung stimmt, müssten also alle Domänen, die identische Domain SIDs haben, komplett neu installiert werden (mit Ausnahme von einer, die den SID behalten könnte). Andere Auswege gibt es nicht. Gruß, Nils
  16. Moin, VMware FT hat eine ganze Reihe von Einschränkungen und setzt eine aufwändige Infrastruktur voraus. Ohne die Anforderungen näher definiert zu haben, würde ich das nicht in Erwägung ziehen. Abgesehen davon handelt es sich um exotische Technik, die in Wirklichkeit sehr selten eingesetzt wird. Ich rate dem TO, zunächst die Anforderungen zu definieren, sonst haben technische Empfehlungen wenig Sinn. Gruß, Nils
  17. Moin, dazu fällt mir aus der Ferne leider auch nichts mehr ein. Gruß, Nils
  18. Moin, also hat die Gesamtumgebung 10 Anwender? Oder sind es insgesamt mehr? Eine Image-Lösung wirst du nur schwer automatisieren können, zudem ist sie sehr hardwareabhängig. In der Praxis wird dir ein veraltetes Image wenig bringen, ebenso die relativ lange Zeit (und das Risiko) für die Wiederherstellung. Daher würde ich so ein "Spiegel"-Konzept niemals auf Hardware-Basis machen. Wenn überhaupt, dann per VM und Replikation, das beseitigt beide Einschränkungen. Ja, das würde bedeuten, die Umgebung auf virtuelle Maschinen umzustellen. In einer 10-User-Umgebung könnte man darüber diskutieren, aber allgemein ist auch von "Mischservern" abzuraten. Je mehr Applikationen, desto höher die Fehlerwahrscheinlichkeit und vor allem die Auswirkungen bei einem Fehler. Schon in kleineren Umgebungen würde man daher dazu neigen, Funktionen auf mehrere VMs zu verteilen. Im Fall der Virtualisierung kannst du mit einer einzigen Standard-Lizenz auf einem Host schon zwei VMs betreiben und damit wenigstens eine grundlegende Aufteilung erreichen. Wichtig: Jedes Image- oder Replikationsverfahren funktioniert nur, wenn die Applikationen das vertragen, sie dürfen dabei keine Inkonsistenzen im Datenbestand erzeugen. Meist ist das gegeben, aber nicht immer, daher ist das zu prüfen. Und noch wichtiger: Ein Wiederanlaufkonzept ersetzt kein Recovery. Simples Beispiel: Eine versehentlich gelöschte Datei ist auch im Image bzw. im Replikat gelöscht. Ein Backup, das sich an den nötigen Wiederherstellungserfordernissen ausrichtet, ist also zusätzlich Pflicht. Man sollte nicht immer nur an die "Katastrophe" denken, reale Nutzungsausfälle finden meist auf anderen Ebenen statt. Gruß, Nils
  19. Moin, so ein "Spiegelserver" ist i.d.R. nicht der richtige Ansatz. In der Praxis stellt sich das doch wesentlich aufwändiger und fehlerträchtiger dar, als man zunächst annimmt. Im Grundsatz könnte man sowas zwar etwa über eine VM-Replikation erreichen (der "Hauptserver" ist eine VM auf Virtualisierungs-Hostserver 1, die auf den Virtualisierungs-Hostserver 2 laufend repliziert wird), aber gerade bei solchen "Sammel-Servern" mit AD, ERP usw. ist das Risiko hoch, dass dann im Fall des Falles doch nicht alles funktioniert. Von Versuchen, dort mit regelmäßigen Images zu arbeiten, rate ich komplett ab. Wenn überhaupt, dann sollte man sowas - wie oben skizziert - auf Basis virtueller Maschinen machen und damit die Hardware-Abhängigkeit reduzieren. Wie groß ist denn die Umgebung, von wie vielen Anwendern sprechen wir? Gruß, Nils
  20. Moin, das ist ja genau das, was ich meine: Erzeugen des Ordners genau einmal in dem Moment, in dem der User neu angelegt wird (Skript 1). Verbinden des existierenden Ordners beim Logon des Benutzers (Skript 2). Das kann man durchaus per PowerShell machen, aber wenn man sich damit nicht auskennt, ist Batch einfacher. Skript 1: Angabe des Usernamens und ggf. weiterer Details Erzeugen des Users im AD (PS: New-ADUser, Batch: net user oder dsadd user) Erzeugen des Home-Ordners in einer bestehenden Freigabe, ggf. mit Berechtigungen Skript 2: Verbinden des Homes mit der Angabe der übergeordneten Freigabe und der Systemvariable %username%, ist per PowerShell und Batch ähnlich einfach; Beispiele wirst du im Web viele finden Gruß, Nils PS. es wäre nett, wenn du auf Lesbarkeit deiner Beiträge achtest und grundlegende Zeichensetzung und Groß- und Kleinschreibung einsetzt.
  21. Moin, und das bedeutet, dass das Homeverzeichnis erzeugt werden soll? Das wäre sehr untypisch, denn schließlich muss das nur genau einmal erzeugt werden. Üblicherweise wird in einem Logonscript ein bestehendes Homeverzeichnis verbunden - das ist eine ganz andere Aufgabe und viel einfacher. Solltest du vielleicht noch mal klären. Nein, sorry, aber fertige Scripte schreiben wir hier normalerweise nicht. Das wäre auch wenig zielführend, wenn wir dir deine Aufgaben erledigen, dann hast du nichts gelernt und jemand anders deine Aufgabe erledigt. Gruß, Nils
  22. Moin, also hast du eine exakte Aufgabe gestellt bekommen? Wie lautet die denn? Sonst raten wir hier nur rum und es passt am Ende nicht. Beim Anlegen eines Users über das GUI kannst du direkt ein Home erzeugen lassen. Beim Anlegen per PowerShell gibst du halt in dem Skript, mit dem du den User erzeugst, auch das Kommando, den Ordner zu erzeugen, den Namen dafür hast du in dem Fall ja. Und wenn es darum geht, für bestehende User ein Home zu erzeugen, dann liest man die User aus und lässt in einer Schleife die Ordner anlegen. Dein Skript schlägt deshalb fehl, weil es in der ersten Zeile erwartet, einen Parameter übergeben zu bekommen. Daher stellt die PowerShell beim manuellen Ausführen auch die Nachfrage. Du müsstest diese Stelle ersetzen durch eine Funktion, die den Anmeldenamen des Users zurückgibt, der das Skript aufruft. Dafür käme z.B, die Systemvariable %USERNAME% in Frage. Noch dazu hast du das Skript offenbar von einer Webseite kopiert, weshalb falsche Anführungsstriche darin stehen. Tippe alle Anführungsstriche in einem Texteditor neu. Gruß, Nils
  23. Moin, einmal reicht: Gruß, Nils
  24. Moin, was genau möchtest du denn erreichen? Dass jeder User ein Homeverzeichnis hat? Das ließe sich wahrscheinlich einfacher erreichen. Allgemein würde man sowas eher zentral erzeugen (z.B. in dem Moment, wenn der User im AD angelegt wird; oder auch einmalig für alle bestehenden Userkonten) als es beim Anmelden eines Users zu tun - nicht zuletzt könnte man damit Berechtigungsprobleme vermeiden. Also beschreibe doch bitte noch mal genau die Aufgabe und das Ziel. Gruß, Nils
  25. Moin, der Hinweis auf das Auditing ist korrekt. Vorsicht, das muss man an zwei Stellen aktivieren: in der lokalen Richtlinie (gpedit.msc oder per AD-GPO) des Rechners, wo die ini-Datei liegt, die Überwachung als solche aktivieren im Dateisystem das jeweilige Objekt (also vermutlich die ini-Datei) zur Überwachung konfigurieren, das geht über den Berechtigungsdialog. In dem Fall sollte Erfolgsüberwachung für "Jeder" ausreichen. Die Informationen finden sich dann im Security-Eventlog des Rechners, auf dem die Überwachung stattfindet. Hinterher daran denken, die Überwachung wieder abzuschalten. Und noch mal Vorsicht: Solche Auditing-Daten auszuwerten, kann sehr aufwändig sein, weil ein einfacher Dateizugriff leicht mal -zig Detailevents erzeugt. Gruß, Nils
×
×
  • Neu erstellen...