Jump to content

NilsK

Expert Member
  • Gesamte Inhalte

    17.159
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von NilsK

  1. NilsK

    Knowledgebase gesucht

    Moin, das Wiki in Teams will man nicht. Das kann man nicht durchsuchen und es ist mit nichts integriert. Yammer ist ganz was anderes. Sharepoint (in M365) kommt in Frage. Falls M365 vorhanden ist, kommt aber auch OneNote in Betracht, das hat u.a. den Charme, dass man es offline synchronisieren kann. Gruß, Nils
  2. NilsK

    Knowledgebase gesucht

    Moin, WordPress kann man auch dafür hernehmen, es muss ja evtl. kein Wiki sein. Der wesentliche Punkt ist, dass man es dann auch macht. Daran scheitern die meisten Knowledgebase-Projekte. Gruß, Nils
  3. Moin, Domain-validated-Zertifikate gab es aber "schon immer", auch lange vor Letsencrypt. Da haben die nichts dran kaputt gemacht.* Und dass sie ausdrücklich keine EV-Zertifikate ausstellen, ist ja Teil des Deals. Da würde man den Vorwurf an die falsche Stelle richten. Abgesehen von dem grundsätzlich kaputten Zertifikatsansatz ist hier die "Schuld" eher bei den Browserherstellern, die nur die Eigenschaft "transportverschlüsselt" sichtbar machen. Gruß, Nils * Dass sie "nur eine Mailadresse" prüfen würden, ist ja sachlich auch nicht richtig.
  4. Moin, nee, nee, so leicht kriegste mich nicht! Gruß, Nils
  5. Moin, Letsencrypt kann man an dieser Stelle keinen Vorwurf machen, finde ich. Das ganze zugrundeliegende System von Zertifikaten ist kaputt. Da wir kein besseres haben, ist die Idee von Letsencrpyt, dann wenigstens für eine ordentliche Verbreitung von Transportverschlüsselung zu sorgen, schon okay. EV-Zertifikate funktionieren, wenn sie funktionieren, ja auch nur für Nerds, die wissen, was das ist. Eins der Dinge, die an dem System kaputt sind ... Gruß, Nils PS. wie, Trigger Warning ...?
  6. Moin, ja, leider funktioniert das für Angreifer erschreckend gut. Daher weisen Banken auch schon seit Jahren darauf hin, dass man die Webseite der Bank nie über eine Suchmaschine aufrufen, sondern immer eintippen oder über einen Bookmark öffnen soll. Leider ist das einer der Punkte, an dem das Web und die meisten Sicherheitsmaßnahmen grundlegend kaputt sind. Gruß, Nils
  7. Moin, Beschreibt der genannte Artikel das nicht? Man stellt die Backups nacheinander wieder her, dazu muss man dem ersten Restore sagen, dass noch ein zweites folgt. Das macht das Management Studio aber selbst. Gruß, Nils
  8. Moin, Kann man die msdb-Datenbanken nicht aus dem Cluster entfernen? Wenn ich den oben geposteten Link richtig deute, fügt das Cluster-Setup alle Datenbanken pauschal der Availability Group hinzu, aber da müssten sie ja nicht sein. Es gibt keinen Grund, sie verfügbar zu halten. Mit Cluster-Konstrukten dieser Art habe ich leider keine Erfahrung und kann daher nur Vermutungen äußern. Gruß, Nils
  9. Moin, okay, dann passt ja der Ansatz mit den "Known folders" gar nicht. Ein sehr simpler Ansatz wäre, per Logonskript die Inhalte von H: in den OneDrive-Ordner zu kopieren. Je nachdem, wie umfangreich die Daten sind, könnte das klappen. Beide Pfade sind über Systemvariablen ansprechbar. Wenn dann alles kopiert ist, löscht man den Inhalt von H: und gibt den Admins einen Hinweis, dass die Zuweisung aufgehoben werden kann. Das könnte man noch ein wenig aufbohren, indem man dem User innerhalb eines Zeitrahmens die Auswahl lässt, ob er das jetzt oder später machen will usw. Falls dieser simple Ansatz nicht umsetzbar ist, wären hier noch Möglichkeiten, die man prüfen könnte: https://learn.microsoft.com/en-us/sharepointmigration/migrating-content-to-onedrive-for-business Gruß, Nils
  10. Moin, da wäre erst mal die Frage, was hier unter "Homedir" verstanden wird. Das ist ja evtl. was anderes als die "Known folders". Gruß, Nils
  11. Moin, ich kann dir nicht folgen. Von der Instanz auf ein Share ...? Heißt was? Das musst du ja auch nicht. Das sind keine Benutzerdatenbanken. Gruß, Nils
  12. Moin, hast du den Link gelesen, den ich gepostet habe? Es handelt sich um Systemdatenbanken, die bei einer bestimmten Installationsvariante mit angelegt werden. Diese dienen aber nur als Vorlagen für neue Datenbanken, genau wie die model-Datenbank. Sie werden also nicht aktiv genutzt und wachsen somit auch nicht an. Daher gibt es keinen Grund, sie zu verschieben. Was du mit "versteckt" meinst, erschließt sich mir nicht, ist aber auch nicht so wichtig. Gruß, Nils
  13. Moin, [OT] mir fällt bei sowas immer der Garbage Collector des C64 ein, der das System minutenlang - oder auch dauerhaft - lahmlegen konnte. Den konnte man auch triggern (PRINT FRE(0)), aber das war keine Freude. [/OT] Gruß, Nils
  14. Moin, hier habe ich die Grundlagen mal ausführlich zusammengefasst: [SQL Server: Wie Datenablage, Backup und Recovery funktionieren | faq-o-matic.net] https://www.faq-o-matic.net/2011/01/03/sql-server-wie-datenablage-backup-und-recovery-funktionieren/ Zugegebenermaßen ist der Teil, nach dem du fragst, etwas knapp geraten. Dazu findest du hier aber mehr - ist eigentlich auch sehr leicht zu finden. https://learn.microsoft.com/en-us/sql/relational-databases/backup-restore/restore-a-differential-database-backup-sql-server?view=sql-server-ver16 Ich würde an deiner Stelle aber noch mal schauen, ob das Verfahren das richtige ist. Das kann sein, aber vielleicht ist auch eine Kombination mit Log-Backups günstiger. Gruß, Nils
  15. Moin, diesem Thread nach zu urteilen, ist es nicht vorgesehen, diese Datenbanken zu verschieben. Das dürft aber auch völlig unnötig sein, weil es sich nur um Vorlagen handelt. https://learn.microsoft.com/en-us/answers/questions/852800/model-replicatedmaster-ldf-move-to-another-drive Gruß, Nils
  16. Moin, bitte lass diesen Thread nach viereinhalb Jahren ruhen. Wenn du konkrete Fragen hast, dann stelle diese bitte in einem neuen Thread und formuliere sie möglichst deutlich und ausdrücklich. Gruß, Nils
  17. Moin, klar, aber bis zu deiner Erwähnung war ich der Meinung, dass genau diese Möglichkeit besteht. Man braucht ja schließlich lokale Adminrechte dafür, da kann sowas ja durchaus gewollt sein. Ich hätte auch behauptet, das geprüft zu haben, aber anscheinend war ich da im Irrtum. Wunderwelt Gruppenrichtlinien ... lernste echt im August 2023 noch was Neues dazu. Dabei kann ich mich noch ziemlich genau an das Train-the-Trainer im Sommer 1999 erinnern ... Danke und Gruß, Nils
  18. Moin, Auch nicht das lokale GPO? Wow, das lese ich nach 24 Jahren zum ersten Mal. Gruß, Nils
  19. Moin, dass an der Stelle der Name nicht aufgelöst wird, ist normal bzw. oft so. Wenn man die Verbindung dann hinzufügt, geht die Namensauflösung normalerweise - wenn nicht noch was anderes schief läuft. Klappt das bei dir nicht? Gruß, Nils
  20. Moin, ich interpretiere deine Frage so, dass du dir über die Grundlagen nicht ganz sicher bist. Vielleicht hilft Folgendes - schon ziemlich alt, aber immer noch gültig. [Die Anwendung von Gruppenrichtlinien steuern | faq-o-matic.net] https://www.faq-o-matic.net/2014/04/07/die-anwendung-von-gruppenrichtlinien-steuern/ [Erste Schritte - Gruppenrichtlinien] https://www.gruppenrichtlinien.de/themen/erste-schritte Gruß, Nils
  21. Moin, wieso, bis wann wollten sie denn das nicht? Gruß, Nils
  22. Moin, das wäre hier gar nicht gegeben. Ein CSV ist ja eine LUN aus einem (separaten) Storage-System. Die Zuordnung zu einem Knoten dient nur der Koordination der Zugriffe durch verschiedene Systeme. Möglicherweise verwechselst du das grad mit S2D. Gruß, Nils
  23. Moin, die Frage ist, was du damit erreichen willst. Technisch betrachtet, kannst du das tun. Eine pauschale Empfehlung dafür kann man aber nicht aussprechen, weil so eine Aufteilung wohl nur in sehr speziellen Szenarien Vorteile brächte. Am Ende sind CSVs normale LUNs aus dem Storage. Anders als diese können aber mehrere Server gleichzeitig darauf zugreifen, eben die Cluster-Nodes. Es muss dabei sicher gestellt sein, dass diese nicht dieselben Daten verwenden. Rein technisch könnte man also durchaus die Dateien so aufteilen, wie du es angibst, denn es greift ja jede Instanz nur auf ihre Dateien zu. Bleibt aber die Frage, warum man das tun sollte. Interessant könnte das evtl. sein, wenn etwa das Log-CSV viel schneller im Zugriff wäre als das DB-CSV. Das dürfte allerdings bei den meisten Storage-Systemen gar nicht der Fall sein. Außerdem geht es dann evtl. nach hinten los, wenn mehrere Datenbanken ihre Logs auf demselben CSV haben und damit dann um die Zugriffe konkurrieren. Zudem ist das CSV die Failover-Einheit, aber da das eher die Verwaltung betrifft als die laufenden Zugriffe, ist das eher weniger relevant. Es ist eine Frage, die im Gesamtdesign des Systems zu beantworten ist, aber keinesfalls pauschal. Gruß, Nils
  24. Moin, was würde denn aus deiner Sicht für getrennte CSVs sprechen? Mir kommt schon die Idee exotisch vor. Gruß, Nils
  25. NilsK

    Sysadmin Day 2023

    Moin, okay, dann passt es zu Admins. Die denken ja auch, wenn sie Monitoring machen, gibt es keine Ausfälle mehr. Gruß, Nils
×
×
  • Neu erstellen...