Jump to content

NilsK

Expert Member
  • Gesamte Inhalte

    17.135
  • Registriert seit

  • Letzter Besuch

Beiträge erstellt von NilsK

  1. Moin,

     

    vor 6 Minuten schrieb testperson:

    Irgendwas aus dem M365 Universum, wo Yammer, Teams, Sharepoint genutzt werden könnte? In Teams lässt sich bspw. zumindest rudimentär ein Wiki erstellen.

     

    das Wiki in Teams will man nicht. Das kann man nicht durchsuchen und es ist mit nichts integriert. 

    Yammer ist ganz was anderes.

    Sharepoint (in M365) kommt in Frage. Falls M365 vorhanden ist, kommt aber auch OneNote in Betracht, das hat u.a. den Charme, dass man es offline synchronisieren kann.

     

    Gruß, Nils

     

  2. Moin,

     

    Domain-validated-Zertifikate gab es aber "schon immer", auch lange vor Letsencrypt. Da haben die nichts dran kaputt gemacht.* Und dass sie ausdrücklich keine EV-Zertifikate ausstellen, ist ja Teil des Deals. Da würde man den Vorwurf an die falsche Stelle richten.

     

    Abgesehen von dem grundsätzlich kaputten Zertifikatsansatz ;-) ist hier die "Schuld" eher bei den Browserherstellern, die nur die Eigenschaft "transportverschlüsselt" sichtbar machen.

     

    Gruß, Nils

    * Dass sie "nur eine Mailadresse" prüfen würden, ist ja sachlich auch nicht richtig.

  3. Moin,

     

    Letsencrypt kann man an dieser Stelle keinen Vorwurf machen, finde ich. Das ganze zugrundeliegende System von Zertifikaten ist kaputt. Da wir kein besseres haben, ist die Idee von Letsencrpyt, dann wenigstens für eine ordentliche Verbreitung von Transportverschlüsselung zu sorgen, schon okay.

     

    EV-Zertifikate funktionieren, wenn sie funktionieren, ja auch nur für Nerds, die wissen, was das ist. Eins der Dinge, die an dem System kaputt sind ...

     

    Gruß, Nils

    PS. wie, Trigger Warning ...?

    • Haha 1
  4. Moin,

     

    ja, leider funktioniert das für Angreifer erschreckend gut. Daher weisen Banken auch schon seit Jahren darauf hin, dass man die Webseite der Bank nie über eine Suchmaschine aufrufen, sondern immer eintippen oder über einen Bookmark öffnen soll.

     

    Leider ist das einer der Punkte, an dem das Web und die meisten Sicherheitsmaßnahmen grundlegend kaputt sind.

     

    Gruß, Nils

     

  5. Moin,

     

    Kann man die msdb-Datenbanken nicht aus dem Cluster entfernen? Wenn ich den oben geposteten Link richtig deute, fügt das Cluster-Setup alle Datenbanken pauschal der Availability Group hinzu, aber da müssten sie ja nicht sein. Es gibt keinen Grund, sie verfügbar zu halten.

     

    Mit Cluster-Konstrukten dieser Art habe ich leider keine Erfahrung und kann daher nur Vermutungen äußern.

     

    Gruß, Nils

  6. Moin,

     

    okay, dann passt ja der Ansatz mit den "Known folders" gar nicht.

     

    Ein sehr simpler Ansatz wäre, per Logonskript die Inhalte von H: in den OneDrive-Ordner zu kopieren. Je nachdem, wie umfangreich die Daten sind, könnte das klappen. Beide Pfade sind über Systemvariablen ansprechbar.

    Wenn dann alles kopiert ist, löscht man den Inhalt von H: und gibt den Admins einen Hinweis, dass die Zuweisung aufgehoben werden kann.

     

    Das könnte man noch ein wenig aufbohren, indem man dem User innerhalb eines Zeitrahmens die Auswahl lässt, ob er das jetzt oder später machen will usw.

     

    Falls dieser simple Ansatz nicht umsetzbar ist, wären hier noch Möglichkeiten, die man prüfen könnte:

    https://learn.microsoft.com/en-us/sharepointmigration/migrating-content-to-onedrive-for-business

     

    Gruß, Nils

     

    • Danke 1
  7. Moin,

     

    vor 7 Minuten schrieb jesada:

    Da der Cluster von der Instanz auf ein anderes Share umziehen muss,

    ich kann dir nicht folgen. Von der Instanz auf ein Share ...? Heißt was?

     

    vor 7 Minuten schrieb jesada:

    Es gibt keine Option im Cluster oder in der Instanz den Umzug der Datendateien von diesen vier Dateien zu bewerkstelligen. 

    Das musst du ja auch nicht. Das sind keine Benutzerdatenbanken. 

     

    Gruß, Nils

     

     

  8. Moin,

     

    hast du den Link gelesen, den ich gepostet habe?

     

    Es handelt sich um Systemdatenbanken, die bei einer bestimmten Installationsvariante mit angelegt werden. Diese dienen aber nur als Vorlagen für neue Datenbanken, genau wie die model-Datenbank. Sie werden also nicht aktiv genutzt und wachsen somit auch nicht an. Daher gibt es keinen Grund, sie zu verschieben.

     

    Was du mit "versteckt" meinst, erschließt sich mir nicht, ist aber auch nicht so wichtig.

     

    Gruß, Nils

  9. Moin,

     

    hier habe ich die Grundlagen mal ausführlich zusammengefasst:

     

    [SQL Server: Wie Datenablage, Backup und Recovery funktionieren | faq-o-matic.net]
    https://www.faq-o-matic.net/2011/01/03/sql-server-wie-datenablage-backup-und-recovery-funktionieren/

     

    Zugegebenermaßen ist der Teil, nach dem du fragst, etwas knapp geraten. Dazu findest du hier aber mehr - ist eigentlich auch sehr leicht zu finden.

    https://learn.microsoft.com/en-us/sql/relational-databases/backup-restore/restore-a-differential-database-backup-sql-server?view=sql-server-ver16

     

    Ich würde an deiner Stelle aber noch mal schauen, ob das Verfahren das richtige ist. Das kann sein, aber vielleicht ist auch eine Kombination mit Log-Backups günstiger.

     

    Gruß, Nils

     

  10. Moin,

     

    vor 18 Stunden schrieb daabm:

    Sonst könnte man ja in der lokalen GPO Werte setzen, die eigentlich von Domain GPOs anders gesetzt werden... Das führt dann die Inheritance ad absurdum.

     

    klar, aber bis zu deiner Erwähnung war ich der Meinung, dass genau diese Möglichkeit besteht. Man braucht ja schließlich lokale Adminrechte dafür, da kann sowas ja durchaus gewollt sein.

    Ich hätte auch behauptet, das geprüft zu haben, aber anscheinend war ich da im Irrtum. :lol3:

     

    Wunderwelt Gruppenrichtlinien ... lernste echt im August 2023 noch was Neues dazu. Dabei kann ich mich noch ziemlich genau an das Train-the-Trainer im Sommer 1999 erinnern ...

     

    Danke und Gruß, Nils

     

  11. Moin,

     

    ich interpretiere deine Frage so, dass du dir über die Grundlagen nicht ganz sicher bist. Vielleicht hilft Folgendes - schon ziemlich alt, aber immer noch gültig.

     

    [Die Anwendung von Gruppenrichtlinien steuern | faq-o-matic.net]
    https://www.faq-o-matic.net/2014/04/07/die-anwendung-von-gruppenrichtlinien-steuern/

     

    [Erste Schritte - Gruppenrichtlinien]
    https://www.gruppenrichtlinien.de/themen/erste-schritte 
     

    Gruß, Nils

     

  12. Moin,

     

    die Frage ist, was du damit erreichen willst. Technisch betrachtet, kannst du das tun. Eine pauschale Empfehlung dafür kann man aber nicht aussprechen, weil so eine Aufteilung wohl nur in sehr speziellen Szenarien Vorteile brächte.

     

    Am Ende sind CSVs normale LUNs aus dem Storage. Anders als diese können aber mehrere Server gleichzeitig darauf zugreifen, eben die Cluster-Nodes. Es muss dabei sicher gestellt sein, dass diese nicht dieselben Daten verwenden. Rein technisch könnte man also durchaus die Dateien so aufteilen, wie du es angibst, denn es greift ja jede Instanz nur auf ihre Dateien zu.

     

    Bleibt aber die Frage, warum man das tun sollte. Interessant könnte das evtl. sein, wenn etwa das Log-CSV viel schneller im Zugriff wäre als das DB-CSV. Das dürfte allerdings bei den meisten Storage-Systemen gar nicht der Fall sein. Außerdem geht es dann evtl. nach hinten los, wenn mehrere Datenbanken ihre Logs auf demselben CSV haben und damit dann um die Zugriffe konkurrieren. 

     

    Zudem ist das CSV die Failover-Einheit, aber da das eher die Verwaltung betrifft als die laufenden Zugriffe, ist das eher weniger relevant.

     

    Es ist eine Frage, die im Gesamtdesign des Systems zu beantworten ist, aber keinesfalls pauschal.

     

    Gruß, Nils

     

    • Like 1
×
×
  • Neu erstellen...