-
Gesamte Inhalte
17.621 -
Registriert seit
-
Letzter Besuch
Beiträge erstellt von NilsK
-
-
Moin,
Dass ein RAID Controller eine typische Fehlerquelle sei, wäre mir in 25 Jahren noch nicht untergekommen. Ich würde Storage Pools auch nicht mehr zutrauen als einem guten Hardware Raid. Storage Pools sind auch kein Raid.
Behalte bei dem Thema auch im Kopf, dass du bei direkt eingebauten Platten immer eine hohe Abhängigkeit vom konkreten Server hast. Mag zum Szenario passen, mag aber auch sein, dass das ein Irrweg ist. Das Host OS auf eine schnelle SSD zu legen, ist jedenfalls unnötig.
Generell: ich habe bei Thomas Joos schon zu oft schwerwiegende Fehler festgestellt, sodass ich davon abrate, sich auf seine Aussagen zu verlassen.
Gruß, Nils
-
1
-
-
Moin,
Prima, ich hatte das ja auch schon vorgeschlagen.
Bitte sprich hier nicht von Replikation - das ist beim SQL Server ganz was anderes, das man heute kaum noch braucht. Log Shipping arbeitet vereinfacht gesagt mir Backup-Techniken, prinzipiell kannst du also auch ein Recovery auf einem anderen Server machen.
Es scheint mir, als solltest du doch mal mit jemandem in Ruhe sprechen, der dir die Möglichkeiten erläutert und auch ein sinnvolles Recovery-Konzept mit dir entwickelt.
Zum Einstieg:
https://www.faq-o-matic.net/2011/01/03/sql-server-wie-datenablage-backup-und-recovery-funktionieren/
Gruß, Nils
-
Moin,
Wie gesagt - eine Frage der Anforderungen. Denkbar ist vieles, aber ob das insgesamt ein stimmiges Konzept ergibt, steht auf einem anderen Blatt.
Die halbautomatische Lösung, die ich ansprach, ist auch nicht kompliziert. Die Frage ist ja eher, wie der Wiederanlauf aussehen soll, wie die Clients von der Umschaltung erfahren, vor welchen Ausfällen das Konstrukt schützen soll ... eben viele Möglichkeiten.
Gruß, Nils
-
Moin,
Da gibt es verschiedene Möglichkeiten. Du könntest das halbautomatisch mit Voll- und Log-Backups machen, die du bei Bedarf auf B wiederherstellst. Das geht auch automatisiert per Log shipping. Und weiter nach "oben" mit always-on.
Alles eine Frage der Anforderungen. Und der Möglichkeiten, die das Budget bietet.
Gruß, Nils
-
1
-
-
Moin,
lol ... ja, ich habe eine Idee, was du meinst.
Gruß, Nils
-
Moin Jan,
das sollte dir doch der Disti sagen können, oder?
Gruß, Nils
-
Moin,
durchaus. Der verdreckt ja auch. Und manchmal wird er beschmiert.
Gruß, Nils
-
Moin,
in den meisten Szenarien ist es völlig egal, welche Zone verwendet wird, um einen DNS-Namen aufzulösen. Beide von dir vorgeschlagenen Wege würden für das genannte Szenario also funktionieren. (Sogar parallel - technisch spricht auch nichts dagegen, dass derselbe Client in mehr als einer DNS-Zone eingetragen ist.)
Such dir also aus, was anhand möglicher sonstiger Umstände am besten passt.
Gruß, Nils
-
1
-
-
Moin,
ein Angreifer müsste das vorbereiten. Er bräuchte dazu einen DNS-Server mit einer präparierten Domain, soweit ich das verstehe, und einen Client, der den Windows-DNS-Server anspricht (dieser dient ja nur als Werkzeug für den eigentlichen Angriff). In einem "normalen" internen Firmen-Netzwerk eher unwahrscheinlich, dass das gelingt - wer so einen Angriff plant, sucht sich leichtere Wege.
In einer Umgebung, die mit "unbekannten" Clients zu tun hat, kann das Problem aber durchaus bestehen. Unis etwa nutzen oft (auch) Windows-DNS und haben praktisch keine Kontrolle über die "internen" Clients. In dem Fall würde ich die RRL-Empfehlung auf jeden Fall umsetzen.
Gruß, Nils
-
Moin,
die Antwort ist simpel: Das kommt darauf an, was du erreichen möchtest.
Um was für "Geräte" handelt es sich denn? Dass sie die Daten aus dem DNS-Server übernehmen, ist ausgesprochen unwahrscheinlich. Das tun eigentlich nur Windows-Rechner, die Mitglied einer Domäne sind.
Gruß, Nils
-
Moin,
sorry, aber deine Angaben sind etwas schwer nachzuvollziehen. Einerseits sagst du, Windows starte gar nicht - andererseits sagst du, was Windows-Kommandos für Ergebnisse haben.
Wenn wir eine Chance haben sollen, etwas dazu sagen, bring bitte noch mal etwas Ordnung rein. Danke.
Gruß, Nils
-
Moin,
die Netzwerkumgebung hat nichts damit zu tun, ob ein Rechner erreichbar ist oder nicht. Sie war schon immer unzuverlässig, auch vor 20 Jahren. Daher wird seitdem auch davon abgeraten, sie zu nutzen. Microsoft hat daher auch lange versucht, sie zu verstecken.
Wenn du sowieso weißt, auf welche Rechner du zugreifen musst, dann mach das einfach direkt. Wie Norbert oben schon sagte - vergiss die Netzwerkumgebung. Zu den Hintergründen wirst du viel im Web (und auch hier im Board) finden, wenn du es brauchst.
Gruß, Nils
-
Moin,
vor 26 Minuten schrieb Nobbyaushb:Einer VM dynamischen RAM zuzuweisen ist weit weg von Best Practice - vor allem, wenn ein SQL drauf läuft.
ganz so einfach ist es nicht. Für bestimmte Szenarien ist Dynamic Memory (was du, Norbert, hier vermutlich meinst) zulässig und auch empfohlen. Allerdings muss man immer genau hinsehen - Recht hast du in Bezug auf den SQL Server, da ist es zumindest nicht Best Practice, sondern wäre nur in ganz bestimmten Situationen sinnvoll. Dann aber müsste, wie Dukel richtig anmerkt, auch die Enterprise Edition des SQL Servers laufen.
Der Hinweis von Gulp hingegen dürfte auf einer anderen Ebene spielen, nämlich innerhalb des VM-Gastbetriebssystems. Dort wird der "virtuelle Speicher" verwaltet, den das OS wirklich nutzt. Dieser Hinweis ist gut, das wäre also auch zu prüfen.
Insgesamt könnte das eine heiße Spur sein: Sowohl unpassendes Dynamic Memory als auch eine ungünstige Konfiguration des virtuellen Speichers können sich sehr negativ auswirken.
Edit: OK, nach der jüngsten Antwort des TO dürfte sich das erübrigt haben. Ich lass es hier trotzdem stehen.
Gruß, Nils
-
Moin,
werte Kollegen - glaubt ihr nicht, dass Wolfgang euch besser versteht, wenn ihr kurz erläutert, was Sache ist?
Also: Unsere Vermutung ist, dass die Vorschau in deinem Fall deshalb nicht funktioniert, weil du auf einen Netzwerk-Speicherort zugreifst und nicht auf ein lokales Laufwerk. Falls die Vermutung zutrifft, lässt sich das dadurch ändern, dass du Windows mitteilst, dass dein Dateiserver vertrauenswürdig ist. Und das wiederum geht über den Internet Explorer, es wirkt sich dann aber auch auf den Windows-Explorer aus.
Um unsere Vermutung zu prüfen: Versuch doch bitte mal, eine JPG-Datei auf Laufwerk C:. anzuklicken. Erscheint dann eine Vorschau? Falls ja, dürfte es an den Zonen liegen. Dann befolge die Anleitung von Sunny61.
Falls nein, liegt das Problem woanders. Dann könntest du noch mal den Vorschlag von Damian probieren.
Gruß, Nils
-
2
-
-
Moin,
8man ist kein IdM. Dadurch werden viele Dinge umständlich, die man schnell braucht, wenn man mal angefangen hat.
Aber macht euch nichts vor: die organisatorischen Probleme, die du erwähnst, wird dir keine Software dieser Welt lösen. Das müsst ihr organisatorisch lösen. Eine Software kann dabei bestenfalls unterstützen, ist meist aber machtlos.
Gruß, Nils
-
Moin,
also ... bei mir ist das Unterstreichen in der genannten Symbolleiste von selbst drin (aktuelles Office 365).
Ansonsten: Strg-U drücken?
Gruß, Nils
-
Moin,
vor 42 Minuten schrieb testperson:bei Kunden habe ich dafür 8man gesehen
...
P.S.: @NilsK Wurde in dem Demo-Video auf deine AD-Testuser zurückgegriffen
?
8MAN hatte ich früher empfohlen, dem fehlen aber einige interessante Funktionen. Dass es meine Testuser sind, ist daher durchaus möglich. Schau ich mir bei Gelegenheit mal an.
Edit: Ich hab nachgesehen, das sind in dem Video die alten 8MAN-Demo-Accounts, die die auch früher schon hatten. Die sind teils nach derselben Idee erzeugt wie meine, aber nicht so konsequent.
vor 25 Minuten schrieb BOfH_666:Geht nicht Just Enough Administration auch in diese Richtung?
nein, eigentlich nicht. Da geht es um temporäre administrative Privilegien oder Berechtigungen und damit um weit weniger als 1000 User. Aufgrund der Mengenangabe verstehe ich den TO so, dass es um Anwender-Zugriffsberechtigungen geht.
JEA würde für die Zeitbeschränkung auch ein separates Identity Management brauchen. Das ist ein ziemliches Brett, sowas einzurichten.
Gruß, Nils
-
1
-
-
Moin,
wenn es eine geschäftliche Anforderung für sowas gib, würde ich bei der Organisationsgröße zu einem professionellen Berechtigungsmanagement greifen. Es gibt für sowas eine Reihe von Anbietern. Mit tenfold habe ich gute Erfahrungen, das ist aber nur einer davon.
Gruß, Nils
-
Moin,
OneNote.
Am ehesten aber: Ein Ordner im Dateisystem, in dem man Dateien im jeweils besten Format ablegt, statt alles in einer Datei zu sammeln. Und Tools/Skripte, die möglichst viel technischen Kram selbst dokumentieren. Dann kann man sich "manuell" auf das konzentrieren, was erläuterungsbedürftig ist. Das "Warum und Wozu" wird bei sowas nämlich (zu) oft übersehen.
Ein Einstiegspunkt für eine Recherche:
[Dokumentation | faq-o-matic.net]
https://www.faq-o-matic.net/kategorien/administration/dokumentation/Gruß, Nils
-
Moin,
Je nachdem, was da genau passiert und um welche Mengen es geht, wäre es auch durchaus machbar, ein Skript zu schreiben, das den Abgleich einfach ordentlich macht. Wichtig ist eigentlich nur, dass man anhand eines Feldes einen vorhandenen Kontakt eindeutig erkennt. Anhand dessen entscheidet man, was zu tun ist: aktualisieren oder neu erzeugen.
Bevor ich jetzt in einem Skript irgendwie bastele, würde ich die Energie eher in eine direkte Lösung stecken.
Gruß, Nils
-
Moin,
das Skript bzw. der Baukasten von Frank Carius verzichtet allerdings auch bewusst auf einen echten Abgleich - man achte also auf die Einschränkungen. Ein Abgleich hat auch seine Tücken, denn man muss in dem Fall schon eindeutig erkennen können, ob ein Objekt schon existiert oder nicht und was sich genau geändert hat.
Gruß, Nils
-
Moin,
Es gibt keine Aussage, dass Microsoft unter 128GB keinen Support leisten würde. Immer noch nicht. Microsoft will kleine Kunden in die Cloud bekommen. Exchange ist für die richtig großen. Man kann Exchange auch mit weniger Ressourcen betreiben. Auch mit Support.
Das ist seit langem bekannt. Das müssen wir ja nicht noch mal diskutieren.
Gruß, Nils
-
Moin,
Oh, schon 1. November?
Gruß, Nils
-
1
-
-
Moin,
Anhand deiner bisherigen Angaben bisher waren aus meiner Sicht alle Hinweise berechtigt und zielführend. Schließlich stocherst du ja selbst im Nebel.
Was könnte denn sonst auf dem System für die Last sorgen? Leg mal die Karten auf den Tisch, wenn wir sie interpretieren sollen.
Testweise eine weitere VM installieren und diese beobachten? Nur OS und SQL Server drauf? Das würde ich vermutlich jetzt tun.
Gruß, Nils
Storagepool in Windows Server 2019: Geht es mit NVMe (PCI-Express)
in Windows Server Forum
Geschrieben
Moin,
Raid macht man ja auch nicht wegen Geschwindigkeit. Ausfallsicherheit ist das Thema. Und da sind Storage Pools nur begrenzt als Lösung bekannt. Auch wenn der Hersteller da anderes behauptet.
Für mich klingt das ganze Konzept noch nicht ausreichend durchdacht. Wie testperson schon sagt, der Bedarf an schnellem Storage erschließt sich nicht ganz. Aber das kann man im Rahmen eines Forums auch nur begrenzt leisten.
Gruß, Nils