Jump to content

mwiederkehr

Expert Member
  • Gesamte Inhalte

    1.510
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von mwiederkehr

  1. Evtl. geht es mit "add addressmapping". Siehe https://docs.microsoft.com/en-us/previous-versions/windows/it-pro/windows-server-2008-R2-and-2008/cc754535(v%3dws.10), zuerst Routing installieren (https://deploymentresearch.com/Research/Post/387/Install-a-Virtual-Router-based-on-Windows-Server-2012-R2-using-PowerShell). Besser wäre es aber, die IP zu ändern. Ist diese fix im Programm einkompiliert? Wenn Du die Sourcen nicht mehr hast, könnte man sie evtl. mit einem Hex-Editor anpassen.
  2. Dynamische Disks sind nicht supported? Wusste ich bis jetzt nicht. Auf https://technet.microsoft.com/en-us/library/jj619301(v=exchg.160).aspx steht: Aber dynamisches Memory ist klar, macht ja auch keinen Sinn bei einer Datenbank. Ist wie "SQL Server nachts neu starten, damit RAM frei wird".
  3. Vielleicht ein Hinweis aus der Praxis, um die Grössenordnung abzuschätzen: Exchange 2013 mit ca. 500 Postfächern, Mitglied einer DAG. Logs aktiviert (IIS und Connectoren), aber mit dem von "Testperson" geposteten Script nach sieben Tagen gelöscht. Windows und Exchange auf C:, Queues auch, Datenbanken und Transaktionslogs auf anderer Partition. Aktuell sind von 125 GB noch 30 GB frei. Würde ich den Server heute installieren, würde ich gleich mit 200 GB beginnen. Dank "thin Provisioning" bzw. dynamischen VHDX wird ja nur der tatsächlich benötigte Platz belegt und Speicher kostet nicht mehr die Welt.
  4. Wenn es sich um eine einmalige Aktion handelt, könnte man es mit einem Word-Makro erledigen. Beispiel hier: https://gist.github.com/sebnilsson/1014112 Ist aber bei so vielen Dateien evtl. schwierig den Überblick zu behalten, falls das Makro aus einem Grund stehen bleibt.
  5. Bei Verteilergruppen bleibt soweit ich weiss der ursprüngliche Empfänger erhalten. Du könntest also statt den Aliases Verteilergruppen erstellen, in welchen der Benutzer Mitglied ist.
  6. HPE hat Microcode-Updates für diverse Server zurückgezogen: https://support.hpe.com/hpsc/doc/public/display?docId=emr_na-a00039784en_us&hprpt_id=HPGL_ALERTS_1997685&jumpid=em_alerts_us-us_Jan18_xbu_all_all_1422961_1997685_SynergyServersMoonshotSystems_critical__&DIMID=EMID_72E7628E3A0715627796F604F977455F/ Laut Artikel hat Intel Probleme gemeldet und arbeitet an einem neuen Update. Geht wohl um die unerklärlichen Abstürze, von denen im Heise-Artikel die Rede war.
  7. Eigentlich sollte es schon gehen, Client Zertifikate sind ja in etwa ein umgekehrter Handshake und dann eine neue TLS-Verbindung. Wireshark muss natürlich den private Key des Client Zertifikats ebenfalls haben. Aber verwendet die Verbindung evtl. PFS? Dann ist eine nachträgliche Entschlüsselung nicht möglich, selbst wenn man die Private Keys hat. Ein Proxy wie Fiddler ist deshalb wohl die bessere Lösung.
  8. Soweit ich weiss sind Dokumente im Office Open XML-Format (docx, xlsx), die mit einem Passwort zum Öffnen versehen sind, richtig verschlüsselt. Man kann das Passwort nicht wie bei .doc und .xls mit dem Hex-Editor rausoperieren. Der Blattschutz ist aber nach wie vor kein richtiger Schutz, den kann man mit einem Texteditor entfernen.
  9. Im Gegensatz zu produktiven Servern haben Testserver im Homelab meist viel weniger zu tun. Deshalb sollten Consumer SSD recht lange halten. Habe gerade auf meinem Server mit einer Samsung SSD EVO nachgeschaut, in Betrieb seit Herbst 2015. Auf dem Server laufen um die fünf VMs, Windows und Linux, einmal SQL, einmal Exchange. Total geschrieben wurden bisher 23 TB. Samsung nennt keine Disk Writes per Day, aber gibt eine Garantie bis 75 TB. Demnach sollte die SSD noch 5 Jahre halten. In einem MSA P2000 G3 haben wir mal drei Samsung SSD installiert und darauf eine Kopie der produktiven Umgebung für Testzwecke laufen lassen. Die hatte mehr Last und nach knapp drei Jahren sind zwei der drei SSD fast gleichzeitig ausgefallen. Im Gegensatz zu den teuren SSD von HP natürlich ohne Vorwarnung.
  10. Mit "untrusted code" meinen sie wohl Code, welcher ungeprüft von aussen kommt und ausgeführt wird. Also zum Beispiel Terminalserver (Benutzer lädt Programm herunter) oder Webserver (Hostingkunde lädt PHP-Anwendung hoch). Ein Fileserver fällt nicht darunter und dort muss die Mitigation nicht aktiviert werden, wenn ich die Doku richtig verstanden habe. Wohl deshalb ist die Mitigation auf Servern nach der Installation des Updates nicht automatisch aktiviert, sondern muss per Registry aktiviert werden. Microsoft nennt unter https://support.microsoft.com/en-us/help/4072698/windows-server-guidance-to-protect-against-the-speculative-execution drei Fälle, in welchen die Mitigation aktiviert werden sollte: - Hyper-V Hosts: damit nicht von einer VM auf den Speicher einer anderen VM zugegriffen werden kann - Terminalserver: da läuft fast immer "untrusted code", und sei es nur JavaScript im Browser - Server, auf denen "untrusted code" läuft wie Webserver Ganz allgemein halte ich die Aufregung für etwas übertrieben. Einerseits soll sich die Lücke nicht so gut ausnutzen lassen wie zuerst befürchtet (Meltdown soll nur auslesen können, was im L1-Cache ist) und andererseits sehe ich (noch) kein Szenario für flächendeckende Angriffe. Zielgerichtete Angriffe auf lohnenswerte Ziele auf jeden Fall, aber was bringt es einem Angreifer, wenn er mit viel Aufwand ein Zertifikat für kleinfirma.de aus dem Speicher extrahieren kann? Vielleicht bin ich zu ängstlich, aber ich halte die Installation von frisch dem Compiler entschlüpften Microcode-Updates auf allen Hosts für das grössere Risiko für den stabilen Betrieb als die offenen Lücken. Habe deshalb nur die Hosts gepatcht, auf denen VMs mit "untrusted code" laufen und noch nicht ganze Cluster.
  11. Mit dem Sejda SDK (http://sejda.org/) sollte es gehen von der Kommandozeile aus. Nachteil: benötigt Java. Falls PowerShell eine Option ist: damit kann man direkt .NET-Libraries ansteuern und für .NET gibt es gute PDF-Tools. Ein Beispiel für die Nutzung von PDFSharp: http://support.coolorange.com/support/solutions/articles/22000211000-how-to-merge-multiple-pdf-with-pdfsharp-and-powershell Mit der DLL und dem PowerShell-Modul kannst Du aus Deinem Script einen Aufruf starten, der alle Dateien in einem Verzeichnis zusammenfügt, unabhängig deren Namen: $files = Get-ChildItem "C:\temp\PDF\Source" -Filter "*.pdf" MergePdf -Files $files -DestinationFile "C:\TEMP\PDF\Destination\test.pdf" -PdfSharpPath 'C:\pfad\zur\PdfSharp-gdi.dll'
  12. Der Unterschied von SSD zu HDD ist eigentlich sofort spürbar: beim Booten, beim Öffnen des Servermanagers etc. Habe den direkten Vergleich: einmal HP ProLiant ML30 mit 3x SATA HDD im RAID 5, einmal Intel NUC mit i7 und Samsung SSD. Das war mein letzter Server, auf dem ich SATA-Disks für VMs einsetze... Ich denke mit einer SSD wirst Du die Performance massiv verbessern können.
  13. Du könntest das Makro die Datei nach den Anpassungen passwortgeschützt speichern lassen: https://exceloffthegrid.com/vba-code-password-protect-excel-file/
  14. Das ist wohl kein Problem: Anleitung https://www.cisco.com/c/dam/en/us/td/docs/wireless/access_point/csbap/wap371/quick_guide/guide/QSG_ENGLISH.pdf, Seite 7: Power Solid (Amber): The Cisco WAP371 is powered on, booting, or in normal operation with External Power Adapter Grün ist die LED nur bei PoE.
  15. Wenn Rechner A ein Paket zu Rechner B schickt, welcher sich im gleichen Netz befindet, macht er einen ARP-Lookup und adressiert das Paket an die MAC-Adresse von Rechner B. Schickt er ein Paket an Rechner C, der sich in einem anderen Netz befindet, adressiert er das Paket an das Gateway, also schlussendlich an die MAC-Adresse des Gateways. Er kommt nicht auf die Idee, dass sich beide Netze am gleichen Switch befinden und versucht nicht, an die MAC-Adresse von Rechner C zu kommen. Was Du vielleicht meinst mit MAC-Adressen auf dem Switch: der Switch lernt, über welche Ports welche MAC-Adressen erreichbar sind, so dass er Pakete (im Gegensatz zum Hub) nicht über alle Ports schicken muss. Eine schnelle Lösung für Dein Problem könnte sein, einen routingfähigen Switch zu beschaffen. Die kosten nicht mehr so viel wie früher. Die Überarbeitung des Netzwerkkonzepts sollte aber trotzdem auf der Pendenzenliste bleiben.
  16. Die Windows Server Sicherung ist nicht ideal für die Sicherung übers Netzwerk. Zumindest früher wurde übers Netzwerk jedes Mal eine Vollsicherung erstellt. Veeam bietet eine kostenlose Software zur Sicherung von physischen Servern an: https://www.veeam.com/de/windows-endpoint-server-backup-free.html Arbeite schon einige Jahre damit und bin sehr zufrieden, sichere auch meine privaten Rechner so. Man kann auf ein NAS oder in ein Veeam Repository sichern. Besonders wenn ihr zur Sicherung der VMs schon Veeam einsetzt bietet sich diese Lösung an.
  17. Ich würde auf dem Notebook Windows 10 installieren, da gibt es sicher die richtigen Treiber dafür. Dann entweder mit dem Hyper-V von Windows 10 arbeiten, falls der reicht, oder sonst Nested Virtualization aktivieren (https://docs.microsoft.com/en-us/virtualization/hyper-v-on-windows/user-guide/nested-virtualization) und den Server 2012 R2 als virtuelle Maschine installieren. So kannst Du auch mehrere 2012 R2 parallel installieren, falls Du Cluster testen willst etc.
  18. Wenn Du das Backup auf den gleichen Server zurückspielst, sollte das funktionieren. Was die anderen Mitglieder gemeint haben mit "Host nicht sichern" war, dass man auf dem Host keine Daten hat. Muss man für die Wiederherstellung die Hardware wechseln, ist Windows schneller neu installiert als das Backup zurückgespielt, Treiber ausgetauscht etc. Sogar auf der gleichen Hardware ist man unter Umständen mit einer Neuinstallation schneller. Nämlich dann, wenn man Scripts hat, welche die Netzwerkeinstellungen etc. konfigurieren.
  19. mwiederkehr

    Frage zu DFS

    Es gibt schon noch Anwendungsgebiete, aber die sind nicht mehr so zahlreich, wie man am Anfang vielleicht gemeint hat. Beispiel aus der Praxis: eine Firma, mehrere Standorte. Einige Mitarbeiter arbeiten an verschiedenen Standorten (aber immer nur an einem gleichzeitig). Profile replizieren und der Mitarbeiter kann sich schneller anmelden. Oder Luftbilder: riesige Bilddateien, die man nur einmal jährlich bekommt und die dann read-only sind und auf Plänen als Hintergrundbild eingebunden werden. So können alle Standorte mit den Dateien arbeiten, ohne sie über WAN übertragen zu müssen und ohne händische Kopieraktionen. Für diese Fälle war DFS-R in Zeiten teurer Bandbreite ein grosser Vorteil. Mittlerweile läuft aber alles zentral und die Leitung wurde auf Gbit-Glasfaser umgestellt.
  20. Nein, bis jetzt noch nicht. Es hat immer alles funktioniert und die Doku ist auch umfangreich. Support scheint in erster Linie über das Forum zu laufen, dort schreiben auch Mitarbeiter von Ubiquiti. Muss aber dazu sagen, dass wir nur immer "einfache" Sachen wie mehrere SSID und Vouchers benötigt haben. Traffic Shaping etc. machen wir auf der Firewall.
  21. Beim grössten Kunden sind es ca. 75 Mitarbeiter, verteilt auf drei Stockwerke. Die haben jeweils ein Smartphone und etwa ein Drittel davon hat noch ein Notebook. Dazu kommen bei Sitzungen noch diverse Gäste. Das geht gut mit drei Access Points. (Die Anzahl Clients pro AP war bei meinen Installationen noch nie ein Problem, die Reichweite hat immer die Anzahl benötigter Access Points bestimmt.) Die Daten gehen direkt vom AP aufs LAN. Der Controller wird nur für die Konfiguration benötigt oder eben für die Voucher. Setze UniFi auch bei kleinen Kunden ohne Server ein, dort installiere ich den Controller einfach auf einem Rechner, richte ihn aber nicht als Dienst ein. Gefallen hat mir, dass die Access Points den Controller bei korrekter Konfiguration von DHCP oder DNS automatisch finden, auch über Netzwerkgrenzen hinweg. Braucht ein Aussenstandort einen zusätzlichen AP, kann man den direkt dort hin schicken. (Wobei das wahrscheinlich die anderen Anbieter auch können.)
  22. Ich setzte meist UniFi ein und da meist die Long Range Access Points. Da reicht je nach Gebäude einer pro Etage. Mehrere SSID in verschiedenen VLANs sind kein Problem. Vouchers funktionieren auch, aber dafür muss entweder der Controller als Dienst auf einem Server laufen oder man braucht noch das Security Gateway. Mir wurde schon von guten Erfahrungen mit den Lösungen von Fortinet und WatchGuard berichtet. Die sind aber in einer anderen Preisklasse und machen nur Sinn, wenn man die Firewalls des Herstellers nutzt.
  23. Mit dem "Media Creation Tool" (https://www.microsoft.com/de-de/software-download/windows10) kann man eine aktuelle ISO von Windows 10 herunterladen. Die monatlichen Updates sind soweit ich weiss nicht integriert, aber man erhält immer den aktuellen Build, aktuell also das Fall Creators Update. Da der Key bei OEM-Lizenzen im BIOS integriert ist, braucht man kein spezielles Installationsmedium vom Hersteller mehr, wie das noch bei Windows 7 der Fall war.
  24. Nextcloud lässt sich in einem Webhosting oder auf einem kleinen vServer installieren und bietet serverseitige Verschlüsselung. Dazu ein kostenloses SSL-Zertifikat von Let's Encrypt (bei vielen Webhostern mittlerweile standardmässig aktiviert) und die Daten sind auch bei der Übertragung geschützt.
  25. Wir machen das ebenfalls mit einem Script. Es liest den Clientnamen aus und schaut im AD nach, welcher Standort für den Rechner hinterlegt ist. "5. OG, Sekretariat" zum Beispiel. Aufgrund des Standorts verbindet es die Drucker und setzt den Standarddrucker. Zusätzlich legt es den letzten Standort und eine Versionsnummer in einer Textdatei im Benutzerprofil ab, so dass die Drucker nur neu verbunden werden, wenn sich der Benutzer von einem anderen Client aus anmeldet oder das Script bzw. die Drucker aktualisiert wurden. Das Script stammt aus der Zeit um 2008. Bin mir ziemlich sicher, dass es mittlerweile schönere Lösungen gibt.
×
×
  • Neu erstellen...