Jump to content

mwiederkehr

Expert Member
  • Gesamte Inhalte

    1.514
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von mwiederkehr

  1. Da Variablen werden korrekt expandiert. Du hast aber hinten eine schliessende Klammer zu viel. Wenn es auch nach Korrektur nicht geht, solltest Du mal schauen, was der Server sagt, also $req = Invoke-WebRequest ... $req.Content (oder allenfalls $req.RawContent) Falls das Problem nicht die PowerShell ist, sondern die Anfragen anders zusammengestellt werden müssen, kann https://www.getpostman.com/ helfen. Damit kann man solche Requests zusammenstellen, abschicken und die Antwort lesen. Ist zum Debuggen etwas komfortabler als direkt mit der PowerShell.
  2. Das ist auch kein JSON mehr. Mein Beispiel war vielleicht etwas zu spartanisch. So habe ich es eigentlich gemeint (mit geschweiften Klammern): $data="{""name"":""$servername"",""type"":""VM"",""label"":""$funktion"",""attributes"":{""Ansprechpartner"":""$verantwortlicher"",""ESX-Cluster"":""Standard"",""CPU-Anzahl"":""8"",""Betriebssystem"":""$os,""ServiceRequest"":""REQ-$jahr-$request"",""KST"":""$kst)""}}"
  3. Innerhalb von einfachen Anführungszeichen werden Variablen nicht expandiert. Da Du doppelte Anführungszeichen im String brauchst, hast Du zwei Möglichkeiten: - String unterbrechen: $data = '"server":"' + $server + '"' - doppelte Anführungszeichen escapen, aus "" wird ": $data = """server"":""$server"""
  4. Evtl. geht es mit "add addressmapping". Siehe https://docs.microsoft.com/en-us/previous-versions/windows/it-pro/windows-server-2008-R2-and-2008/cc754535(v%3dws.10), zuerst Routing installieren (https://deploymentresearch.com/Research/Post/387/Install-a-Virtual-Router-based-on-Windows-Server-2012-R2-using-PowerShell). Besser wäre es aber, die IP zu ändern. Ist diese fix im Programm einkompiliert? Wenn Du die Sourcen nicht mehr hast, könnte man sie evtl. mit einem Hex-Editor anpassen.
  5. Dynamische Disks sind nicht supported? Wusste ich bis jetzt nicht. Auf https://technet.microsoft.com/en-us/library/jj619301(v=exchg.160).aspx steht: Aber dynamisches Memory ist klar, macht ja auch keinen Sinn bei einer Datenbank. Ist wie "SQL Server nachts neu starten, damit RAM frei wird".
  6. Vielleicht ein Hinweis aus der Praxis, um die Grössenordnung abzuschätzen: Exchange 2013 mit ca. 500 Postfächern, Mitglied einer DAG. Logs aktiviert (IIS und Connectoren), aber mit dem von "Testperson" geposteten Script nach sieben Tagen gelöscht. Windows und Exchange auf C:, Queues auch, Datenbanken und Transaktionslogs auf anderer Partition. Aktuell sind von 125 GB noch 30 GB frei. Würde ich den Server heute installieren, würde ich gleich mit 200 GB beginnen. Dank "thin Provisioning" bzw. dynamischen VHDX wird ja nur der tatsächlich benötigte Platz belegt und Speicher kostet nicht mehr die Welt.
  7. Wenn es sich um eine einmalige Aktion handelt, könnte man es mit einem Word-Makro erledigen. Beispiel hier: https://gist.github.com/sebnilsson/1014112 Ist aber bei so vielen Dateien evtl. schwierig den Überblick zu behalten, falls das Makro aus einem Grund stehen bleibt.
  8. Bei Verteilergruppen bleibt soweit ich weiss der ursprüngliche Empfänger erhalten. Du könntest also statt den Aliases Verteilergruppen erstellen, in welchen der Benutzer Mitglied ist.
  9. HPE hat Microcode-Updates für diverse Server zurückgezogen: https://support.hpe.com/hpsc/doc/public/display?docId=emr_na-a00039784en_us&hprpt_id=HPGL_ALERTS_1997685&jumpid=em_alerts_us-us_Jan18_xbu_all_all_1422961_1997685_SynergyServersMoonshotSystems_critical__&DIMID=EMID_72E7628E3A0715627796F604F977455F/ Laut Artikel hat Intel Probleme gemeldet und arbeitet an einem neuen Update. Geht wohl um die unerklärlichen Abstürze, von denen im Heise-Artikel die Rede war.
  10. Eigentlich sollte es schon gehen, Client Zertifikate sind ja in etwa ein umgekehrter Handshake und dann eine neue TLS-Verbindung. Wireshark muss natürlich den private Key des Client Zertifikats ebenfalls haben. Aber verwendet die Verbindung evtl. PFS? Dann ist eine nachträgliche Entschlüsselung nicht möglich, selbst wenn man die Private Keys hat. Ein Proxy wie Fiddler ist deshalb wohl die bessere Lösung.
  11. Soweit ich weiss sind Dokumente im Office Open XML-Format (docx, xlsx), die mit einem Passwort zum Öffnen versehen sind, richtig verschlüsselt. Man kann das Passwort nicht wie bei .doc und .xls mit dem Hex-Editor rausoperieren. Der Blattschutz ist aber nach wie vor kein richtiger Schutz, den kann man mit einem Texteditor entfernen.
  12. Im Gegensatz zu produktiven Servern haben Testserver im Homelab meist viel weniger zu tun. Deshalb sollten Consumer SSD recht lange halten. Habe gerade auf meinem Server mit einer Samsung SSD EVO nachgeschaut, in Betrieb seit Herbst 2015. Auf dem Server laufen um die fünf VMs, Windows und Linux, einmal SQL, einmal Exchange. Total geschrieben wurden bisher 23 TB. Samsung nennt keine Disk Writes per Day, aber gibt eine Garantie bis 75 TB. Demnach sollte die SSD noch 5 Jahre halten. In einem MSA P2000 G3 haben wir mal drei Samsung SSD installiert und darauf eine Kopie der produktiven Umgebung für Testzwecke laufen lassen. Die hatte mehr Last und nach knapp drei Jahren sind zwei der drei SSD fast gleichzeitig ausgefallen. Im Gegensatz zu den teuren SSD von HP natürlich ohne Vorwarnung.
  13. Mit "untrusted code" meinen sie wohl Code, welcher ungeprüft von aussen kommt und ausgeführt wird. Also zum Beispiel Terminalserver (Benutzer lädt Programm herunter) oder Webserver (Hostingkunde lädt PHP-Anwendung hoch). Ein Fileserver fällt nicht darunter und dort muss die Mitigation nicht aktiviert werden, wenn ich die Doku richtig verstanden habe. Wohl deshalb ist die Mitigation auf Servern nach der Installation des Updates nicht automatisch aktiviert, sondern muss per Registry aktiviert werden. Microsoft nennt unter https://support.microsoft.com/en-us/help/4072698/windows-server-guidance-to-protect-against-the-speculative-execution drei Fälle, in welchen die Mitigation aktiviert werden sollte: - Hyper-V Hosts: damit nicht von einer VM auf den Speicher einer anderen VM zugegriffen werden kann - Terminalserver: da läuft fast immer "untrusted code", und sei es nur JavaScript im Browser - Server, auf denen "untrusted code" läuft wie Webserver Ganz allgemein halte ich die Aufregung für etwas übertrieben. Einerseits soll sich die Lücke nicht so gut ausnutzen lassen wie zuerst befürchtet (Meltdown soll nur auslesen können, was im L1-Cache ist) und andererseits sehe ich (noch) kein Szenario für flächendeckende Angriffe. Zielgerichtete Angriffe auf lohnenswerte Ziele auf jeden Fall, aber was bringt es einem Angreifer, wenn er mit viel Aufwand ein Zertifikat für kleinfirma.de aus dem Speicher extrahieren kann? Vielleicht bin ich zu ängstlich, aber ich halte die Installation von frisch dem Compiler entschlüpften Microcode-Updates auf allen Hosts für das grössere Risiko für den stabilen Betrieb als die offenen Lücken. Habe deshalb nur die Hosts gepatcht, auf denen VMs mit "untrusted code" laufen und noch nicht ganze Cluster.
  14. Mit dem Sejda SDK (http://sejda.org/) sollte es gehen von der Kommandozeile aus. Nachteil: benötigt Java. Falls PowerShell eine Option ist: damit kann man direkt .NET-Libraries ansteuern und für .NET gibt es gute PDF-Tools. Ein Beispiel für die Nutzung von PDFSharp: http://support.coolorange.com/support/solutions/articles/22000211000-how-to-merge-multiple-pdf-with-pdfsharp-and-powershell Mit der DLL und dem PowerShell-Modul kannst Du aus Deinem Script einen Aufruf starten, der alle Dateien in einem Verzeichnis zusammenfügt, unabhängig deren Namen: $files = Get-ChildItem "C:\temp\PDF\Source" -Filter "*.pdf" MergePdf -Files $files -DestinationFile "C:\TEMP\PDF\Destination\test.pdf" -PdfSharpPath 'C:\pfad\zur\PdfSharp-gdi.dll'
  15. Der Unterschied von SSD zu HDD ist eigentlich sofort spürbar: beim Booten, beim Öffnen des Servermanagers etc. Habe den direkten Vergleich: einmal HP ProLiant ML30 mit 3x SATA HDD im RAID 5, einmal Intel NUC mit i7 und Samsung SSD. Das war mein letzter Server, auf dem ich SATA-Disks für VMs einsetze... Ich denke mit einer SSD wirst Du die Performance massiv verbessern können.
  16. Du könntest das Makro die Datei nach den Anpassungen passwortgeschützt speichern lassen: https://exceloffthegrid.com/vba-code-password-protect-excel-file/
  17. Das ist wohl kein Problem: Anleitung https://www.cisco.com/c/dam/en/us/td/docs/wireless/access_point/csbap/wap371/quick_guide/guide/QSG_ENGLISH.pdf, Seite 7: Power Solid (Amber): The Cisco WAP371 is powered on, booting, or in normal operation with External Power Adapter Grün ist die LED nur bei PoE.
  18. Wenn Rechner A ein Paket zu Rechner B schickt, welcher sich im gleichen Netz befindet, macht er einen ARP-Lookup und adressiert das Paket an die MAC-Adresse von Rechner B. Schickt er ein Paket an Rechner C, der sich in einem anderen Netz befindet, adressiert er das Paket an das Gateway, also schlussendlich an die MAC-Adresse des Gateways. Er kommt nicht auf die Idee, dass sich beide Netze am gleichen Switch befinden und versucht nicht, an die MAC-Adresse von Rechner C zu kommen. Was Du vielleicht meinst mit MAC-Adressen auf dem Switch: der Switch lernt, über welche Ports welche MAC-Adressen erreichbar sind, so dass er Pakete (im Gegensatz zum Hub) nicht über alle Ports schicken muss. Eine schnelle Lösung für Dein Problem könnte sein, einen routingfähigen Switch zu beschaffen. Die kosten nicht mehr so viel wie früher. Die Überarbeitung des Netzwerkkonzepts sollte aber trotzdem auf der Pendenzenliste bleiben.
  19. Die Windows Server Sicherung ist nicht ideal für die Sicherung übers Netzwerk. Zumindest früher wurde übers Netzwerk jedes Mal eine Vollsicherung erstellt. Veeam bietet eine kostenlose Software zur Sicherung von physischen Servern an: https://www.veeam.com/de/windows-endpoint-server-backup-free.html Arbeite schon einige Jahre damit und bin sehr zufrieden, sichere auch meine privaten Rechner so. Man kann auf ein NAS oder in ein Veeam Repository sichern. Besonders wenn ihr zur Sicherung der VMs schon Veeam einsetzt bietet sich diese Lösung an.
  20. Ich würde auf dem Notebook Windows 10 installieren, da gibt es sicher die richtigen Treiber dafür. Dann entweder mit dem Hyper-V von Windows 10 arbeiten, falls der reicht, oder sonst Nested Virtualization aktivieren (https://docs.microsoft.com/en-us/virtualization/hyper-v-on-windows/user-guide/nested-virtualization) und den Server 2012 R2 als virtuelle Maschine installieren. So kannst Du auch mehrere 2012 R2 parallel installieren, falls Du Cluster testen willst etc.
  21. Wenn Du das Backup auf den gleichen Server zurückspielst, sollte das funktionieren. Was die anderen Mitglieder gemeint haben mit "Host nicht sichern" war, dass man auf dem Host keine Daten hat. Muss man für die Wiederherstellung die Hardware wechseln, ist Windows schneller neu installiert als das Backup zurückgespielt, Treiber ausgetauscht etc. Sogar auf der gleichen Hardware ist man unter Umständen mit einer Neuinstallation schneller. Nämlich dann, wenn man Scripts hat, welche die Netzwerkeinstellungen etc. konfigurieren.
  22. mwiederkehr

    Frage zu DFS

    Es gibt schon noch Anwendungsgebiete, aber die sind nicht mehr so zahlreich, wie man am Anfang vielleicht gemeint hat. Beispiel aus der Praxis: eine Firma, mehrere Standorte. Einige Mitarbeiter arbeiten an verschiedenen Standorten (aber immer nur an einem gleichzeitig). Profile replizieren und der Mitarbeiter kann sich schneller anmelden. Oder Luftbilder: riesige Bilddateien, die man nur einmal jährlich bekommt und die dann read-only sind und auf Plänen als Hintergrundbild eingebunden werden. So können alle Standorte mit den Dateien arbeiten, ohne sie über WAN übertragen zu müssen und ohne händische Kopieraktionen. Für diese Fälle war DFS-R in Zeiten teurer Bandbreite ein grosser Vorteil. Mittlerweile läuft aber alles zentral und die Leitung wurde auf Gbit-Glasfaser umgestellt.
  23. Nein, bis jetzt noch nicht. Es hat immer alles funktioniert und die Doku ist auch umfangreich. Support scheint in erster Linie über das Forum zu laufen, dort schreiben auch Mitarbeiter von Ubiquiti. Muss aber dazu sagen, dass wir nur immer "einfache" Sachen wie mehrere SSID und Vouchers benötigt haben. Traffic Shaping etc. machen wir auf der Firewall.
  24. Beim grössten Kunden sind es ca. 75 Mitarbeiter, verteilt auf drei Stockwerke. Die haben jeweils ein Smartphone und etwa ein Drittel davon hat noch ein Notebook. Dazu kommen bei Sitzungen noch diverse Gäste. Das geht gut mit drei Access Points. (Die Anzahl Clients pro AP war bei meinen Installationen noch nie ein Problem, die Reichweite hat immer die Anzahl benötigter Access Points bestimmt.) Die Daten gehen direkt vom AP aufs LAN. Der Controller wird nur für die Konfiguration benötigt oder eben für die Voucher. Setze UniFi auch bei kleinen Kunden ohne Server ein, dort installiere ich den Controller einfach auf einem Rechner, richte ihn aber nicht als Dienst ein. Gefallen hat mir, dass die Access Points den Controller bei korrekter Konfiguration von DHCP oder DNS automatisch finden, auch über Netzwerkgrenzen hinweg. Braucht ein Aussenstandort einen zusätzlichen AP, kann man den direkt dort hin schicken. (Wobei das wahrscheinlich die anderen Anbieter auch können.)
  25. Ich setzte meist UniFi ein und da meist die Long Range Access Points. Da reicht je nach Gebäude einer pro Etage. Mehrere SSID in verschiedenen VLANs sind kein Problem. Vouchers funktionieren auch, aber dafür muss entweder der Controller als Dienst auf einem Server laufen oder man braucht noch das Security Gateway. Mir wurde schon von guten Erfahrungen mit den Lösungen von Fortinet und WatchGuard berichtet. Die sind aber in einer anderen Preisklasse und machen nur Sinn, wenn man die Firewalls des Herstellers nutzt.
×
×
  • Neu erstellen...