Jump to content

mwiederkehr

Expert Member
  • Gesamte Inhalte

    1.522
  • Registriert seit

  • Letzter Besuch

Beiträge erstellt von mwiederkehr

  1. ownCloud unterstützt WebDAV, Du musst also nicht den Umweg über eine Laufwerksverknüpfung oder die Synchronisation über den Client machen.

     

    Wenn Du ein Backup-Tool möchtest, kann ich https://www.duplicati.com/ empfehlen. Das erstellt ZIP-Archive mit den geänderten Dateien, verschlüsselt sie und lädt sie auf einen Speicherdienst (unter anderem über WebDAV).

     

    Wenn Du nur eine bestehende ZIP-Datei per WebDAV übertragen möchtest, ist https://rclone.org/ eine gute Wahl.

     

    Es kann aber nicht schaden, sich grundsätzliche Gedanken über die Backupstrategie zu machen. Eine ZIP-Datei irgendwo hochzuladen ist nicht unbedingt die beste Methode.

  2. vor 7 Stunden schrieb NorbertFe:

    Komischer Hoster der sowas sagt. ;)

    Das ist eigentlich schon fast normal in der Branche, jedenfalls bei den günstigeren Anbietern. "Wir bieten bei der Bestellung nur Linux an, aber man kann eigene ISOs mounten. *zwinker* Windows läuft problemlos auf $Hypervisor. *zwinker*"

    vor einer Stunde schrieb lizenzdoc:

    Wenn dies alles unklar ist > SPLA Miet-Lizenzen, auschließlich die Lizenzierungs-Verantwortung beim Hoster.

    Kann man nicht selbst einen SPLA-Vertrag für solche Server abschliessen? Oder geht das nur bei Azure? Dort in den FAQ steht, dass sie keine RDS-CALs anbieten, man aber bei seinem Partner einen SPLA-Vertrag machen und die Lizenzen darüber beziehen kann.

     

    Würde aber auch eher zu einem Hoster gehen, das das gleich sauber anbietet. Hoster, die heute kein SPLA anbieten, haben meist keine Erfahrung mit Windows oder sind auf Massenhosting spezialisiert, wo der Preis wichtiger ist als die Qualität.

  3. Ich denke für die zentrale Verwaltung braucht man mindestens die Workstation-Lizenz: https://www.veeam.com/de/veeam_agent_windows_2_1_editions_comparison_ds.pdf

     

    Bezüglich XP: Ich nehme an, bei den XP-Kisten ändert die Software nicht mehr, nur noch die Daten? Stand vor einiger Zeit vor dem gleichen Problem, mit CNC- und Messmaschinen mit Unix, Windows 2000 und XP. Wir haben dann von jeder Maschine offline ein Image gemacht (mit dd unter Linux). Dieses abgelegt und auf eine zweite Disk zurückgespielt. Dies, um es testen zu können und damit man im Fehlerfall Zeit spart. Die sich ändernden Daten werden per Script (rsync bzw. robocopy) auf den Server kopiert.

     

    Steigt eine Disk aus, kann man sie austauschen, booten und die Dateien zurück kopieren.

     

    Bei XP könntest Du auch wöchentlich Disk2VHD laufen lassen, aber inkrementelle Backups sind natürlich besser.

  4. Denke auch, dass der Defender ausreicht. Signaturbasierte Erkennung ist seit einiger Zeit sowieso nicht mehr grossartig wirksam, da hilft auch ein teurer Virenscanner nicht. Die anderen Sachen filtert man besser am Gateway. Dort wenn möglich nicht signaturbasiert, sondern nach Dateityp. Ich verbiete den Usern lieber grundsätzlich, .exe, .vbs etc. herunterzuladen als mich darauf zu verlassen, dass der Virenscanner eine gefährliche Datei erkennt.

  5. Ich würde das Problem auch eher beim Router suchen. Denn der PC schickt die Pakete ja ans Gateway und das entscheidet, wohin sie weitergeleitet werden. Der PC kann einem Paket keine falschen Routinginformationen anhängen.

     

    Funktioniert es, wenn der PC eine andere IP hat? (Vielleicht eine, die sonst ein anderer PC hat?)

     

    Mir fallen zwei mögliche Ursachen ein:

    - Tunnel ist zu eng (zum Beispiel von 192.168.178.1-192.168.178.250, der PC hat aber 192.168.178.251 bekommen)

    - es existiert eine Policy Route auf dem Gateway, welche ins Internet zeigt (eher unwahrscheinlich, das hätte jemand bewusst einrichten müssen)

  6. Es kommt auf die Art der Tests an:

     

    - Um neue Versionen vom ERP zu testen steht ein Server zur Verfügung, welcher Mitglied der Domäne ist. So können der externe Dienstleister und der Finanzchef (welcher jedes Update freigeben muss) problemlos darauf zugreifen, Ausdrucke testen etc. Vor einem Test wird jeweils die aktuelle Datenbank vom Produktivsystem importiert.

     

    - Muss getestet werden, ob der Exchange auch nach der Installation CU xy noch läuft, klonen wir ihn inkl. einem DC und der Software, die darauf zugreift (Terminalserver mit Outlook, Control Panel etc.). So können wir die Auswirkungen auf die jeweils aktuell vorhandene Umgebung testen, ohne jeweils separat Outlook etc. in der Testumgebung updaten zu müssen. Diese Systeme laufen dann auf eigenen vSwitches, je nachdem mit NAT und Port Forwarding über ein virtuelles pfSense.

     

    - Für Tests, die unabhängig von der bestehenden Umgebung durchgeführt werden sollen, verwenden wir ein separates Testnetz mit unabhängiger Domäne. Eine Art DMZ, es gibt auch eine externe Domain mit Wildcard-Zertifikat dafür. Immer mehr wird aber auch direkt auf den Notebooks gemacht, vor allem wenn Lehrlinge an einem Projekt auch zuhause oder in der Schule weiter arbeiten wollen.

  7. Dann wird das Problem bei RackTables liegen, bzw. die Ansteuerung ist falsch. Kann man Attribute setzen, indem man ein neues Objekt schickt? Oder muss man das Objekt zuerst erstellen (was ja funktioniert hat) und die Attribute dann separat setzen, mit der ID des Objekts als Parameter? Kenne RackTables nicht, aber bei einer Datenbank macht man ja auch erst ein INSERT und Änderungen dann über die ID, nicht indem man den ganzen Datensatz noch einmal schickt.

  8. Da Variablen werden korrekt expandiert. Du hast aber hinten eine schliessende Klammer zu viel. Wenn es auch nach Korrektur nicht geht, solltest Du mal schauen, was der Server sagt, also

    $req = Invoke-WebRequest ...
    $req.Content

    (oder allenfalls $req.RawContent)

     

    Falls das Problem nicht die PowerShell ist, sondern die Anfragen anders zusammengestellt werden müssen, kann https://www.getpostman.com/ helfen. Damit kann man solche Requests zusammenstellen, abschicken und die Antwort lesen. Ist zum Debuggen etwas komfortabler als direkt mit der PowerShell.

  9. Das ist auch kein JSON mehr. :smile: Mein Beispiel war vielleicht etwas zu spartanisch. So habe ich es eigentlich gemeint (mit geschweiften Klammern):

    $data="{""name"":""$servername"",""type"":""VM"",""label"":""$funktion"",""attributes"":{""Ansprechpartner"":""$verantwortlicher"",""ESX-Cluster"":""Standard"",""CPU-Anzahl"":""8"",""Betriebssystem"":""$os,""ServiceRequest"":""REQ-$jahr-$request"",""KST"":""$kst)""}}"

     

  10. Evtl. geht es mit "add addressmapping". Siehe https://docs.microsoft.com/en-us/previous-versions/windows/it-pro/windows-server-2008-R2-and-2008/cc754535(v%3dws.10), zuerst Routing installieren (https://deploymentresearch.com/Research/Post/387/Install-a-Virtual-Router-based-on-Windows-Server-2012-R2-using-PowerShell).

     

    Besser wäre es aber, die IP zu ändern. Ist diese fix im Programm einkompiliert? Wenn Du die Sourcen nicht mehr hast, könnte man sie evtl. mit einem Hex-Editor anpassen.

  11. Dynamische Disks sind nicht supported? Wusste ich bis jetzt nicht. Auf https://technet.microsoft.com/en-us/library/jj619301(v=exchg.160).aspx steht:

    Zitat

    The storage used by the Exchange guest machine for storage of Exchange data (for example, mailbox databases and transport queues) can be virtual storage of a fixed size (for example, fixed virtual hard disks (VHD or VHDX) in a Hyper-V environment), dynamic virtual storage when using VHDX files with Hyper-V, SCSI pass-through storage, or Internet SCSI (iSCSI) storage.

    Aber dynamisches Memory ist klar, macht ja auch keinen Sinn bei einer Datenbank. Ist wie "SQL Server nachts neu starten, damit RAM frei wird". :smile:

  12. Vielleicht ein Hinweis aus der Praxis, um die Grössenordnung abzuschätzen: Exchange 2013 mit ca. 500 Postfächern, Mitglied einer DAG. Logs aktiviert (IIS und Connectoren), aber mit dem von "Testperson" geposteten Script nach sieben Tagen gelöscht. Windows und Exchange auf C:, Queues auch, Datenbanken und Transaktionslogs auf anderer Partition.

     

    Aktuell sind von 125 GB noch 30 GB frei. Würde ich den Server heute installieren, würde ich gleich mit 200 GB beginnen. Dank "thin Provisioning" bzw. dynamischen VHDX wird ja nur der tatsächlich benötigte Platz belegt und Speicher kostet nicht mehr die Welt.

  13. HPE hat Microcode-Updates für diverse Server zurückgezogen:

    https://support.hpe.com/hpsc/doc/public/display?docId=emr_na-a00039784en_us&hprpt_id=HPGL_ALERTS_1997685&jumpid=em_alerts_us-us_Jan18_xbu_all_all_1422961_1997685_SynergyServersMoonshotSystems_critical__&DIMID=EMID_72E7628E3A0715627796F604F977455F/

     

    Laut Artikel hat Intel Probleme gemeldet und arbeitet an einem neuen Update. Geht wohl um die unerklärlichen Abstürze, von denen im Heise-Artikel die Rede war.

  14. Eigentlich sollte es schon gehen, Client Zertifikate sind ja in etwa ein umgekehrter Handshake und dann eine neue TLS-Verbindung. Wireshark muss natürlich den private Key des Client Zertifikats ebenfalls haben.

     

    Aber verwendet die Verbindung evtl. PFS? Dann ist eine nachträgliche Entschlüsselung nicht möglich, selbst wenn man die Private Keys hat.

     

    Ein Proxy wie Fiddler ist deshalb wohl die bessere Lösung.

  15. Im Gegensatz zu produktiven Servern haben Testserver im Homelab meist viel weniger zu tun. Deshalb sollten Consumer SSD recht lange halten.

     

    Habe gerade auf meinem Server mit einer Samsung SSD EVO nachgeschaut, in Betrieb seit Herbst 2015. Auf dem Server laufen um die fünf VMs, Windows und Linux, einmal SQL, einmal Exchange. Total geschrieben wurden bisher 23 TB. Samsung nennt keine Disk Writes per Day, aber gibt eine Garantie bis 75 TB. Demnach sollte die SSD noch 5 Jahre halten.

     

    In einem MSA P2000 G3 haben wir mal drei Samsung SSD installiert und darauf eine Kopie der produktiven Umgebung für Testzwecke laufen lassen. Die hatte mehr Last und nach knapp drei Jahren sind zwei der drei SSD fast gleichzeitig ausgefallen. Im Gegensatz zu den teuren SSD von HP natürlich ohne Vorwarnung.

  16. Lt. Dem Blog Blog  nur, wenn der  Schutz gegen "untrusted code" aktiviert ist. Leider schweigt sich MS darüber aus, was genau "untrusted code"  ist und wie man den erkennt.

    Mit "untrusted code" meinen sie wohl Code, welcher ungeprüft von aussen kommt und ausgeführt wird. Also zum Beispiel Terminalserver (Benutzer lädt Programm herunter) oder Webserver (Hostingkunde lädt PHP-Anwendung hoch). Ein Fileserver fällt nicht darunter und dort muss die Mitigation nicht aktiviert werden, wenn ich die Doku richtig verstanden habe.

     

    Wohl deshalb ist die Mitigation auf Servern nach der Installation des Updates nicht automatisch aktiviert, sondern muss per Registry aktiviert werden.

     

    Microsoft nennt unter https://support.microsoft.com/en-us/help/4072698/windows-server-guidance-to-protect-against-the-speculative-execution drei Fälle, in welchen die Mitigation aktiviert werden sollte:

    - Hyper-V Hosts: damit nicht von einer VM auf den Speicher einer anderen VM zugegriffen werden kann

    - Terminalserver: da läuft fast immer "untrusted code", und sei es nur JavaScript im Browser

    - Server, auf denen "untrusted code" läuft wie Webserver

     

    Ganz allgemein halte ich die Aufregung für etwas übertrieben. Einerseits soll sich die Lücke nicht so gut ausnutzen lassen wie zuerst befürchtet (Meltdown soll nur auslesen können, was im L1-Cache ist) und andererseits sehe ich (noch) kein Szenario für flächendeckende Angriffe. Zielgerichtete Angriffe auf lohnenswerte Ziele auf jeden Fall, aber was bringt es einem Angreifer, wenn er mit viel Aufwand ein Zertifikat für kleinfirma.de aus dem Speicher extrahieren kann?

     

    Vielleicht bin ich zu ängstlich, aber ich halte die Installation von frisch dem Compiler entschlüpften Microcode-Updates auf allen Hosts für das grössere Risiko für den stabilen Betrieb als die offenen Lücken. Habe deshalb nur die Hosts gepatcht, auf denen VMs mit "untrusted code" laufen und noch nicht ganze Cluster.

  17. Mit dem Sejda SDK (http://sejda.org/) sollte es gehen von der Kommandozeile aus. Nachteil: benötigt Java.

     

    Falls PowerShell eine Option ist: damit kann man direkt .NET-Libraries ansteuern und für .NET gibt es gute PDF-Tools. Ein Beispiel für die Nutzung von PDFSharp: http://support.coolorange.com/support/solutions/articles/22000211000-how-to-merge-multiple-pdf-with-pdfsharp-and-powershell

     

    Mit der DLL und dem PowerShell-Modul kannst Du aus Deinem Script einen Aufruf starten, der alle Dateien in einem Verzeichnis zusammenfügt, unabhängig deren Namen:

    $files = Get-ChildItem "C:\temp\PDF\Source" -Filter "*.pdf"
    MergePdf -Files $files  -DestinationFile "C:\TEMP\PDF\Destination\test.pdf" -PdfSharpPath 'C:\pfad\zur\PdfSharp-gdi.dll'
    
  18. Der Unterschied von SSD zu HDD ist eigentlich sofort spürbar: beim Booten, beim Öffnen des Servermanagers etc.

     

    Habe den direkten Vergleich: einmal HP ProLiant ML30 mit 3x SATA HDD im RAID 5, einmal Intel NUC mit i7 und Samsung SSD. Das war mein letzter Server, auf dem ich SATA-Disks für VMs einsetze...

     

    Ich denke mit einer SSD wirst Du die Performance massiv verbessern können.

×
×
  • Neu erstellen...