Jump to content

mwiederkehr

Expert Member
  • Gesamte Inhalte

    1.522
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von mwiederkehr

  1. So sollte es gehen (noch den Set-Acl-Befehl einfügen): Get-ChildItem -Path "C:\temp" -Depth 1 -Dir | Where {$_.Mode -notmatch "a"} | ForEach-Object { #hier Set-Acl machen auf $_.FullName }
  2. Für das Mailarchiv kann ich MailStore empfehlen. Einfach in der Verwaltung, günstig, schnelle Suchfunktion. Es ist zwar ein Archiv, aber einige Kunden nutzen es täglich, der guten Suchfunktion wegen. Achtung: falls man fremden Leuten Zugriff auf das Archiv gibt, muss das den Mitarbeitern bekannt sein bzw. am besten die private Nutzung des geschäftlichen Mailaccounts verbieten. Bei einem Architekturbüro werden viele Pläne vorhanden sein. Ich weiss nicht, wie gut sich die in SharePoint integrieren lassen, nur Office hat ja eine direkte Integration. Bei meinen Kunden aus diesem Bereich liegen die Dateien auf einer Serverfreigabe. Wichtig ist eine fixe Struktur, zB: \Gemeinde\ProjektNr-Projekt\Offerten etc. Auf Ebene "ProjektNr-Projekt" können nur Abteilungsleiter Verzeichnisse erstellen oder löschen. Die Mitarbeiter sind angewiesen, alle Mails zu einem Projekt aus Outlook heraus in den entsprechenden Projektordner zu exportieren. Durch ein nicht allzu grosszügig eingestelltes Postfachlimit wird verhindert, dass X Entwürfe eines Planes im Postfach liegen bleiben. Ist ein Projekt abgeschlossen, wird es archiviert. Das heisst, es wird auf eine andere Freigabe verschoben, auf der nur die IT Schreibrechte hat. Diese liegt auf SATA-Speicher und wird nur wöchentlich gesichert. Muss man ein Projekt wieder bearbeitbar haben (kommt selten vor), verschiebt es die IT zurück auf die normale Freigabe. Hin- und her-Mailen von Dokumenten und Plänen zu externen Firmen wird durch eine Installation von ownCloud ersetzt. Externe Firmen können über Links Dateien hoch- und runterladen. So kommt man mit 2 GB Postfachgrösse für die Mitarbeiter und 5 GB für die Geschäftsleitung durch.
  3. Als ich vor einem Jahr einen Kunden von Small Business auf Business Premium gewechselt habe, hat sich Office beim nächsten Start automatisch rekonfiguriert. Es war wie eine Art Reperaturinstallation. Auf jeden Fall wurden alle Einstellungen, OneDrive-Daten etc. beibehalten.
  4. In diesem Fall kommt vom Befehl also kein Fehler. Weisst Du, wo die Datenbank läuft? Dort wird es eine Tabelle "user" oder ähnlich haben, mit den Benutzern und den Passworthashes. Man kann dort einen Hash eines bekannten Passworts einfügen, dann sollte man sich wieder anmelden können. So wie ich gesehen habe verwendet IMC eine SQL Datenbank.
  5. Auf Anhieb kann ich keinen Fehler erkennen. Füge doch mal zu unterst "pause" ein und starte die Datei nochmal. Dann würdest Du allfällige Fehler sehen.
  6. Was steht denn in der .bat? Evtl. kann sie nicht auf die Datenbank verbinden? Du solltest sonst direkt in der Datenbank das Passwort zurücksetzen können (mit dem SQL Management Studio oder über die Kommandozeile).
  7. Ja, der reicht meiner Meinung nach gut. Bei neuen Viren ist die Erkennungsrate sowieso bei allen Scannern nicht ideal. Viel wichtiger ist deshalb ein auf Vorsicht geschulter Benutzer und aktuelle Software. (Braucht er Java? Wahrscheinlich nicht, also weg damit usw.)
  8. Die SMTP-Funktionen sollten weiterhin funktionieren. Hier ein Beispielcode für den Mailversand über Office 365: https://clicdatacoder.wordpress.com/2012/07/13/sending-smtp-mail-via-office-365-exchange-using-cdo-message-and-other-applications/
  9. Kann nur für mich sprechen: habe bei diesen Themen nie ein Buch für notwendig gehalten. Stattdessen habe ich das klassische Learning-by-Doing angewandt: Office 365 ist extrem vereinfacht ein Hosted Exchange. Man kann viel der bisherigen Exchange-Erfahrung nutzen. Für den Rest habe ich mich auf die sehr gute Doku von Microsoft und auf Websites verlassen. Hatte nie Probleme, wobei meine Kunden auch nur Mail, Office, OneDrive und SharePoint nutzen, also eher "klassische" Dinge und keine neuen Funktionen wie Delve, Stream und wie sie alle heissen. Azure hat derart viele Funktionen, dass ich mir an Deiner Stelle zuerst einen Überblick verschaffen würde, was für Dich relevant ist. Auf https://azure.microsoft.com/en-us/pricing/ gibt es eine Übersicht. Wenn Du idealerweise ein Testprojekt hast, machst Du einen Account und probierst es aus. VM erstellen, eine Woche später die Frage "wie vergrössere ich eine Disk?", VPN-Gateway etc. Die Dokumentation unter https://docs.microsoft.com/en-us/azure/ gibt viel her, wenn man sich einmal informiert hat, welches der zahlreichen Angebote für den gewünschten Einsatzzweck geeignet ist.
  10. Vielen Dank für die Tipps! Die automatischen Neustarts werde ich deaktivieren und auf einen BSOD hoffen. Bin aber nicht so zuversichtlich, denn Dumps sind aktiviert und es gibt einen Dump von früher, als der Server einen BSOD hatte. Die Integration Services haben die Version 6.3.9600.18080, also nicht ganz aktuell. Windows Updates sind aber aktuell (auf der VM, auf dem Host nicht so). Wenn ich es richtig verstehe, kommen die aktuellen Integration Services vom Host und nicht direkt per Windows Update auf die VM? CPUs im Host sind Intel Xeon L5640. Die scheinen vom erwähnten Bug nicht betroffen zu sein.
  11. Hallo zusammen Habe ein merkwürdiges Problem bei einem Cluster mit Server 2016, bei dem ich mich über Hinweise zur Fehlersuche freuen würde. Eine VM mit Windows 2012 R2 läuft auf einem Cluster mit Server 2016. In unregelmässigen Abständen startet die VM neu. Manchmal alle paar Tage, heute aber schon drei Mal. Auf der VM selbst sehe ich nichts, nur dass sie unerwartet neu gestartet wurde. Es wird kein Dump geschrieben. Auf dem Host sehe ich eine Meldung, dass die Rolle nicht verfügbar sei und neu gestartet werde. Aufgrund der Tatsache, dass die VM keinen Dump schreibt, gehe ich von einem Problem "ausserhalb", sprich beim Hypervisor, aus. Dort gibt es aber keine Fehler und es laufen ca. 20 andere VMs auf dem Cluster ohne Probleme. Das Verschieben der VM auf einen anderen Host hat ebenfalls nichts gebracht. Die Diagnose gestaltet sich etwas schwierig, so ganz ohne Fehlermeldungen... Hatte jemand schon ein ähnliches Problem? Vielen Dank für eure Hinweise!
  12. Wie schon geschrieben wurde, ist NLB eine schlechte Wahl für Deinen Einsatzzweck. Der NLB kann nicht prüfen, ob ein Dienst verfügbar ist, nur, ob der Host verfügbar ist. Ein Problem beim SMTP-Dienst erkennt er also nicht. Will man erweiterte Prüfungen, muss man die selbst implementieren. Also ein Script machen, welches bei einem Fehler den fehlerhaften Host deaktiviert. Microsoft stellt ein Beispiel zur Verfügung: https://msdn.microsoft.com/en-us/library/windows/desktop/cc307934(v=vs.85).aspx Heutzutage würde man das mit PowerShell machen. Es ist und bleibt aber ein Gebastel. Wenn eine Prüfung, ob Port 25 erreichbar ist, reicht, kann man das Load Balancing je nach Hersteller direkt auf der Firewall konfigurieren.
  13. Man kann es gut mit gparted machen. Hatte auch noch nie Probleme wie eine kaputte Partition danach. Ein aktuelles Backup ist bei solchen Aktionen aber trotzdem Pflicht. Falls Du versucht bist, vor der Aktion einen Snapshot zu machen: Vorsicht, der wird sehr gross, da viele Daten angefasst werden (mindestens so viele, wie C: auf Kosten von D: grösser wird)! Die Variante "neues D: machen, Daten kopieren" ist je nachdem aber mit weniger Downtime verbunden: neue Disk als E: anhängen, Daten kopieren mit "robocopy /MIR" (damit die NTFS-Berechtigungen übernommen werden), Start Downtime (Dienste stoppen), nochmals "robocopy /MIR" um die Differenz zu kopieren, D: abhängen, E: als D: anhängen, Dienste starten, testen.
  14. Die Switches von Dell kenne ich nicht, aber normalerweise vereinigt Stacking mehrere Switches zu einem einzelnen, grossen Switch. Das gilt für das Management (alles über eine Oberfläche) und den Datenaustausch. Innerhalb eines Switches hat man ja auch keine Trunks.
  15. Ja, nach meiner Erfahrung schon. Zumindest bei OEM-Versionen. Im Frühling habe ich einen 8 Jahre alten Rechner von HP upgegradet bzw. SSD eingebaut und per USB-Stick neu installiert. Kürzlich das Gleiche mit einem Rechner von Asus. Habe jeweils den Windows 7-Key genommen, der auf dem Gehäuse aufgeklebt war. Windows 10 war dann sofort aktiviert in der jeweiligen Edition (Home / Pro). Man muss also nicht mal upgraden, es geht auch bei Neuinstallationen.
  16. Storage kannst Du mit Windows machen. Damit Du dann nicht vier Server (zwei Storage, zwei Hyper-V) hast, könntest Du es mit zwei machen. Das wäre dann hyper-converged: https://docs.microsoft.com/en-us/windows-server/storage/storage-spaces/hyper-converged-solution-using-storage-spaces-direct Glaubt man den Marketingleuten, ist das die Zukunft. Habe das erst im Testbetrieb ausprobiert, aber bin skeptisch: man braucht allen Speicher mehr als doppelt und eine gute Netzwerkinfrastruktur. Ist also nicht grundsätzlich günstiger als shared storage. Ich wende zwei Strategien an, um die Verfügbarkeit zu erhöhen: 1.) Bei grösseren Umgebungen oder wenn viel Speicher benötigt wird: zentraler Speicher (meist HP MSA oder wenn das Budget da ist 3PAR) und dann ein Cluster mit mehreren Hosts. 2.) Bei kleineren Umgebungen: zwei Hyper-V, welche die Server auf den jeweils anderen replizieren mit Hyper-V Replica. Gerne kann der zweite Server an einem anderen Standort sein. Die Replikate können je nach Bandbreite sehr aktuell gehalten werden. Aber ein Failover bedingt in jedem Fall einen Neustart der VM. Dafür können die Replikate von älteren Snapshots gestartet werden, also zum Beispiel so, wie sie vor einer Stunde waren. In Deinem Fall hätte shared storage nicht geholfen. Du solltest Dir unabhängig vom Speicher Gedanken über die Rückhaltezeit der Backups machen. (Mit Hyper-V Replica kann man zwar auf alte Versionen zurück, aber darauf verlassen würde ich mich nicht. Auch Schattenkopien sind ja kein Ersatz für eine Sicherung.)
  17. Wenn auch das Kopieren einer Datei vom Host langsam ist, kann man Veeam wohl ausschliessen. (Aber Du solltest damit dann trotzdem keine 130 MB/s erwarten, der muss ja komprimieren, deduplizieren etc.) Würde den Fehler deshalb bei der Netzwerkkarte des Hyper-V vermuten, welche für den Zugriff aufs NAS verwendet wird. Hat ein Ping vom Hyper-V auf das NAS eine ungewöhnlich hohe Latenz? Hatte mal das Problem bei einem HP Server, dort war die Lösung dann ein Update des Treibers und der Firmware der Netzwerkkarte. Gehen die Daten über die richtige Netzwerkkarte oder nehmen sie evtl. den Umweg über ein Gateway, welches nicht schnell genug ist?
  18. PathFinder, Du sprichst mir aus der Seele! Die halbjährlichen grossen Updates nerven aus meiner Sicht auch wesentlich mehr als sie bringen. - Der Kunde schaut dem Update zu und kann nicht arbeiten während 30-40 Minuten. - Die Oberfläche ändert sich manchmal, plötzlich ist die Bedienung anders. - Es gibt immer wieder Probleme: bei Deinen Infrarotkameras, bei mir weil der RDP-Client nicht mehr über ein Gateway verbinden konnte (wurde einen Monat später behoben) und weil das Windows Mobile-Gerätecenter nicht mehr funktioniert hat (musst durch einen Registry-Key behoben werden). - Und das alles für Features, die eigentlich niemand braucht. 3D im Paint, neues Cortana etc. Eine gute Lösung kenne ich leider nicht. Bei einzelnen Clients und solchen ohne WSUS stelle ich die Featureupdates um 365 Tage (Maximum) zurück. In grösseren Umgebungen verhindert ein WSUS unangenehme Überraschungen. Insgeheim hoffe ich immer noch, dass Microsoft die Bedürfnisse des Mittelstandes erkennt und wieder eine Version im Einzelverkauf anbietet, die über Jahre nur Sicherheitsupdates erhält.
  19. Wenn die Geräte SMTP-Auth und TLS können, hänge ich sie in kleineren Umgebungen direkt an Office 365 an. Leider ist dies immer noch nicht bei allen Geräten der Fall. Dann installiere ich auf einem internen Server hMail. Der ist gratis und schnell konfiguriert.
  20. Den Zustand der Hardware auszulesen ist herstellerabhängig. Bei HP ist es so, dass man den Zustand per SNMP abfragen kann, wenn man die Management Agents installiert hat. Bei anderen Herstellern wird das ähnlich sein. Je nachdem gibt es auch Tools des Herstellers, die eine Mail schicken können, wenn eine Disk etc. defekt ist (bei HP ist das der "Event Notifier). Aber so als Tipp: Hast Du Dir PRTG angeschaut? Damit ist die Überwachung einfacher als mit selbst geschriebenen Scripts.
  21. Es gibt einen microSD-Reader mit RAID 1 von HP: https://www.hpe.com/ch/de/product-catalog/servers/flash-media-devices/pip.hp-dual-8gb-microsd-enterprise-midline-usb-kit.6339687.html Bin aber nicht sicher, ob der nur an den Servern läuft. Ansonsten würde ich statt eines klassischen Sticks eine USB-SSD nehmen. Die gibt es inzwischen auch in Stick-Form. Von der Technik her sollten die länger halten.
  22. Danke für den Tipp! Meine Kunden wollen die Daten aber in der Schweiz haben. :) Wobei es auch hier entsprechende Angebote gibt (einige Provider bieten sogar schon Azure Stack an), aber halt nur für den entsprechenden Preis. Für eine mittelgrosse Umgebung sind 50 Fr./Monat für einen VPN-Tunnel nicht zu viel, zumal man sich dann um nichts gross kümmern muss. Aber wenn es um ein oder zwei Benutzer geht wird es schwieriger. Habe noch etwas getestet und es hinbekommen mit dem Server 2016. Falls es in Zukunft jemanden interessieren sollte: Mit RRAS ("Demand-dial Interface") habe ich es nicht zum Laufen gebracht. Mit der Windows Firewall und einer "Connection Security Rule" ("Verbindungssicherheitsregel") läuft es. Mein Fehler war, dass ich auf der Firewall IKEv2 gewählt habe, weil RRAS nur das unterstützt. Die Windows Firewall nimmt aber immer IKEv1... Der Tunnel steht und Verkehr geht in beide Richtungen durch. Nicht hinbekommen habe ich Routing. Kann auch keine Route erstellen, da es für den Tunnel kein Interface gibt. Aber das ist nicht wichtig in so kleinen Umgebungen. Wenn man mehrere Server hat, kann man sich ein VPN beim Provider mieten oder eine Firewall-Appliance in einer VM laufen lassen. Ist praktisch, eine solche Lösung mit Bordmitteln zu haben, aber ein Ersatz für eine richtige Firewall ist es natürlich nicht.
  23. Dukel hat schon recht: S3 kommt von Amazon, wird aber mittlerweile von vielen Anbietern "nachgebaut". (Ähnlich wie ActiveSync von Microsoft, das geht schon lange nicht mehr nur mit Exchange.) Die Chancen stehen also nicht so schlecht, dass Dein Dienstleister das anbietet. Zumal es sich zu einem De-facto-Standard in dem Bereich entwickelt hat.
  24. Der Kunde vertreibt eine Branchenlösung für Autowerkstätten. Bei grösseren Werkstätten installiert man die auf dem Server vor Ort, bei mittelgrossen Firmen (so ab 5-7 Benutzern) hat man bis jetzt einen gehosteten virtuellen Server genommen mit VPN vom Provider. Da ging das auch mit den Kosten. Das Problem sind die vielen kleinen Werkstätten, so in der Grösse 1-3 PC-Benutzer. Die habe ich bis jetzt jeweils knapp zu einem HPE ProLiant ML30 überreden können, damit "einen PC laufen lassen" wegfällt. Nur ist das auch keine so tolle Lösung. Backup vor Ort, weil Online Backup zu teuer (und "da bricht eh niemand ein"). Etc. etc... Deshalb dachte ich, man könnte diese Werkstätten auf gehostete virtuelle Server migrieren. Von den Kosten her ginge das mittlerweile und SPLA können auch immer mehr Anbieter. Nur eben VPN wird benötigt, gemappte Drucker gehen nicht wegen Schachtsteuerung, Scan2Folder etc. Es wäre schön, wenn man für so einfache Szenarien kein VPN-Gateway benötigen würde. Deswegen habe ich mich mal an einen Versuch mit der Terminierung des VPN auf dem Server gewagt und gehofft, dass jemand hier schon so etwas im Einsatz hat.
  25. Danke für den Link testperson! Das Gateway ist mir bekannt. Es geht mir aber grundsätzlich nicht um Azure, habe dort nur den Testserver gemacht, weil das dank dem Guthaben vom Action Pack die schnellste und günstigste Möglichkeit war, für ein paar Tage einen externen Server zu mieten. Die produktiven Server werden nicht alle bei Azure stehen, sondern bei einheimischen Dienstleistern. Diese bieten teilweise keine VPN-Dienste an oder nur zu einem hohen Preis. Deshalb dachte ich, ich probiere es mal ohne, da der Server 2016 ja IKEv2 unterstützt. Wenn ich aber sehe, dass man keine Tutorials dazu findet, muss ich aber fast davon ausgehen, dass die Funktion nicht so häufig genutzt wird. Oder aber von Leuten, die keine Tutorials brauchen. :)
×
×
  • Neu erstellen...