Jump to content

mwiederkehr

Expert Member
  • Gesamte Inhalte

    1.514
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von mwiederkehr

  1. Nils hat einen guten Punkt angesprochen, den Support von Microsoft. Nur als Ergänzung: Bei Veeam sollte man immer "enable application-aware image processing" anhaken. Nur so wird dem gesicherten Betriebssystem und den Anwendungen mitgeteilt, dass eine Sicherung durchgeführt wurde.
  2. Danke für eure Beiträge. Die Rechner, die ich verkaufe, haben alle Windows 10 Pro installiert und eine mehrjährige Vor-Ort-Garantie. Aber die Landwirte sind im ganzen Land verteilt und haben meist schon einen Rechner, bzw. kaufen einen im Media Markt, wie @Dr.Melzer so schön geschrieben hat. @surfacing: Wenn gar keine Updates mehr kommen, ist die getaktete Verbindung wohl der falsche Weg. WSUS Offline kenne ich, aber das werde ich nicht empfehlen, das braucht schon nach ein paar Monaten niemand mehr... @Dr.Melzer: Mein Kunde hat bei neuen Windows-Versionen immer getestet, aber nicht bei den Feature-Upgrades. Hätte ich nicht gedacht, dass die solche Probleme machen. Wobei man der Fairness halber sagen muss, dass die letzte Version vom Windows Mobile Gerätecenter für Vista erschienen ist... @testperson: Open-Vertrag ist wohl schwierig bei einem bis zwei Rechnern pro Standort. :) An den Handhelds wird definitiv gearbeitet, die nächste Version läuft auf Android und kommt per WLAN direkt ins Internet, ohne Umweg über den Rechner. Bin irgendwie gerade etwas frustriert von Microsoft. Früher hat man bezahlt, wenn man neue Features wollte, heute soll man bezahlen, wenn man keine neuen Features will... Wenn es keine vernünftige Lösung mit Windows 10 gibt, ist eine VM mit Windows 7 eine Option. VMware kann ja USB durch reichen. Aber das ist auch ein Gebastel und nicht ganz günstig wegen der Lizenzen.
  3. Hallo zusammen Ein Kunde entwickelt und vertreibt Datenerfassungslösungen für die Landwirtschaft und den Forst. Ein Teil läuft als App auf speziellen Handhelds (wasserdicht, schlag-unempfindlich) mit Lesern (Barcode, RFID). Diese laufen noch mit Windows Mobile 6.1 und haben kein WLAN. Am Abend werden sie in die Dockingstation gesteckt und nutzen die Netzwerkverbindung des Rechners, um die Daten auf einen Server zu laden. Jetzt kommen die Feature-Updates von Windows 10 in die Quere. Seit dem Creators Update lief die Synchronisation nicht mehr, da das Windows Mobile Gerätecenter sich nicht mehr starten liess. Dies konnte ich durch setzen einiger Registry-Keys wieder reparieren. Anscheinend hat sich etwas geändert bei der Kommunikation zwischen Diensten und Anwendungen. Solche Situationen sind natürlich problematisch. Vor Windows 10 konnte man neue Windows-Versionen testen und den Kunden dann das Update "erlauben". Die Feature-Updates kommen automatisch und dazu noch halbjährlich. Wie geht ihr mit dieser Situation um? Gerne würde ich die Feature-Updates deaktivieren, Sicherheitsupdates aber natürlich aktiviert lassen. Lösungen, die Windows Update komplett deaktivieren, kommen deshalb nicht in Frage. Die Kunden arbeiten mit den Geräten auch sonst und gehen damit ins Internet. Bei Windows 10 Pro gibt es eine Option, Feature-Updates um bis zu einem Jahr zu verzögern. Bei Windows 10 Home habe ich nichts dergleichen gefunden. Leider haben viele Kunden Windows 10 Home im Einsatz. Da sie nur einen PC haben, war das bislang kein Problem. Gibt es da vernünftige Lösungen? Man könne die Verbindung auf "getaktet" stellen, dann kämen keine Feature-Updates mehr. Aber die Sicherheitsupdates kommen noch? Und wie lange gibt es Sicherheitsupdates für alte Versionen? Vielen Dank für eure Tipps!
  4. Ein Software-Hersteller veröffentlicht eine Statistik über die Systeme seiner User (Daten gesammelt über die Update-Funktion): https://update.omnigroup.com/ Nicht unbedingt repräsentativ über die ganze Welt, aber könnte ausreichen für Deine Anforderungen.
  5. SAGE 50 läuft gut auf Terminalservern. Seit einigen Jahren ist die Lizenzierung auch kein Problem mehr, man braucht keinen speziellen Key. Die Software erfordert nicht besonders viel Leistung. Wenn die Leute auf einem Terminalserver arbeiten sollen, ist der MicroServer nicht die richtige Wahl, da der nur SATA-Disks hat. Arbeiten sie lokal und nur die Datenbank ist auf dem Server, sollte die Performance für einige gleichzeitige Benutzer ausreichen. Ich würde die Frage unabhängig von SAGE betrachten: Lokal arbeiten und Daten auf dem MicroServer oder auf einem gehosteten Terminalserver arbeiten? Eine Kleinfirma mit CAD-Daten wird eher bei der lokalen Lösung bleiben, ein Betrieb nur mit Office und SAGE vielleicht eher auf den Terminalserver wechseln, da das Vorteile bezüglich Verfügbarkeit, von überall arbeiten etc. haben kann.
  6. Was für ein Script setzt Du dafür ein? Habe nie ein passendes Script gefunden, nur die .NET-Anwendung "WSUS Smart Approve" (http://wsussmartapprove.codeplex.com/releases/view/168059). Die funktioniert zwar, aber es sieht nicht danach aus, dass sie noch gepflegt wird.
  7. Rollen übernehmen, Server demovieren zu Memberserver (mit dcpromo), aus Domäne entfernen, fertig. DNS-Einstellungen auf Clients / im DHCP anpassen nicht vergessen!
  8. Evtl. mit Get-MessageTrackingLog (https://technet.microsoft.com/de-de/library/aa997573(v=exchg.160).aspx) und PowerShell, oder mit Log Parser (https://blogs.technet.microsoft.com/exchange/2012/03/07/introducing-log-parser-studio/). Log Parser kann eigentlich alles, aber die Logs müssen natürlich vorhanden sein.
  9. Die Frage nach dem gesuchten Einsatzzweck ist überhaupt nicht dumm. Ich habe Sandboxie unter Windows XP eingesetzt, sowohl beruflich (mehrere Outlook-Versionen parallel installiert) sowie privat (Shareware-Tools installiert, ohne den Rechner zu vermüllen). Dafür hat es bestens funktioniert. Das heisst aber nicht, dass es für Dich auch funktioniert. Unternehmensweit würde ich es zum Beispiel nicht nutzen, da würde ich mir eine professionelle Software-Virtualisierung (App-V, ThinApp etc.) suchen. Von daher kann man nicht sagen "gutes Tool" oder "schlechtes Tool", ohne den Einsatzzweck zu kennen.
  10. Bei Disk2VHD sind sicher die Partitionen identisch, da ja ein Abbild in die VHD gemacht wird. Der "Rechner" selbst ist natürlich anders: anderes (virtuelles) Mainboard, andere Netzwerkkarte etc. Nach meinen Erfahrungen kommt aber selbst Windows 2003 damit gut zurecht. Man muss es natürlich neu aktivieren und die Netzwerkkarte neu konfigurieren, aber starten tut es meist ohne Anpassungen. Falls es einen BlueScreen gibt, ist die Ursache meist ein fehlender bzw. nicht automatisch startender IDE-Treiber (falls der Server auf SCSI lief). Die notwendige Anpassung der Registry ist schnell erledigt, da man das VHD mounten kann: https://www.hyper-v-faq.com/ach-p2v-startet-die-hyper-vm-nicht-stattdessen-stop-0x0000007b.html
  11. .wexp scheint ein spezifisches Format eines Export-Tools zu sein. Habt ihr mal versucht, die Datenbank direkt zu exportieren? Also mit mysqldump bei MySQL, SQL Backup bei SQL Server etc.? Oder Datenbankdienst auf beiden Server gestoppt, Datenverzeichnisse kopiert und wieder gestartet? So könntet ihr die Anwendung evtl. auf einen Server mit einer aktuellen Version von Windows umziehen. Sonst sollte die Methode mit Acronis gehen. Etwas einfacher ist allenfalls Disk2VHD. Damit kann man von einem laufenden System eine VHD erstellen. Im Hyper-V erstellt man dann eine neue VM und gibt die erstellte VHD als Disk an.
  12. SendKeys ist nicht ideal, da man nie weiss, was gerade auf dem Bildschirm ist, wenn man die Eingaben simuliert. In den wenigen Fällen, in denen sich für eine Aufgabe kein per Kommandozeile steuerbares Tool finden liess, habe ich mit AutoIt (https://www.autoitscript.com/site/autoit/) gescriptet. Dort kann man unter anderem warten, bis ein bestimmtes Fenster auf dem Schirm ist. Ein wie von zahni vorgeschlagenes Tool ist aber die einfachere Variante.
  13. Wie hast Du es versucht? Habe es kurz bei mir über den Browser (https://firma-my.sharepoint.com) ausprobiert: konnte auf die drei Punkte hinter der Datei/dem Ordner klicken und mit "teilen" einen Link erstellen. Dieser funktioniert ohne Anmeldung.
  14. Ob ein DC für sich laufen soll, hängt von der Grösse der Organisation ab. In kleineren Umgebungen stören zusätzliche Rollen wie DHCP oder Print nicht. Wenn es gar nur einen Server gibt, würde es auch nicht helfen, wenn der DC noch verfügbar wäre, der ganze Rest aber nicht. Wichtig: "zusätzliche Rollen", nicht "zusätzliche Software", die man dann irgendwie zurechtbiegt, dass sie auf dem DC läuft. Ich versuche die Sachen immer praktisch und nicht dogmatisch zu sehen. Meist findet man dann eine Lösung, die für beide Seiten einigermassen stimmt. Ansonsten kommt entweder Variante 1 oder 2 zum Zug, je nach Kunde: - Konstrukt verweigern: Bei Kunden, die bei Problemen gerne "vergessen", dass sie auf der Bastellösung bestanden haben. Häufig Leute ohne Entscheidungskompetenz, die sich dann gegenüber ihrem Vorgesetzten raus reden müssen. Also meist bei grösseren Firmen, bei denen man einen schlechten Ruf als Dienstleister bekommt. - Wunsch erfüllen: Bei Kunden, die bei Problemen zu ihrem Wort stehen. Will der Kunde das Admin-PW seines Rechners, damit sein Sohn ein Spiel installieren kann, gebe ich es raus. Zwar ungerne, aber allzu arrogant kann ich nicht sein, schliesslich bezahlt der Kunde mein Gehalt. Dies sind meist kleine Firmen, bei denen der Chef auch Eigentümer ist und somit tun und lassen kann, was er will.
  15. Der Lookup auf https://www.spamhaus.org/sbl/query/SBL229649 sagt folgendes: Ein interessantes Vorgehen von GMX, habe ich noch nirgends gesehen. Sie betreiben Mailserver, die bewusst bei Spamhaus gelistet sind. Dort drüber verschicken sie Mails, die ihr System als Spam erkannt hat. So riskieren sie nicht, dass ihre normalen Mailserver geblockt werden, müssen die Mail aber auch nicht selbst ablehnen, sondern können das dem empfangenden Mailserver überlassen. Sollte für Dich also kein Problem sein.
  16. Es geht, aber die Backupsoftware muss es unterstützen, sonst hast Du komische Effekte wie Dateien, die nur auf einem System sichtbar sind. Wenn ein Laufwerk nicht in einem Cluster betrieben wird, geht Windows davon aus, dass es das einzige System mit Zugriff ist. Die Master File Table (quasi das Inhaltsverzeichnis des Dateisystems) wird beim mounten in den Cache geladen. Also folgendes: Server A mountet die LUN read-write und schreibt Daten darauf. Server B mountet die LUN read-only und liest die MFT und sieht somit die Dateien, welche aktuell vorhanden sind. Nun schreibt Server A neue Dateien. Server B sieht diese nicht, da er ja nicht davon ausgeht, dass er die MFT neu lesen muss. (Falls bestehende Dateien verändert werden, wird das Backup möglicherweise sogar unlesbar, aber das scheint bei Dir ja nicht die Situation zu sein.) Man müsste die LUN auf Server B vor jedem Backup neu mounten. Die ganz billigen NAS, die es vor ca. 10 Jahren von Medion gab, haben über ein eigenes Blockprotokoll funktioniert. Hatte man die an mehr als einem Rechner gleichzeitig angehängt, ist genau das passiert: Kollege kopiert Datei rein, die ist nicht sichtbar, nach ein paar Mal F5 drücken manchmal doch etc... "Richtige" Backupsoftware kopiert deswegen auch nicht einfach Dateien weg, sondern macht einen Snapshot der LUN (um Zeitpunkt X festzuhalten) und mountet den read-only.
  17. Habe das Phänomen auch bei einem Kunden. Nach ca. 15 Minuten Leerlauf kommt das rote X. Bei einem erneuten Zugriff wird das Laufwerk aber sofort wieder verbunden, so dass es keine Probleme macht. Die Clients haben Windows 10, der Server 2012 R2. Habe nicht herausgefunden, was der Auslöser ist, allerdings habe ich auch nicht sehr viel Zeit investiert, da ja alles läuft. Alle anderen Umgebungen mit Windows 10 und Server 2012 R2 haben das Problem nicht. Der einzige Unterschied ist, dass beim betroffenen Kunden Avira eingesetzt wird. Vielleicht ist das eine Gemeinsamkeit mit eurer Umgebung?
  18. Bei Dark Fiber hat man ja eine direkte Verbindung zwischen den Standorten. Man mietet die Leitung, nicht die Bandbreite. Ist teuer, da der Anbieter die Leitung nicht für andere Kunden nutzen kann. Beim Optical Link bestellt man Bandbreite. Ab dem nächsten Zugangspunkt des Providers werden die Daten über dessen Netzwerk transportiert. Er kann also mehrere Kunden auf einer Leitung haben. Aber Du hast Recht, habe gerade nachgeschaut: es gibt Optical Link bis 100 GBit/s. Hatte bis jetzt einfach nur mit 1 GBit/s zu tun.
  19. Es spricht aus meiner Sicht nichts gegen ein RAID für OS und VMs. Was ich aber empfehle, ist eine separate Partition für die VMs. Damit man das Host-OS einzeln wiederherstellen, neu installieren, upgraden etc. kann.
  20. mwiederkehr

    SSD oder SAS für Host

    Ach Du meine Güte... Diese Vorgaben stammen sehr wahrscheinlich aus einer Zeit, in der man noch mit 3,5" SCSI-Festplatten gearbeitet hat. Genau wie "die Software benötigt einen separaten physischen Server", "das Betriebssystem muss auf einem RAID 1 auf separaten Disks liegen" und "für die Datenbankdateien und die Logs werden unterschiedliche Disks benötigt" (bei einem kleinen CRM für drei User). Da wird schon recht viel Geld verbrannt...
  21. mwiederkehr

    SSD oder SAS für Host

    Der Host macht normalerweise nicht viel I/O. Ausser er muss Auslagern, aber dann hat man eh verloren. :) WSUS auf SSD ist allerdings schon etwas Perlen vor die Säue. :D Wie gross sind denn die Platten? RAID 10 ist bei SSD auch etwas übertrieben, da würde ich RAID 5 nehmen oder allenfalls RAID 6, wenn man den Ausfall von zwei SSDs abfangen will/muss. Ich mache in solchen Situationen mehrere Partitionen. Hätte ich also ein RAID 1 mit 2x 15k 600 GB Disks, würde ich 100 GB für C: nehmen und noch ein D: machen, auf dem ich dann den WSUS oder die Archivpartition des Fileservers ablegen kann. SSD wäre dann E: und für die VMs mit viel IOPS reserviert.
  22. Das ist doch eine schöne Aufgabe, um erste Erfahrungen im Programmieren zu sammeln. Ganz einfache Lösung: Ein PowerShell-Script, welches die Daten ausliest und mit ConvertTo-Html als HTML im Verzeichnis des Webservers speichert. Das Script wird per Taskplaner täglich oder stündlich gestartet. Etwas komplexer, dafür mit mehr Funktionen: Eine Webanwendung (zB. ASP.NET), welche die Daten ausliest und darstellt, inkl. Suchfunktion etc.
  23. Nach meinen Erfahrungen bringt es nicht mehr so viel. Über 90% der Mails werden beim RBL-Check abgewiesen. Danach nur noch ein kleiner Prozentsatz wegen Greylisting. Wobei die Mehrheit dieser eine Runde später bei der Inhaltsprüfung wohl sowieso rausgeflogen wäre. Was noch eher Erfolg versprechen könnte, ist "Delayed Greeting". Also nach Verbindungsaufbau ca. eine Minute warten, bis man das "250 xy ready" sendet. Wenn Spammer ungeduldige Software verwenden und sofort ihr HELO senden, kann man sie für ein paar Minuten blockieren. Aber vermutlich verwenden auch Spammer mittlerweile standardkonforme Mailclients.
  24. Soweit ich weiss, ist das Ändern des Ports bei OWA, ActiveSync etc. nicht unterstützt. Es wird irgendwo im OWA einen absoluten Link haben, weshalb der Zugriff scheitert. Die beste Lösung ist eine IP-Adresse pro Kunde. Ist das nicht möglich, könnte man es mit URL Rewriting oder einem Reverse Proxy lösen. Dafür sollte Application Request Routing (ARR) vom IIS schon reichen. Variante 1 (unterschiedlicher Port): Auf dem Exchange des Kunden im IIS URL Rewrite konfigurieren, dass es bei Antworten https://ip durch https://ip:port ersetzt. Variante 2 (alle Kunden auf Port 443): Einen Server mit IIS und ARR installieren und je nach Hostnamen die Anfragen auf die Exchange-Server dahinter verteilen. Dies ist sicher die schönste Lösung, bedingt aber einen zusätzlichen Server und etwas Konfigurationsaufwand.
  25. Du könntest den MIME-Typ auf "application/octet-stream" ändern, dann sollte der Browser den Download anbieten. Schöner wäre es aber, dem Browser per Header mitzugeben, dass er die Datei downloaden soll. Dies geht mit URL Rewrite: https://stackoverflow.com/questions/19404770/force-file-download-in-iis7
×
×
  • Neu erstellen...