Jump to content

mwiederkehr

Expert Member
  • Gesamte Inhalte

    1.517
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von mwiederkehr

  1. Muss Norbert leider beipflichten. Outlook ist ein sehr schlechter IMAP-Client. Anfangs mag es noch funktionieren, aber bei steigender Anzahl E-Mails und Ordner fangen die Probleme zuverlässig irgendwann an. War schon immer so und wird wohl auch so bleiben, da Microsoft andere Prioritäten hat. (Wobei es nur fair wäre, die IMAP-Unterstützung dann gar nicht mehr anzubieten...) Kann ebenfalls Thunderbird empfehlen. Damit hatte ich auch mit riesigen Mailboxen noch nie Probleme. Outlook ist der Client für Exchange und kann über POP3 noch das private Postfach einbinden. Aber IMAP kann es nicht.
  2. Hallo zusammen Folgendes ist geplant: die Postfächer einer Schule sollen von Exchange 2010 zu Office 365 migriert werden. Es geht dabei um ca. 600 Postfächer, die aber je nur so um 30 MB gross sind. Lokal soll kein Exchange mehr betrieben werden. Für die Migration gibt es ein Zeitfenster von zwei Wochen. In dieser Zeit müssen die Postfächer nicht verfügbar sein und auch keine E-Mails angenommen werden. Damit sich die User nicht mehrfach anmelden müssen, sollen die Kennwörter mit dem lokalen AD synchronisiert werden. Von der Datenmenge und Ausfallzeit her sollte eine Cutover-Migration die beste Lösung sein. Für den Abgleich der Kennwörter nimmt man AD-Sync. Nur habe ich jetzt gelesen, dass das nicht zusammen ginge. Bei der Migration werden die Benutzer inkl. Postfächer vom Migrationsassistenten erstellt und dürfen nicht schon von AD-Sync angelegt worden sein. Soweit, so klar. Je nach Doku soll man AD-Sync aber danach in Betrieb nehmen können, oder auch nicht, weil die lokalen User wegen dem (zu entfernenden) lokalen Exchange gewisse Attribute gesetzt haben. Diese sollen sich laut wieder anderer Anleitungen jedoch von der Synchronisation ausschliessen lassen. Neue Benutzer sollen in Zukunft wie gehabt lokal erstellt werden können, die Postfächer aber in Office 365. Wie bei AD-Sync ohne lokalen Exchange, nicht wie in einer Hybridkonfiguration mit "Verwaltungs-Exchange". Hat jemand so ein Szenario schon mal umgesetzt? Wie geht das mit dem AD-Sync?
  3. Habe erst einen Cluster mit 2019 in Betrieb. Der läuft bis jetzt stabil, aber ältere Gastsysteme machen massive Probleme: Ein Webserver auf Windows 2008 R2 nimmt nach einiger Zeit keine Verbindungen mehr an, bis man den IIS neu startet. Ein Exchange 2010 auf Windows 2012 läuft und die Benutzer empfangen E-Mails, aber gesendete E-Mails bleiben im Postausgang hängen. Im Ereignisprotokoll gibt es keine Fehlermeldungen. Habe mich aber nicht allzu tief rein gekniet, stattdessen wurde die längst fällige Migration der Altsysteme vorgezogen. Aber war schon merkwürdig. Server 2016 und 2019 laufen als Gäste bis jetzt problemlos.
  4. mwiederkehr

    MSDN Abo

    Man kann sich unter https://partner.microsoft.com/de-de/membership/action-pack anmelden. Bevor Du Dich wunderst: man wird damit automatisch Microsoft Partner. Dies jedoch auf einer kostenlosen Stufe ohne Verpflichtungen. Man muss sich also nicht zertifizieren lassen oder einen Mindestumsatz erreichen.
  5. mwiederkehr

    MSDN Abo

    Mit dem Action Pack bekommt man für 400 Eur/Jahr jeden Monat 100$ auf Azure gutgeschrieben, 5 Office 365 E3-Lizenzen sowie Lizenzen für Windows Server, Windows 10, Office etc., welche man (im Gegensatz zu MSDN) intern auch produktiv nutzen darf. Das finde ich auch für ambitionierte Heimanwender erträglich. Ich hole es jedenfalls schon durch meine Azure-Nutzung raus.
  6. Das, was Microsoft "Core" nennt, ist kein "Core", sondern ein normales Windows, einfach ohne explorer.exe. Die ganze GUI gibt es trotzdem, ansonsten hätte man keinen Mauszeiger und könnte keine GUI-Anwendungen starten. So spart man auch nur wenig Speicherplatz und Patches. Viel besser war Windows Server Nano, da hatte man wirklich nur den Server, ohne GUI. Aber leider gibt es den nur noch für Container. Ein DC auf Nano wäre ca. 200 MB gross. Schön wärs gewesen...
  7. Ich hatte mal "Windows 2000 Commands Pocket Reference" von O'Reilly. Darin waren die Tools erklärt. Leider scheint es keine aktuellere Ausgabe zu geben. Wobei ich mich aktuell eher nach einer PowerShell-Referenz umsehen würde, da man Tools wie "findstr.exe" und Konsorten damit nicht mehr braucht.
  8. Für diesen Zweck ist meiner Meinung nach eine Webanwendung besser geeignet als Excel. Bei einer Webanwendung hätten die Benutzer im Browser eine Tabelle zum Eintragen der Daten zur Verfügung, die Logik und Berechnung würde jedoch auf dem Server stattfinden. Das Resultat würde dann als PDF- oder Excel-Datei (ohne Formeln) exportiert. Damit wäre der Kopierschutz quasi enthalten.
  9. Es kommt natürlich ganz auf die Datenbank und die Anwendung an. Normalerweise wird in Datenbanken nur in einem relativ kleinen Teil regelmässig gelesen und geschrieben. Wir haben viele solcher Installationen in Betrieb, da das ERP auf SQL Server läuft und die kleineren Kunden mit der Express Edition arbeiten. Wir hatten damit noch nie Performance-Probleme.
  10. Windows unterstützt das Starten von GPT nur mit UEFI. Der BIOS-Bootloader unterstützt nur MBR. Das lässt sich nicht ändern über eine Konfiguration. Was gehen sollte, aber hier sind wir in der "Bastelabteilung": - Windows auf MBR installieren, Disk-Layout in GPT umwandeln, Bootloader auf einen USB-Stick kopieren und fortan von diesem booten. - Einen UEFI-Emulator (DUET) einrichten und damit booten. Falls der RAID-Controller nicht mehrere logische Laufwerke unterstützt, würde ich aber eher über einen neuen Server nachdenken. Oder Du baust noch eine SSD mehr ein und installierst Windows darauf. Dann wären halt nur noch die VMs im RAID.
  11. Booten von GPT geht nur mit UEFI. Ein existierendes Windows von BIOS auf UEFI umzustellen ist sehr mühsam, da am Anfang der Disk zusätzliche Partitionen erstellt werden müssen. Kann der RAID-Controller verschiedene logische Laufwerke erstellen? Dann könntest Du ein Laufwerk unter 2 TB als Bootlaufwerk erstellen und ein zweites für die VMs. Dieses könntest Du dann mit GPT formatieren. Ansonsten würde ich die VMs exportieren und den Host mit den neuen Disks neu installieren, dann gleich mit UEFI. Bei der Aktivierung sollte es keine Probleme geben. Das Mainboard, die Netzwerkkarte etc. ändern sich ja nicht. Und sonst hilft Dir die Aktivierungshotline von Microsoft weiter, Du begehst ja keinen Lizenzverstoss.
  12. Es gibt schon unabhängige RIP-Software, aber eigentlich sollte der Hersteller des Druckers eine Lösung anbieten, oder aber man hat eine Gesamtlösung für die Druckvorstufe. Was für Dateien druckst Du denn? Bei PDFs kann man im Acrobat Reader die Option "als Bild drucken" aktivieren. Das bringt bei sehr komplexen PDF-Dateien (Pläne etc.) meist einen Geschwindigkeitsvorteil.
  13. mwiederkehr

    Sprüche etc

    Wer sprechen manchmal von einem Layer-8-Problem, wenn die Fehlerursache beim Benutzer liegt.
  14. Du kannst eine neue Website erstellen, welche auf das Verzeichnis der Anwendung zeigt und bei den Bindungen den Name der Anwendung enthält. Den CNAME-Eintrag im DNS benötigst Du zusätzlich.
  15. Ein Kennwort ist der Faktor "Wissen". Das Wissen kann jeder haben und der Rechner kann nicht erkennen, wer ein Kennwort eingibt. (Es gab schon Versuche, den Benutzer anhand der Eingabe zu erkennen, aber das war meines Wissens zu ungenau.) Demnach darf das Kennwort nicht in fremde Hände gelangen. Ein Fingerabdruck oder die Struktur der Handvenen sind der Faktor "Sein". Da geht es nicht um die Information. (Ein Fingerabdruck enthält wohl weniger Information als ein gutes Kennwort.) Es geht darum, der Träger des Merkmals zu sein. Der Fingerabdruck selbst ist quasi öffentlich und wie wir seit dem Congress wissen, sind es die Handvenen auch. Bei den "gehackten" biometrischen Zugangssystemen war immer der Sensor das Problem. Diese werden mit jeder Generation besser. Weil ein Faktor manchmal keine ausreichende Sicherheit bietet, kombiniert man diese. Wenn ich ins Rechenzentrum will, muss ich meine Chipkarte einlesen, meine PIN eingeben und meine Hand in den Venenscanner halten.
  16. Wenn ich es richtig verstanden habe, kann man Dateien direkt mit Azure Backup sichern. Für die Sicherung von VMs wird der (kostenlose) Microsoft Azure Backup Server (MAPS) benötigt. Für nur ein paar wenige VMs ist das ein ziemlicher Aufwand. Falls ihr für die lokale Sicherung schon Veeam einsetzt, könnte Veeam Cloud Connect etwas für euch sein. Ansonsten habe ich gute Erfahrungen mit der Acronis Backup Cloud gemacht. Zuerst solltet ihr definieren, was ihr wo sichern wollt bzw. müsst. Da gibt es verschiedene Strategien: manche wollen gar keine lokale Sicherung mehr und sichern alles in die Cloud. Manche sichern aus Kostengründen meist hauptsächlich lokal (Backupserver in separatem Brandschutzabschnitt) und ein Restore aus der Cloud wäre nur bei einer Katastrophe notwendig. Da sichert man dann nicht ganze VMs, sondern nur die Dateien und Datenbanken.
  17. Windows und Office werden sich neu aktivieren wollen. Falls auf dem Rechner eine "Digital Entitlement"-Lizenz vorhanden ist, aktiviert sich Windows 10 selbst. Dies ist bei Firmenrechnern meist der Fall. Laufen tut Windows 10 übrigens meist auch beim Wechsel auf gänzlich andere Hardware. Es ist nicht mehr so heikel wie ältere Windows-Versionen.
  18. Nur für Office würde ich sagen um die 128 kbit/s pro Session. Mit 90 Mbit/s habt ihr auf jeden Fall viel Reserve.
  19. Die benötigte Bandbreite pro Benutzer ist stark von dessen Tätigkeiten abhängig. Für Office und ERP hatten wir bei 20 Benutzern auf einer 20/2er Leitung nie Probleme. Bei derart magerem Upload muss man dann aber Sachen wie Scan2Folder per QoS einschränken. Anders sieht es aus beim Surfen auf Internetseiten mit Videos (und welche Zeitung hat das heute nicht...) oder Bildbearbeitung. Da muss man mehr Download einrechnen, wobei eure 90 Mbit/s eigentlich gut reichen sollten.
  20. Dann fallen alle Lösungen, die ein Kernelmodul benötigen, wohl weg. Aber OpenVPN sollte gehen, laut Strato ist tun/tap verfügbar. Ansonsten musst Du einen vServer mit "Vollvirtualisierung" oder zumindest KVM nehmen.
  21. Unter dem Stichwort "OpenSwan" solltest Du eine Anleitung für Deine Distribution finden. Alternativ könntest Du einen vServer mieten, auf dem Du ein eigenes Betriebssystem installieren kannst. Dann wäre pfSense eine gute Option. Damit kannst Du das VPN grafisch konfigurieren.
  22. Ja. Dafür ist bei uns bekanntlich alles anderer teurer. IPsec wäre auch eine Option, je nach verwendeter Firewall.
  23. Mein Beileid. Kommt ganz auf den Anbieter an. Bei uns gibt es vom lokalen Anbieter Glasfaser mit 1 GBit/s symmetrisch und fixer IP für unter 100 Euro/Monat. Dann bleibt wohl nur ein vServer als externer Proxy. Entweder per VPN angebunden, oder Du verwendest auf dem lokalen Proxy höhere Ports. Dann sollte ein einfacher vServer mit ein paar iptables-Regeln genügen. (Oder natürlich Du lagerst alle extern erreichbaren Server aus...)
  24. Mit der Option "SSL-Bridging" sollte es auch über HTTP gehen. Wenn Du SSL auf dem Nginx terminierst, kann dieser den "X-Forwarded-For"-Header setzen und dort die IP des Clients eintragen. Viele Webanwendungen verstehen das bzw. lassen sich konfigurieren, diese IP in die Logs zu schreiben. Eine andere Lösung wäre "Direct Server Return". Dabei setzt der Proxy bei weitergeleiteten Anfragen die Absender-IP auf die Client-IP. In den Logs erscheint dann die richtige IP und die Antworten gehen direkt raus. Das geht beim Nginx soweit ich gesehen habe nur mit der kostenpflichtigen Version. Wenn Du Dich auf diesem Level bewegst, würde ich mir eine kommerzielle Lösung wie Citrix NetScaler oder KEMP LoadMaster ansehen. Was? Dann würde ich mich eher nach einem anderen ISP umsehen. Wenn ich Internet bezahle, will ich Internet, und nicht eine Teilmenge davon.
  25. Bei IIS und Apache müssen die Zertifikate installiert werden. Bei Nginx geht es auch ohne, siehe http://blog.le-vert.net/?p=224. Es gibt auch ein simpleres Tool dafür: https://github.com/inconshreveable/slt. Würde ich aber nicht empfehlen. Du hättest dann in den Logs vom Proxy keine vernünftigen Einträge. Und die Zertifikate auf dem Proxy zu installieren macht deren Erneuerung einfacher. Deine Beispielkonfiguration vom Apache sieht gut aus, es fehlt nur das Zertifikat und "ProxyRequests" ist auf "Off". Ich setze jeweils noch folgende Optionen: RequestHeader set X-Forwarded-Port "443" RequestHeader set X-Forwarded-Proto "https" RequestHeader set Ssl-Offloaded "1" Damit wissen die Anwendungen, dass die Anfragen über SSL kommen, auch wenn es auf dem Proxy terminiert ist. Ohne diese Einstellungen kann es Redirect-Loops geben, wenn die Anwendungen HTTPS erfordern.
×
×
  • Neu erstellen...