Jump to content

mwiederkehr

Expert Member
  • Gesamte Inhalte

    1.514
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von mwiederkehr

  1. Ja, das funktioniert. Natürlich nur, wenn beide Server in der gleichen Domäne sind, aber davon gehe ich mal aus.
  2. Weshalb Windows, aber nicht IIS? Der IIS hat sich die letzten Jahre massiv gemacht. Du kannst alles vergessen, was Du vielleicht über Mängel über IIS zu Zeiten von Version 6 gehört hast. Ich würde entweder Windows mit IIS und zur Verwaltung SolidCP nehmen, oder aber Linux mit Apache und Froxlor für die Verwaltung. Beide Verwaltungs-Tools installieren aber nicht die Anwendungen, sondern konfigurieren diese nur. Oder vielleicht noch einen Schritt zurück machen und überlegen, ob Du überhaupt einen eigenen Server brauchst? Es gibt mittlerweile sehr leistungsfähige Webhostings zu einem kleinen Preis. Einen eigenen Server braucht man nur noch bei sehr speziellen Anforderungen. Dann würde ich Windows und IIS nehmen. PHP läuft im IIS gleich gut wie im Apache. Den Gameservern sollte der Webserver ja egal sein. PHP auf IIS zu konfigurieren und MySQL zu installieren geht mit dem Web Platform Installer sehr einfach.
  3. Habe überall ausschliesslich virtuelle DCs und das seit Jahren. Die Virtualisierung ist grundsätzlich kein Problem für einen DC. Ein DC verhält sich ja nicht "magisch" anders als andere Server. Man muss ihn aber behandeln wie eine physische Maschine: also nicht mal kurz einen alten Snapshot wiederherstellen etc. Ich denke die Empfehlung zu einem physischen DC kommt daher: dass man nicht aus Versehen "schlimme Dinge" tun kann. Technisch sehe ich keinen Grund mehr. Selbst Hyper-V-Cluster starten problemlos ohne DC.
  4. Das kannst Du mit Veeam auch haben und zwar wesentlich schneller und mit weniger Platzbedarf als mit WSB: einfach nur den Veeam Agent verwenden statt B&R. Aber: dann kann man keine einzelnen Dateien aus VMs wiederherstellen, sondern müsste die gesamte VHDX zurückholen und dann mounten. Erfahrungsgemäss braucht man viel häufiger eine Wiederherstellung einzelner Dateien oder allenfalls kompletter VMs als eine komplette Wiederherstellung des Hosts.
  5. B&R selbst enthält keine Funktionalität zur Sicherung von physischen Systemen. Dafür gibt es den Veeam Agent. Dieser sieht im Gegenzug keine VMs (sondern nur deren Dateien). Du könntest es so machen: B&R auf C: installieren. Den Agent einrichten, dass er C: (sowie die EFI-Partition) sichert. Die VMs liegen auf D: und werden von B&R gesichert. Falls Du dem Agent sagst, er soll den gesamten Rechner sichern, sichert er die Dateien der VMs ebenfalls mit. Deshalb die Aufteilung in zwei Partitionen. Für eine komplette Wiederherstellung müsstest Du mit der CD starten, C: wiederherstellen, dort B&R starten und die VMs wiederherstellen. Edit: Veeam wirbt mit der Sicherung von physischen Maschinen, weil sie das ja auch können. Einfach über den Agent, nicht direkt über B&R. In grösseren Umgebungen läuft B&R nicht auf dem Host, sondern auf einem separaten Server. Da würde es nicht viel Sinn machen, wenn der direkt sich selbst sichern könnte. Da man die Agents über B&R steuern kann, hat man trotzdem alles in einer Konsole.
  6. Veeam B&R sichert die VMs direkt, ohne weitere Agents. Jede gesicherte VMs belegt eine Instanz. Für die Sicherung des Hosts benötigst Du Veeam Agent. Sichert der in ein Veeam-Repository und wird über B&R zentral verwaltet, belegt er drei Instanzen. Die Community-Edition unterstützt zehn Instanzen. Du kannst also entweder zehn VMs sichern oder den Host und sieben VMs. Der Agent kann aber auch direkt sichern, ohne Verwaltung über B&R. Dann belegt er auch keine Instanzen. Soweit ich weiss sichert die Community-Edition gleich wie die Standard-Edition, man kann also die gleichen Werte bezüglich Geschwindigkeit und Speicherplatz erwarten. Falls Du B&R in einer VM laufen lässt, solltest Du deren VHDX-Dateien über den Agent gemeinsam mit dem Host sichern. Ansonsten musst Du für einen Restore zuerst Veeam installieren und die Backups einlesen.
  7. Das wird dann aber teuer. Mietet man nur ein viertel, halbes oder ganzes Rack, hat der Betreiber des Rechenzentrums noch einen Schlüssel. Selbst bei Cages kenne ich es nur so, dass zwar an der Türe steht "Zutritt nur mit Kunden" und dass man als Kunde vor jedem Zutritt informiert wird, aber der Betreiber kommt immer noch alleine rein. Da müsste man schon seine eigenen Racks hinstellen. Davon gibt es sogar welche in einem Panzerschrank, aber das ist dann nicht mehr günstig. Eigene Hardware kann aber je nach Anwendung sinnvoll sein, gerade im Hinblick auf Sachen wie Meltdown & Co.
  8. Ja, das ist so. Jeder Client, der den KMS erreicht, kann eine Lizenz erhalten. Es fragen nur Clients oder Server den KMS an, die mit dem KMS-Client-Key installiert wurde. Schon mit MAK aktivierte Produkte fragen den KMS nicht und zählen deshalb auch nicht dazu. Nein, musst Du aber auch nicht. Um einen KMS zu betreiben, muss man gewisse Anforderungen erfüllen: Volumenlizenzvertrag, Mindestanzahl Clients... Deshalb vertraut Microsoft darauf, dass man den Lizenzvertrag einhält und zählt die aktivierten Clients nicht. Windows Server, welche als Gast auf einem mit Datacenter installierten Hyper-V laufen, können mit einem AVMA-Key installiert werden. Dann werden sie automatisch über den Hyper-V aktiviert. Fazit: Mir sind keine Probleme mit Datacenter und MAK bekannt. Nur für Datacenter würde ich keinen KMS installieren, weil man da ja nicht so viele Hosts hat und die VMs über AVMA aktiviert werden können.
  9. Hatte in den letzten Monaten mehrere solche Projekte. Dabei habe ich folgendes festgestellt: - Geräte mit Windows 7 laufen auch mit Windows 10 - bei No-Name-Hardware sind manchmal Treiber für die Netzwerkkarte erforderlich - bei Markenhardware waren alle Treiber bei Windows 10 dabei - alle Software, die unter Windows 7 lief, läuft auch unter Windows 10 Haben kürzlich in einer Schule mit kleinem Budget über 100 Rechner von 2012-2015 mit SSD ausgestattet und Windows 10 ausgerollt. Mit den zusätzlichen Treibern laufen alle problemlos und mit akzeptabler Geschwindigkeit.
  10. Tritt das Problem auch beim Windows Explorer auf? Habe das kürzlich gesehen an einem aktuellen Windows 10 mit mehreren Monitoren. Google findet viel bei "windows 10 explorer white bar", darunter auch diverse Workarounds. Es soll zum Beispiel helfen, die Anwendung im Kompatiblitätsmodus für Windows 8 laufen zu lassen. Scheint ein Bug in Windows 10 zu sein, evtl. in Kombination mit gewissen Grafiktreibern.
  11. Ich würde es mit Inkscape versuchen. Das kann PDF-Dateien öffnen.
  12. Webserver haben ein Standard-Dokument, welches sie ausliefern, wenn man keine Datei angibt. Wenn man auf google.de geht, muss man ja auch nicht google.de/index.php eintippen. Wenn ich die Datei abrufe, erhalte ich ein Word-Dokument. Dieses wird der Virenscanner mit Hilfe seiner Signaturen erkennen. Der Server könnte aber theoretisch erkennen, was für ein Client ankommt und auch eine andere Datei liefern (zum Beispiel eine manipulierte Android-App, wenn ein Smartphone kommt). Ich rufe solche Dateien mit wget ab und speichere sie mit anderer Endung. wget hat im Gegensatz zu einem Browser keine JavaScript-Engine, kann also wirklich nur downloaden.
  13. Die Migration ist abgeschlossen. Es hat soweit alles funktioniert. Falls jemand mal vor der gleichen Aufgabe steht, hier eine kurze Zusammenfassung: - AAD Connect eingerichtet, dabei das Attribut "msExchangeMailboxGuid" ausgeschlossen. Das ist wichtig, weil sonst auf Office 365 keine Mailboxen für die User erstellt werden, da sie lokal schon eine hätten. - Allen Benutzern in Office 365 eine Lizenz zugewiesen. Dabei wird dann das Postfach erstellt. Dies dauert nur wenige Minuten. - Alle Postfächer als PST exportiert und eine Mapping-Datei (CSV) erstellt. Mit dem Importer importiert. Hier ist es wichtig, genügend Zeit einzuplanen. Für die 26 GB (verteilt auf 550 Postfächer) hat sich der Importer fast zwei Tage Zeit gelassen. - Getestet, ob das Login etc. funktioniert. Ging alles, auch Postfachberechtigungen wurden übernommen. - MX umgestellt, Autodiscover-Eintrag gemacht, internen SCP entfernt (mit "Set-ClientAccessServer –Identity ServerName -AutoDiscoverServiceInternalUri $null"). - PST-Dateien nochmals exportiert, aber nur Elemente, welche nach dem letzten Export gesendet oder empfangen wurden. Beim Exchange 2010 musste ich dazu die Spracheinstellungen auf US stellen, da er sonst das Datumsformat nicht akzeptiert hat. - PST-Dateien nochmals importiert. Ich habe sie mit AzCopy in ein Unterverzeichnis hochgeladen und die Mapping-Datei angepasst. Der Link zum Storage bleibt gleich. - GPO erstellt, welche "https://autologon.microsoftazuread-sso.com" im IE der Intranetzone hinzufügt bzw. im Chrome der AuthServerWhitelist. Dies ist erforderlich für SSO. SSO verhält sich wie folgt: - neue Rechner (Windows 10, Office 2019, neue Profile): Beim Start sucht Outlook nach Mailkonten, zeigt die Adresse an und mit einem Klick wird das Konto eingerichtet. Im IE und Chrome kommt man ohne Kennworteingabe ins OWA, OneDrive etc. Lediglich die Mailadresse muss man angeben (oder man verwendet einen speziellen Link). - alte Rechner (Windows 7, Office 2010, bestehendes Outlook-Profil): Da Outlook sich zum alten Exchange verbindet, repariert man das Profil. Dann muss man sich einloggen und Outlook neu starten. Es erscheint mehrmals die Kennwortabfrage, welche man wegklicken kann. Nach ca. 30 Sekunden erscheint die Meldung, der Administrator habe eine Änderung vorgenommen, welche einen Neustart von Outlook verlange. Nach dem zweiten Neustart ist Outlook mit Office 365 verbunden. Fazit: Das "einfache" SSO über das Computerkonto ist eine sehr praktische Sache und funktioniert tadellos.
  14. mwiederkehr

    Scanner Empfehlung

    Ich kann den Brother ADS-2800W empfehlen. Den habe ich auch Kunden verkauft, denen der Scanner im Multifunktionsgerät zu langsam war. Bin echt überrascht, wie viel der kann für den Preis: er ist unabhängig von einem Rechner und scannt direkt auf eine Serverfreigabe, einen SharePoint, OneDrive etc. Dabei erkennt er, ob ein Dokument farbig oder s/w ist, ob es doppelseitig bedruckt ist und er richtet es gerade aus. Die Scangeschwindigkeit ist hoch (30 Seiten/min doppelseitig in Farbe). Manko: OCR geht nur über den PC mit mitgelieferter Software. Wird das benötigt, muss man zu einem teureren Modell greifen.
  15. Ich verwende jeweils folgenden Aufruf, sowohl für die erste als auch die nachfolgenden Synchronisierungen: robocopy /e /v /mir /copyall /b /efsraw /XJ /r:0 /w:0 /tee /log:c:\log.txt /b: mit Backup-Privilegien kopieren (damit auch sonst nicht zugängliche Daten wie Benutzerprofile kopiert werden können) /efsraw: EFS-verschlüsselte Dateien ohne Entschlüsselung kopieren (funktioniert sonst nicht, wenn man den Schlüssel nicht hat) /XJ: Junctions nicht folgen (sonst gibt es bei "App Data" eine Endlosschleife) Damit habe ich schon viele Server migriert. Der Tipp von "daabm" bezüglich DFS ist trotzdem prüfenswert. Es ist spätestens bei der nächsten Migration ein Vorteil, wenn die Freigaben unabhängig von Servernamen sind.
  16. Eine Datenbank kann problemlos mehrere Postfächer enthalten. Dies ist auch üblich. Meist macht man pro paar Hundert GB eine Datenbank (wobei hier die Empfehlungen variieren). Du brauchst also einmal die Standard-Lizenz und dann pro Benutzer oder pro Gerät eine Zugriffslizenz. Also entweder pro physischer Person oder pro zugreifendem Rechner (oder Smartphone), aber nicht pro Postfach.
  17. Bin unter anderem durch die Hilfe der englischsprachigen Technet-Community etwas weiter gekommen. Kurz der Zwischenstand, falls jemand mal vor der gleichen Herausforderung steht: SSO ist der Knackpunkt. Habe dazu viele sich zum Teil widersprechende Dokumentationen gelesen. Es soll funktionieren mit synchronisierten Kennwort-Hashes und Modern Authentication (Windows 10, Office ab 2013). Bei einer Cutover-Migration lassen sich die Kennwörter nach der Migration synchronisieren. Diese werden über die Mailadresse zugeordnet. Es ist zu empfehlen, dass der UPN der Mailadresse entspricht.
  18. Falls es ginge, könntest Du für jeden Benutzer eine eigene Exe erstellen. Der Benutzer würde davon dann nichts merken. Zu beachten: Bei Ersetzungen mit dem Hex-Editor müssen die alten und neuen Werte gleich lang sein. Andernfalls fällt mir noch Applikationsvirtualisierung (App-V, ThinApp, Sandboxie etc.) ein. Damit könnte man C:\irgendwas nach C:\Users\username\irgendwas umleiten, ohne dass es die Anwendung merkt. Besser wäre aber natürlich eine Anpassung der Anwendung. Wenn ihr die Anwendung entwickeln lassen habt, habt ihr doch auch den Quellcode? Könnt ihr nicht einen Entwickler mit der Anpassung beauftragen?
  19. Für das Forum würde ich ein Webhosting nehmen. Da kümmert sich der Betreiber um regelmässige Updates von PHP, MySQL sowie um die allgemeine Serversicherheit. Du musst dann nur noch das Forum gemäss Anleitung installieren und regelmässig updaten.
  20. ".tar.gz" deutet auf eine Linux-Software hin. Ist das nicht einfach eine PHP-Forensoftware, die auf jedem beliebigen Webhosting läuft und man sich nicht um den Betrieb kümmern muss. Ansonsten brauchst Du einen Webserver (zum Beispiel IIS), PHP, MySQL, was auch immer bei den Anforderungen des Forums steht. Besonders aber brauchst Du Zeit und die Motivation, Dich in das Thema einzuarbeiten. Man kann vieles zusammenklicken, aber damit es auf Dauer zuverlässig und sicher läuft, sind einige Kenntnisse erforderlich.
  21. Hier ein Dokument dazu: https://download.microsoft.com/download/3/d/4/3d42bdc2-6725-4b29-b75a-a5b04179958b/reimaging.pdf Dort steht allerdings, dass mit Imaging das Verteilen eines Images auf mehrere Rechner gemeint ist. Dein Szenario fällt da also wahrscheinlich nicht darunter. Technisch funktionieren sollte es in jedem Fall, da die neuen Rechner mit digitaler Windows-Lizenz kommen. Man kann sie auch mit dem ISO von Microsoft neu installieren, ohne nach einem Key gefragt zu werden.
  22. a.) Die Lizenz ist an die Hardware gebunden. Deshalb müssen die neuen Rechner auch eine Lizenz haben. Ferner evtl. zu beachten: Imaging ist nur mit Volumenlizenzen erlaubt. Ich weiss nicht, ob 1:1 klonen als Imaging gilt. b.) Habe das noch nie ausprobiert, aber es sieht plausibel aus. Bei Windows 7 brauchte es eine ähnliche Anpassung beim Wechsel von IDE auf SCSI. Ich würde mir einen NVME-USB-Adapter kaufen und damit die Disks klonen. Vor dem Einbau der NVME in den Zielrechner noch kurz an einem anderen Rechner anschliessen und die Einstellung in der Registry vornehmen.
  23. Muss Norbert leider beipflichten. Outlook ist ein sehr schlechter IMAP-Client. Anfangs mag es noch funktionieren, aber bei steigender Anzahl E-Mails und Ordner fangen die Probleme zuverlässig irgendwann an. War schon immer so und wird wohl auch so bleiben, da Microsoft andere Prioritäten hat. (Wobei es nur fair wäre, die IMAP-Unterstützung dann gar nicht mehr anzubieten...) Kann ebenfalls Thunderbird empfehlen. Damit hatte ich auch mit riesigen Mailboxen noch nie Probleme. Outlook ist der Client für Exchange und kann über POP3 noch das private Postfach einbinden. Aber IMAP kann es nicht.
  24. Hallo zusammen Folgendes ist geplant: die Postfächer einer Schule sollen von Exchange 2010 zu Office 365 migriert werden. Es geht dabei um ca. 600 Postfächer, die aber je nur so um 30 MB gross sind. Lokal soll kein Exchange mehr betrieben werden. Für die Migration gibt es ein Zeitfenster von zwei Wochen. In dieser Zeit müssen die Postfächer nicht verfügbar sein und auch keine E-Mails angenommen werden. Damit sich die User nicht mehrfach anmelden müssen, sollen die Kennwörter mit dem lokalen AD synchronisiert werden. Von der Datenmenge und Ausfallzeit her sollte eine Cutover-Migration die beste Lösung sein. Für den Abgleich der Kennwörter nimmt man AD-Sync. Nur habe ich jetzt gelesen, dass das nicht zusammen ginge. Bei der Migration werden die Benutzer inkl. Postfächer vom Migrationsassistenten erstellt und dürfen nicht schon von AD-Sync angelegt worden sein. Soweit, so klar. Je nach Doku soll man AD-Sync aber danach in Betrieb nehmen können, oder auch nicht, weil die lokalen User wegen dem (zu entfernenden) lokalen Exchange gewisse Attribute gesetzt haben. Diese sollen sich laut wieder anderer Anleitungen jedoch von der Synchronisation ausschliessen lassen. Neue Benutzer sollen in Zukunft wie gehabt lokal erstellt werden können, die Postfächer aber in Office 365. Wie bei AD-Sync ohne lokalen Exchange, nicht wie in einer Hybridkonfiguration mit "Verwaltungs-Exchange". Hat jemand so ein Szenario schon mal umgesetzt? Wie geht das mit dem AD-Sync?
  25. Habe erst einen Cluster mit 2019 in Betrieb. Der läuft bis jetzt stabil, aber ältere Gastsysteme machen massive Probleme: Ein Webserver auf Windows 2008 R2 nimmt nach einiger Zeit keine Verbindungen mehr an, bis man den IIS neu startet. Ein Exchange 2010 auf Windows 2012 läuft und die Benutzer empfangen E-Mails, aber gesendete E-Mails bleiben im Postausgang hängen. Im Ereignisprotokoll gibt es keine Fehlermeldungen. Habe mich aber nicht allzu tief rein gekniet, stattdessen wurde die längst fällige Migration der Altsysteme vorgezogen. Aber war schon merkwürdig. Server 2016 und 2019 laufen als Gäste bis jetzt problemlos.
×
×
  • Neu erstellen...