Jump to content

mwiederkehr

Expert Member
  • Content Count

    516
  • Joined

  • Last visited

Community Reputation

36 Popular

1 Follower

About mwiederkehr

  • Rank
    Expert Member

Recent Profile Visitors

1,019 profile views
  1. Habe überall ausschliesslich virtuelle DCs und das seit Jahren. Die Virtualisierung ist grundsätzlich kein Problem für einen DC. Ein DC verhält sich ja nicht "magisch" anders als andere Server. Man muss ihn aber behandeln wie eine physische Maschine: also nicht mal kurz einen alten Snapshot wiederherstellen etc. Ich denke die Empfehlung zu einem physischen DC kommt daher: dass man nicht aus Versehen "schlimme Dinge" tun kann. Technisch sehe ich keinen Grund mehr. Selbst Hyper-V-Cluster starten problemlos ohne DC.
  2. Das kannst Du mit Veeam auch haben und zwar wesentlich schneller und mit weniger Platzbedarf als mit WSB: einfach nur den Veeam Agent verwenden statt B&R. Aber: dann kann man keine einzelnen Dateien aus VMs wiederherstellen, sondern müsste die gesamte VHDX zurückholen und dann mounten. Erfahrungsgemäss braucht man viel häufiger eine Wiederherstellung einzelner Dateien oder allenfalls kompletter VMs als eine komplette Wiederherstellung des Hosts.
  3. B&R selbst enthält keine Funktionalität zur Sicherung von physischen Systemen. Dafür gibt es den Veeam Agent. Dieser sieht im Gegenzug keine VMs (sondern nur deren Dateien). Du könntest es so machen: B&R auf C: installieren. Den Agent einrichten, dass er C: (sowie die EFI-Partition) sichert. Die VMs liegen auf D: und werden von B&R gesichert. Falls Du dem Agent sagst, er soll den gesamten Rechner sichern, sichert er die Dateien der VMs ebenfalls mit. Deshalb die Aufteilung in zwei Partitionen. Für eine komplette Wiederherstellung müsstest Du mit der CD starten, C: wiederherstellen, dort B&R starten und die VMs wiederherstellen. Edit: Veeam wirbt mit der Sicherung von physischen Maschinen, weil sie das ja auch können. Einfach über den Agent, nicht direkt über B&R. In grösseren Umgebungen läuft B&R nicht auf dem Host, sondern auf einem separaten Server. Da würde es nicht viel Sinn machen, wenn der direkt sich selbst sichern könnte. Da man die Agents über B&R steuern kann, hat man trotzdem alles in einer Konsole.
  4. Veeam B&R sichert die VMs direkt, ohne weitere Agents. Jede gesicherte VMs belegt eine Instanz. Für die Sicherung des Hosts benötigst Du Veeam Agent. Sichert der in ein Veeam-Repository und wird über B&R zentral verwaltet, belegt er drei Instanzen. Die Community-Edition unterstützt zehn Instanzen. Du kannst also entweder zehn VMs sichern oder den Host und sieben VMs. Der Agent kann aber auch direkt sichern, ohne Verwaltung über B&R. Dann belegt er auch keine Instanzen. Soweit ich weiss sichert die Community-Edition gleich wie die Standard-Edition, man kann also die gleichen Werte bezüglich Geschwindigkeit und Speicherplatz erwarten. Falls Du B&R in einer VM laufen lässt, solltest Du deren VHDX-Dateien über den Agent gemeinsam mit dem Host sichern. Ansonsten musst Du für einen Restore zuerst Veeam installieren und die Backups einlesen.
  5. Das wird dann aber teuer. Mietet man nur ein viertel, halbes oder ganzes Rack, hat der Betreiber des Rechenzentrums noch einen Schlüssel. Selbst bei Cages kenne ich es nur so, dass zwar an der Türe steht "Zutritt nur mit Kunden" und dass man als Kunde vor jedem Zutritt informiert wird, aber der Betreiber kommt immer noch alleine rein. Da müsste man schon seine eigenen Racks hinstellen. Davon gibt es sogar welche in einem Panzerschrank, aber das ist dann nicht mehr günstig. Eigene Hardware kann aber je nach Anwendung sinnvoll sein, gerade im Hinblick auf Sachen wie Meltdown & Co.
  6. Ja, das ist so. Jeder Client, der den KMS erreicht, kann eine Lizenz erhalten. Es fragen nur Clients oder Server den KMS an, die mit dem KMS-Client-Key installiert wurde. Schon mit MAK aktivierte Produkte fragen den KMS nicht und zählen deshalb auch nicht dazu. Nein, musst Du aber auch nicht. Um einen KMS zu betreiben, muss man gewisse Anforderungen erfüllen: Volumenlizenzvertrag, Mindestanzahl Clients... Deshalb vertraut Microsoft darauf, dass man den Lizenzvertrag einhält und zählt die aktivierten Clients nicht. Windows Server, welche als Gast auf einem mit Datacenter installierten Hyper-V laufen, können mit einem AVMA-Key installiert werden. Dann werden sie automatisch über den Hyper-V aktiviert. Fazit: Mir sind keine Probleme mit Datacenter und MAK bekannt. Nur für Datacenter würde ich keinen KMS installieren, weil man da ja nicht so viele Hosts hat und die VMs über AVMA aktiviert werden können.
  7. Hatte in den letzten Monaten mehrere solche Projekte. Dabei habe ich folgendes festgestellt: - Geräte mit Windows 7 laufen auch mit Windows 10 - bei No-Name-Hardware sind manchmal Treiber für die Netzwerkkarte erforderlich - bei Markenhardware waren alle Treiber bei Windows 10 dabei - alle Software, die unter Windows 7 lief, läuft auch unter Windows 10 Haben kürzlich in einer Schule mit kleinem Budget über 100 Rechner von 2012-2015 mit SSD ausgestattet und Windows 10 ausgerollt. Mit den zusätzlichen Treibern laufen alle problemlos und mit akzeptabler Geschwindigkeit.
  8. Tritt das Problem auch beim Windows Explorer auf? Habe das kürzlich gesehen an einem aktuellen Windows 10 mit mehreren Monitoren. Google findet viel bei "windows 10 explorer white bar", darunter auch diverse Workarounds. Es soll zum Beispiel helfen, die Anwendung im Kompatiblitätsmodus für Windows 8 laufen zu lassen. Scheint ein Bug in Windows 10 zu sein, evtl. in Kombination mit gewissen Grafiktreibern.
  9. Ich würde es mit Inkscape versuchen. Das kann PDF-Dateien öffnen.
  10. Webserver haben ein Standard-Dokument, welches sie ausliefern, wenn man keine Datei angibt. Wenn man auf google.de geht, muss man ja auch nicht google.de/index.php eintippen. Wenn ich die Datei abrufe, erhalte ich ein Word-Dokument. Dieses wird der Virenscanner mit Hilfe seiner Signaturen erkennen. Der Server könnte aber theoretisch erkennen, was für ein Client ankommt und auch eine andere Datei liefern (zum Beispiel eine manipulierte Android-App, wenn ein Smartphone kommt). Ich rufe solche Dateien mit wget ab und speichere sie mit anderer Endung. wget hat im Gegensatz zu einem Browser keine JavaScript-Engine, kann also wirklich nur downloaden.
  11. Die Migration ist abgeschlossen. Es hat soweit alles funktioniert. Falls jemand mal vor der gleichen Aufgabe steht, hier eine kurze Zusammenfassung: - AAD Connect eingerichtet, dabei das Attribut "msExchangeMailboxGuid" ausgeschlossen. Das ist wichtig, weil sonst auf Office 365 keine Mailboxen für die User erstellt werden, da sie lokal schon eine hätten. - Allen Benutzern in Office 365 eine Lizenz zugewiesen. Dabei wird dann das Postfach erstellt. Dies dauert nur wenige Minuten. - Alle Postfächer als PST exportiert und eine Mapping-Datei (CSV) erstellt. Mit dem Importer importiert. Hier ist es wichtig, genügend Zeit einzuplanen. Für die 26 GB (verteilt auf 550 Postfächer) hat sich der Importer fast zwei Tage Zeit gelassen. - Getestet, ob das Login etc. funktioniert. Ging alles, auch Postfachberechtigungen wurden übernommen. - MX umgestellt, Autodiscover-Eintrag gemacht, internen SCP entfernt (mit "Set-ClientAccessServer –Identity ServerName -AutoDiscoverServiceInternalUri $null"). - PST-Dateien nochmals exportiert, aber nur Elemente, welche nach dem letzten Export gesendet oder empfangen wurden. Beim Exchange 2010 musste ich dazu die Spracheinstellungen auf US stellen, da er sonst das Datumsformat nicht akzeptiert hat. - PST-Dateien nochmals importiert. Ich habe sie mit AzCopy in ein Unterverzeichnis hochgeladen und die Mapping-Datei angepasst. Der Link zum Storage bleibt gleich. - GPO erstellt, welche "https://autologon.microsoftazuread-sso.com" im IE der Intranetzone hinzufügt bzw. im Chrome der AuthServerWhitelist. Dies ist erforderlich für SSO. SSO verhält sich wie folgt: - neue Rechner (Windows 10, Office 2019, neue Profile): Beim Start sucht Outlook nach Mailkonten, zeigt die Adresse an und mit einem Klick wird das Konto eingerichtet. Im IE und Chrome kommt man ohne Kennworteingabe ins OWA, OneDrive etc. Lediglich die Mailadresse muss man angeben (oder man verwendet einen speziellen Link). - alte Rechner (Windows 7, Office 2010, bestehendes Outlook-Profil): Da Outlook sich zum alten Exchange verbindet, repariert man das Profil. Dann muss man sich einloggen und Outlook neu starten. Es erscheint mehrmals die Kennwortabfrage, welche man wegklicken kann. Nach ca. 30 Sekunden erscheint die Meldung, der Administrator habe eine Änderung vorgenommen, welche einen Neustart von Outlook verlange. Nach dem zweiten Neustart ist Outlook mit Office 365 verbunden. Fazit: Das "einfache" SSO über das Computerkonto ist eine sehr praktische Sache und funktioniert tadellos.
  12. Ich kann den Brother ADS-2800W empfehlen. Den habe ich auch Kunden verkauft, denen der Scanner im Multifunktionsgerät zu langsam war. Bin echt überrascht, wie viel der kann für den Preis: er ist unabhängig von einem Rechner und scannt direkt auf eine Serverfreigabe, einen SharePoint, OneDrive etc. Dabei erkennt er, ob ein Dokument farbig oder s/w ist, ob es doppelseitig bedruckt ist und er richtet es gerade aus. Die Scangeschwindigkeit ist hoch (30 Seiten/min doppelseitig in Farbe). Manko: OCR geht nur über den PC mit mitgelieferter Software. Wird das benötigt, muss man zu einem teureren Modell greifen.
  13. Ich verwende jeweils folgenden Aufruf, sowohl für die erste als auch die nachfolgenden Synchronisierungen: robocopy /e /v /mir /copyall /b /efsraw /XJ /r:0 /w:0 /tee /log:c:\log.txt /b: mit Backup-Privilegien kopieren (damit auch sonst nicht zugängliche Daten wie Benutzerprofile kopiert werden können) /efsraw: EFS-verschlüsselte Dateien ohne Entschlüsselung kopieren (funktioniert sonst nicht, wenn man den Schlüssel nicht hat) /XJ: Junctions nicht folgen (sonst gibt es bei "App Data" eine Endlosschleife) Damit habe ich schon viele Server migriert. Der Tipp von "daabm" bezüglich DFS ist trotzdem prüfenswert. Es ist spätestens bei der nächsten Migration ein Vorteil, wenn die Freigaben unabhängig von Servernamen sind.
  14. Eine Datenbank kann problemlos mehrere Postfächer enthalten. Dies ist auch üblich. Meist macht man pro paar Hundert GB eine Datenbank (wobei hier die Empfehlungen variieren). Du brauchst also einmal die Standard-Lizenz und dann pro Benutzer oder pro Gerät eine Zugriffslizenz. Also entweder pro physischer Person oder pro zugreifendem Rechner (oder Smartphone), aber nicht pro Postfach.
  15. Bin unter anderem durch die Hilfe der englischsprachigen Technet-Community etwas weiter gekommen. Kurz der Zwischenstand, falls jemand mal vor der gleichen Herausforderung steht: SSO ist der Knackpunkt. Habe dazu viele sich zum Teil widersprechende Dokumentationen gelesen. Es soll funktionieren mit synchronisierten Kennwort-Hashes und Modern Authentication (Windows 10, Office ab 2013). Bei einer Cutover-Migration lassen sich die Kennwörter nach der Migration synchronisieren. Diese werden über die Mailadresse zugeordnet. Es ist zu empfehlen, dass der UPN der Mailadresse entspricht.
×
×
  • Create New...