Jump to content

monstermania

Members
  • Content Count

    1,328
  • Joined

  • Last visited

Community Reputation

46 Popular

About monstermania

  • Rank
    Board Veteran

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

  1. Noch zur Anmerkung. Veeam B&R unterstützt auch den Modus, dass das jeweils letzte inkremintelle Backup in das Fullbackup integriert wird (forever incremental). Dann braucht es nur das letze Backup für das aktuelle Restore.
  2. No, das hat erstmal damit nichts zu tun da der TO ja nicht den Build bzw. die Installationsweise genannt hat. So ist SMB v1 erst ab Windows 10 Build 1709 per default bei der Neuinstallation deaktiviert. Bei einem Windows 10 Upgrade von einem älteren Build auf die 1709 bleibt bzw. blieb auch SMB v1 aktiv.
  3. Sorry, hatte überlesen, dass Ihr DFS schon jetzt einsetzt! Dann sollte es ja damit keine Probleme geben.
  4. @Weingeist Ja, ist schon klar. Nur fängt der TO nicht auf einer 'grünen' Wiese neu an, sondern übernimmt einen Datenbestand von ca. 1,5 TB. Dann sollte man zumindest mal prüfen welche Daten betroffen sein könnten. Soll ja Firmen geben, bei denen (hundert)tausende von Office-Dokumenten mit Dateiverknüpfungen betroffen sind...
  5. Zum Thema DFS geb ich auch noch mal meinen Senf dazu, da wir gerade vor einer ähnlichen Herausforderung stehen (Migrationsplanung zu DFS). Nach der Umstellung des Filesystems auf DFS funktionieren die bestehenden Links innerhalb von Dateien (z.B. Excel) nicht mehr! Das sollte man zumindest einplanen. Kann je nach Unternehmen und Nutzung ganz schön böse sein.
  6. Moin, das Rätsel ist gelöst! Microsoft hat zwischenzeitlich die Dokumentation zum WOL SCCM 'angepasst'. Die neue Methode des WOL ab SCCM 1810 funktioniert ausdrücklich nicht im Rahmen des SW-Deployments! https://docs.microsoft.com/de-de/sccm/core/clients/deploy/configure-wake-on-lan Vielen Dank auch MS und WTF soll so etwas!? Da brauchen die Jahre um endlich ein halbwegs funktionierendes WOL über Subnetzgrenzen hinweg in SCCM zu integrieren und dann ist das wieder nur halber Kram! Gruß Dirk
  7. Moin, danke für die gutgemeinten Hinweise. Das Problem ist nicht das Wake On LAN! Das eigentliche WOL ist eingerichtet und funktioniert ja wie geschrieben wenn wir es manuell per SCCM Konsole anstoßen. Wir haben konkret das Problem, dass im Deployment die Rechner nicht aufgeweckt werden. Das Deployment an sich funktioniert und berücksichtigt auch das Wartungsfenster der Rechner nur werden halt keine Wake Pakte gesendet... Gruß Dirk
  8. Moin, wir wollen in den nächsten Wochen per SCCM (CB1810) Windows 10 Enterprise (Build 1809) per Inplace-Upgrade auf unsere Clients ausrollen. Die Tasksequenz für das Inplace-Upgrade funktioniert problemlos. Wir möchten das Upgrade pro Standort nachts ausrollen und die Clients entsprechend per Wake ON LAN (WOL) aufwecken. WOL per SCCM funktioniert! Es lassen sich sowohl einzelne Clients als auch Device-Collections über die SCCM Console per WOL aufwecken (siehe Bild). Leider klappt es aber nicht mit dem WOL, wenn ich die Inplace-Upgrade Task-Sequenz auf eine Testcollection verteile (siehe Bild). Natürlich sind die Zeiten so gesetzt, dass das Ausrollen erst Nachts startet (23:30 Uhr). Beim Test waren 3 PC in der Collection. 2 waren ausgeschaltet und einer war aktiv. Bei dem aktiven PC wurde auch pünktlich um 23.30 mit dem Inplace-Upgrade begonnen. Die beiden ausgeschalteten PC wurden aber eben nicht per WOL aufgeweckt! Unter in der SCCM-Console unter Monitoring\Overview\Client Operations sind keine Einträge für ein versuchtes WOL der beiden ausgeschalteten Clients zu finden. Manuell über die SCCM Console lassen sich die beiden Clients problemlos per WOL starten. Hat Jemand eine Idee, warum das mit dem WOL im Deployment der Tasksequenz nicht funktioniert!? Gruß Dirk
  9. Bei den 'Home & Business' Offices > V2010 hat MS die Konfigurationsmöglichkeiten per GPO herausgenommen. Nur als Hinweis, auch wenn es wahrscheinlich für Dich eh keine Rolle spielt.
  10. Egal nicht, aber die Größe eines Unternehmens sagt nix über die IT-Sicherheit aus! Oder ist es etwa so das 'Großunternehmen' mit einer Zig-Millionen teuren 'SuPiDuPi-IT' gegen Sicherheitslücken gefeit sind!? Bei Konzernen wie Tchibo, Beiersdorf, Maersk, FedEx, usw. dürfte es demzufolge ja gar keine Sicherheitslücken geben... Ach ne da war ja was, die haben ja ungepatchte Windows-Systeme eingesetzt! Aber Nee schon klar, dass ein QNAP/Synology im Unternehmen die ultimative Sicherheitslücke ist.
  11. Da hast Du schon recht, QNAP/Synology ist aber in vielen KMU gern genutzte HW für das Unternehmensbackup! Im Übrigen betreibt man ein Backup-NAS i.d.R. eh im internen Netz, ohne dass auf das NAS per Internet zugegriffen werden kann. Damit relativieren sich dann auch evtl. Sicherheitslücken.
  12. Moin, wir setzten auch ausschließlich virtuelle DC im Unternehmen ein (seit vielen Jahren). Es ist aber dafür gesorgt, dass einer der DC unabhängig vom zentralen SAN läuft. Selbst wenn die gesamte virtuelle Infrastruktur down ist weil das zentrale SAN streikt, läuft zumindest noch die DC VM. Ach ja, eine Möglichkeit ist z.B. eine VM auf einem NAS zu betreiben, das ohnehin bereits für das Backup genutzt wird (z.B. QNAP/Synology). Dann braucht man noch nicht einmal einen extra Server. Gruß Dirk
  13. @vanMiehsol Bei Deinen Anforderungen passen Wunsch und Wirklichkeit nicht zusammen. Du willst keinen Datenverlust. Das ist m.E. ein frommer Wunsch. Um allein diese Anforderung abdecken zu können benötigst Du min. 2 vollkommen unabhängige Speichersysteme die als Spiegel laufen müssen. Natürlich muss die gesamte restliche Infrastruktur auch entsprechend redundant ausgelegt und entsprechend räumlich getrennt sein (z.B. Stromversorgung, Netzwerk, Brandabschnitte, usw.) Und selbst dann wäre es immer noch möglich Daten zu verlieren z.B. durch simples löschen von Daten durch einen Mitarbeiter oder gar einen Trojaner. Weil ein redundantes Storage schützt davor eben nicht. Jetzt kommt Dein Backup ins Spiel. Ein Backup bedingt aber eben eigentlich immer einen Datenverlust! Selbst wenn Du z.B. jeder Stunde ein Backup machen würdest, hättest Du im schlimmsten Fall einen Datenverslust von max. 1 Std. Und wie lange werden die Backups dann aufgehoben!? Weil so mancher User merkt doch tatsächlich erst nach Monaten, das "wichtige" Daten verloren gegangen sind. Kurz zusammenfasst: Ein absolut sicheres System ohne möglichen Datenverlust kann man nur sehr schwer realisieren (Teuer)! Daher solltest Du Dir ein gutes Backup/Restore-Konzept erarbeiten. a. welcher Datenverlust ist max. akzeptabel. b. Wie lang darf die Ausfalllzeit sein. Gruß Dirk PS: Bitte auch Gedanken zu einem Offsite-Backup machen. Ob nun mit externen gelagerten Datenträgern oder per Cloud ist erstmal egal.
  14. Moin @decehakan Ich würde die Hinweise von Nobbyaushb beherzigen. Ein DC ist ein DC und sollte keine Applikationen hosten!!! Zum Thema DMS. Ich gehe mal davon aus, dass Du die "Opensource"-Version von bitfarm (be)nutzen willst. Da ich mich mehrere Jahre beruflich mit DMS-Systemen befasst habe, würde ich mir den Einsatz von bitfarm ganz genau überlegen. bitfarm ist nicht unbedingt für "Updatefreudigkeit" der "Opensource"-Version bekannt. Außerdem hat bitfarm einige echte Nachteile. Für mich ein absolutes NoGo bei einem aktuellen DMS ist z.B. die strikte Vorschau nur als TIF-Image im Bitfarm-Viewer. Jedes native digitale Dokument (z.B. MS-Office, PDF) wird in bitfarm automatisch in ein TIF-Dokument konvertiert, dass dann im bitfarm-Viewer angezeigt wird. Ganz davon ab, dass es absolut sinnlos/schwachsinnig ist ein natives digitales Dokument in ein Bild zu wandeln um es anzuzeigen beruht auch der Volltext auf eben diesen konvertierten TIF-Dokumenten. Die Volltexterkennung von bitfarm ist grottig (AFAIK CuneiForm OCR). Ein natives Dokument, aus dem man den Volltext problemlos auch so extrahieren könnte, wird als TIF-Dokument konvertiert und dann durch die OCR geschickt! Das Ganze ist so etwas von schwachsinnig, dass mir dazu nichts weiter einfällt! D.h. Du hast für jedes archivierte Dokument ein 2. Dokument als Viewerdokument. Das ist eine unglaubliche Verschwendung von Speicherplatz und Ressourcen. Das einzige, wofür bitfarm (Opensource) m.E geeignet wäre, ist als reines Archiv für Scandokumente. Wenn man eh nur gescannte Dokumente archiviert (als TIF gescannt!) entfällt die zusätzliche Dokumentkonvertierung. Man sollt dann nur zusehen, dass man eine vernüftige OCR angeflanscht bekommt. Im Forum von bitfarm sind Beiträge, wie man eine ReadIris 16 PRO an bitfarm angebunden bekommt. Ich persönlich würde von bitfarm abraten! Gruß Dirk
×
×
  • Create New...