Jump to content

mcdaniels

Premium Member
  • Gesamte Inhalte

    1.634
  • Registriert seit

  • Letzter Besuch

Reputation in der Community

10 Neutral

2 Benutzer folgen diesem Benutzer

Über mcdaniels

  • Rang
    Board Veteran
  1. Beste Backupstrategie: D2D2T > Offsite > Offline?

    Hallo, danke für die bisherigen Rückmeldungen! @Marco31 die Backupgeräte nur zwecks Backup hochzufahren war auch schon einer unserer Gedanken. Ich dachte hier z.B. an eine QNAP, die nur fürs Backup hochfährt, sichert und dann wieder runterfährt. @zahni: Wieso durcheinander? Alles läuft auf dem Backupserver zusammen (phys Server mit Arcserve UDP in ein Image, um möglichst konstanten Datenstream zum Band zu haben, VM mit Veeam) -> das geht dann auf Band + liegt auf dem Backupserver. zusätzlich NAS (robocopy der Arbeitsdaten) um zb. kurzfristig Dateien wiederherstellen zu können. (wenn der User etwas löscht). Hat sich über Jahre so bewährt. Aber, du hast schon recht. Prävention ist auch ein großer Teil. Ausführbare Dateien kommen bei mir nicht durch, weder per Mail, noch als Download. (Ausnahme Server - WSUS). Allerdings nur, wenn auf der Firewall auch eine HTTPS Deep Inspection stattfindet, sonst haut das (logischerweise) nicht hin. Verbindungen zu known bad hosts werden so gut wie möglich geblockt (Fortigate). Hiermit sollte das nachladen von Schadcode erschwert werden, falls im Netz mal etwas "losgeht". Auf den PCs ist ein Virenschutz installiert, der allerdings immer mindestens 2 Tage zu spät checkt, wenn es sich um eine verseuchte DOC Datei handelt (hab ich getestet). Der Punkt sind nichtmal ausführbare Dateien. Im Grunde kommen ja z.B. Docs durch, die dann ein Makro mit an Bord haben. Ich hab das zwar per GPO soweit runtergeschraubt, dass Makros manuell aktiviert werden müssen (ganz abdrehen spielt es nicht), das Problem bleibt aber der User. USB abdrehen ist nicht möglich, da es hier immer wieder Datenaustausch gibt (nach vorhergehendem Scan), vielleicht könnte man das über eine Cloud abwickeln, allerdings ist das ja auch nicht viel sicherer... Eigentlich müsste man den Datenaustausch generell abdrehen Die Sache ist, dass es nie eine 100%ige Sicherheit geben kann, dennoch will ich so gut wie möglich vorbereitet sein. Was mir noch immer nicht ganz klar ist, gehen diese Cryptodinger grundsätzlich nur mit den Rechten los, die der User hat, oder schafft das Ding es mittlerweile, im Hintergrund zu schlummern und Anmeldedaten im LAN zu sammeln? Wenn man den Artikel auf Heise liest, könnte man bald denken, dass es besser ist, Rauchzeichen zu geben. :-P Kann man irgendwo nachlesen, was hier wirklich geschieht? (Dann könnte man nämlich noch bessere Vorkehrungen treffen). Als Zusatzinfo: Ich muss mit minimalsten Mitteln auskommen. Viel mehr als oben Erwähntes ist nicht drinnen.
  2. Outlook hängt wegen pst-Datei

    @lamu wie groß sind "einige GB"
  3. Outlook hängt wegen pst-Datei

    Hallo, wie groß ist die PST-Datei bzw. hast du denn schonmal eine Reparatur der PST Datei versucht? LG
  4. Beste Backupstrategie: D2D2T > Offsite > Offline?

    Hi, vorweg danke für die Antworten. @djmaker: NAS / Backupserver ist in der Domäne. Ich denke mir aber gerade, wenn der User zb. den Cryptolocker ausführt, dann läuft der ja unter dem Usercontext. Da aber die User keinen Zugriff auf den Backupserver haben, kommt die "Verschlüsselung" gar nicht so weit. Oder sehe ich das falsch? @jreckziegel: Es ist ARCSERVE UDP Console + ARCSERVE UDP 6.5 im Einsatz, abgesehen davon ARCSERVE-BACKUP 17.5 STD (Standalone) --> Arcserve UDP am zu sichernden Server, ARCSERVE UDP Console / Arcserve Backup am Backupserver.
  5. Beste Backupstrategie: D2D2T > Offsite > Offline?

    Datenverlust: Wenn 1 Tag "weg" ist, wäre das noch zu verschmerzen. Wiederherstellungsdauer: 1/2 - 1 Tag wäre "möglich". Betreffend Änderungen: Budgetschonende / Ich weiß, dass dieser Ansatz in Sachen Backup wenig sinnvoll ist, dennoch ist es leider so.
  6. Hallo, ich bin gerade dabei mir eine "bessere" Backupstrategie zu überlegen. Zur Zeit sichere ich ca 5TB an Daten, die auf 3 Server (physisch) und 8 Server (virtuell) verteilt sind. Schema aktuell Physische Server sichern per Arcserve UDP auf den Backupserver (Backupstore) -> Erstellen dort quasi ein Image, das man auch mounten kann, sofern ARCSERVE UDP läuft. Virtuelle Server (ESXI) sichern per Veeam auf den Backupserver Vom Backupserver werden GFS Bandsicherungen (Mo-Do inkr, Freitag Vollsicherung) gezogen. (=die Images, die die Datensicherung erstellt) Damit noch nicht genug: Tägliche Sicherung der Arbeitsdaten per Robocopy auf ein NAS. (nur geänderte Daten). Die Sicherung ist ja recht nett, nur bin ich (abgesehen vom NAS) bei allen Wiederherstellungsszenarien von Zusatzsoftware abhängig, die mir dann die gesicherten Daten "zur Verfügung" stellt UND - das ist viel schlimmer -, es gibt nur die Bandsicherung als Offlinesicherung. Worst case: Ein Cryptolocker fährt mir ins System und macht alle Daten (auch das Backup) unbrauchbar. (nur eine Annahme, die in dieser Form - aller Wahrscheinlichkeit nach - nicht eintritt). Somit wäre also der Backupserver down + die gesamte Backupplattform. D.h. man müsste den Server neu hochziehen (oder ein Recovery von einem Backup durchführen, das nicht "verseucht" ist), danach - sofern der Bandkatalog der Bänder nicht vorhanden ist - die Bänder inventarisieren / einlesen, Das Backup retour spielen (dann hätte man die Arcserve UDP Images), Das zurückgespielte UDP-Backup per Arcserve UDP öffnen, die Dateien "recovern". Sehr viele Einzelschritte, die Zeit in Anspruch nehmen. Gibt es hier eine Strategie, die es mir erlaubt, schneller an die Daten zu kommen, diese aber so zu sichern, dass sie nicht permanent online sind?
  7. wollt ich auch gerade fragen...
  8. ich, aufgrund meiner Interpretation der Aussage im ersten Post (vom Lieferanten), da ich nicht am Radar hatte, das 1 Corepack 4 Cores sind... ;)
  9. Die Rechnerei ist mir schon klar. ;) Es geht aber im Endeffekt um die Cores., Ausgehend von der Minimumlizenzierung als Basis. @Norbertfe: Danke für deine Geduld :) @NilsK: :)
  10. 1 x VCPU mit einem Core = Eine Core zu lizenzieren 1 x VCPU 8 Cores = 8 Cores zu lizenzieren auf physisch übertragen: ich hab einen Sockel mit einer CPU und 1 Kern. ich hab einen Sockel mit einer CPU und 8 Kernen.
  11. entweder das, oder ich hab ein Verständnisproblem. 1 Core Lizenz = für einen CPU-Kern, oder ist das anders gemeint? Für mich ist ein Kern etwas Anderes wie eine CPU. wenn ich nun: 2 CPUs habe mit je 4 Kernen, dann muss ich insgesamt 8 Kerne lizenzieren und nicht nur 2 CPUs. Wenn ich die Aussage von oben hernehme, würde ich dann aber nur 2 Core Lizenzen brauchen für die 2 CPUs. MS sagt dazu: Virtualisierung im Rahmen des Core-Lizenzmodells Im Rahmen des Core-Lizenzmodells müssen alle virtuellen Cores in jeder virtuellen Maschine (VM) lizenziert werden, in jedem Fall jedoch mindestens vier Cores-Lizenzen pro virtueller Maschine (VM).
  12. Das ist ein Argument. Die Info mit den zu lizenzierenden CPUs habe ich von einem Lieferanten erhalten, der sich da "angeblich" auskennt. Deshalb ja eigentlich die Verwirrung. D.h. diese Aussage ist schlicht falsch: weil es dann eben nicht die VCpus sind sondern die VCores, um die es geht.
  13. Das ändert gar nix, seh ich auch so. Wenn ich aber 2 vCPUs mit je 4 vCores habe, kann ich nicht sagen, dass ich nur die 2 vCPUs lizenzieren muss, oder? Die Kernfrage war eben: Lizenzierung pro vCore oder eben pro vCPU.
  14. Hi Norbert, ich meinte ja auch die Zuweisung der CPUs in der VM. Ich kann aber einer VM eben vCPUs und vCores zuweisen. (das brauch ich dir aber nicht zu erzählenl ). Also Annahme: Die VM hat 2 CPUs (Sockel) und 4 Cores / CPU. Ich glaub, dass ich dann 2 x 4 Cores = 8 Cores = 8 Corelizenzen brauch. Sofern wir 2 nicht aneinander vorbeireden, meinst du ich müsste dann quasi nur die 2 vCPUs lizenzieren, was einer 4-Core-Lizenz entspricht? Ich find das echt schade, dass es keinen einfachen Weg betreffend Lizenzierung gibt. Da blickt man wirklich nur durch, wenn man nichts Anderes macht, wie MS-Lizenzierung.... :-(
×