Jump to content

mcdaniels

Premium Member
  • Gesamte Inhalte

    1.666
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von mcdaniels

  1. ...ähnlich wie bei mir,...
  2. Schönen Nachmittag! ich baue mir @Home testhalber gerade ein 10Gbit Netzwerk auf. Hierbei setze ich auf ein 10Gbit NAS (Asustor), Asusswitch (XGU-2008) und eine Intel X550-T2, 10Gb-Ethernet-Netzwerkkarte. Verkabelung CAT5e, Kabellängen max. 1,5 Meter. In der NAS sind 2 WD-RED 3TB HD verbaut, die (testhalber) im Raid0-Mode laufen. Kopiere ich nun vom PC (Samsung SSD) auf das NAS eine größere Datei (2GB), dann erhalte ich nur Datenübertragungsraten von 130MB/sec. Hab schon ein wenig mit den Settings der NIC s) experimentiert. Dennoch bleibt der Transferspeed immer gleich (schlecht). Ein Kopiervorgang vom NAS hin zum PC ist noch viel langsamer: 34 Mb/sec. Der Link wird am PC/NAS mit 10Gbit erkannt. Würden die Kabel das Problem sein, dann wäre der Link wohl nicht mit 10Gbit online. Ich denke dass der Raid 0 Verbund schon eine etwas bessere Leistung bringen sollte? Bin etwas überrascht, dass die Performance so derart mies ist. Teste nachher noch mit einer single SSD. EDIT: SSD verbaut, Kabel auf CAT6 getauscht. Speed exakt gleich "langsam"....
  3. Nachsatz: Hab jetzt rein interessehalber nochmals eine 64GB Samsung SSD verbaut (schon etwas älter). Hiermit erhöht sich die Datenrate NAS -> PC auf 400MB/SEC. Die Datenrate von PC -> NAS ist wiederum etwas schlechter. Um die 200MB/SEC. Ich muss aber dazu sagen, dass ich mir nicht die Mühe gemacht habe, die genauen Specs der alten SSD nachzuschlagen. Unterm Strich bin ich nun der Meinung, dass dieses NAS durchaus für den gehobenen "Heimanwender" ausreicht. Ob eine derartige Investition (NAS, Switch, NIC - 10GBIT) dafür steht, lasse ich allerdings im Raum stehen. Danke für euren Support! ...aber mit Sicherheit nicht mit einem derartigen NAS System, sondern mit "etwas Gescheitem"
  4. Hey! Ja ich hatte es zuvor auch mit einer SSD versucht. Es war aber offenbar generell dieses Network Traffic Tool.... JA, ich muss den Tisch verstärken, wenn ich viele Daten drauf schaufel... *lach* @DocData: Naja jetzt ist es zumindest besser wie zuvor!
  5. Konnte jetzt durch das Deaktivieren eines Network Traffic Tools einiges mehr rausholen. Versteh zwar nicht ganz warum es hier zu einem bremsenden Effekt kam (da keine Prioritäten aktiv waren), aber das hat wohl "reingefunkt". Da hab ich ggf. zu früh "geschimpft". PC -> NAS 300mb/sec NAS -> PC 150mb/sec Schon besser... aber allerdings noch immer weit entfernt von 10Gbit.
  6. Das wäre dann ja eigentlich eine Mogelpackung a la carte und eine Frechheit. Was mir gerade vorhin aufgefallen ist, ist, dass die CPU Load auf dem NAS beim kopieren von NAS -> PC auf 100% ansteigt. (allerdings offenbar "nur" ein Kern). Beim Kopieren von PC auf die NAS bleibt die CPU recht "cool". Ein Wahnsinn, wenn die Hardware rund um den 10gbit Controller zu klein dimensioniert wäre. Allerdings würde das den Preis erklären!
  7. Hallo zusammen, angesichts der Entwicklung von immer gefährlicheren Trojanern, die mittlerweile auf zig hochtechnisierte Mittel zur "Systempenetration" setzen, wollte ich hier mal eine Diskussion starten, wie das bei euch (auch im Firmenumfeld) gehandhabt wird. Wundert mich etwas, dass es hier noch keine Diskussion darüber gibt. (vielleicht habe ich sie aber auch einfach bislang nicht gefunden / nicht gut genug gesucht) Aktuell ist der Hauptangriffsvektor das altbekannte Email. Entweder mit Anhang, oder mit einem Link. Das ist ja an sich überhaupt nichts Neues mehr. Was mich (fast) schockiert ist, wie ausgekocht die Ganoven mittlerweile sind. "Belauschen" von Opfern, analysieren des Emailverkehrs, analysieren wer mit wem kommuniziert. Darauf aufsetzend dann exakt auf die "Zielperson" zugeschnittene Emails, in perfektem Deutsch und mit Inhalten die den tatsächlichen laufenden Geschäften des Betriebes entsprechen. Was alle gemeinsam haben: Die Hartnäckigkeit. Irgendwann klickt ein User den Link an, oder öffnet einen Anhang / aktiviert das Makro etc.. Das Schlimme dabei ist, dass viele der User dann ja mal nichts sagen... Unsicherheitsfaktor: Benutzer Das war schon immer so und wird auch weiterhin so sein. Somit kann man logischerweise nur versuchen proaktiv gegen diese Bedrohungen vorzugehen. Ich denke hier an: Benutzerschulungen, Benutzer fortlaufend informieren. Systeme immer auf dem aktuellen Stand halten. Virenscanner aktuell halten. Scan des incoming und outgoing Traffic. Unbedingt SSL-Inspektion (SSL Deep Inspection) des Traffic. Bei nicht vorhanden sein eines SSL Scans, reißt man meines Erachtens ein gravierendes "Loch" auf. Blocken von div. Inhalten, die per Mail kommen / User dürfen so gut wie nichts herunterladen. (schon gar keine ausführbaren Dateien und Scripts). Nie mit Adminrechten / oder gar Domainadminrechten auf einer Workstation arbeiten. Makrosicherheit so hoch wie möglich einstellen. Bestenfalls Makros abdrehen (geht aber nicht immer). Was machen wenn der Trojaner bereits aktiviert wurde Hier bin ich mir, angesichts der letzten Informationen, nicht mehr sicher. Dass der PC, von dem die Verseuchung ausging, von Netz genommen wird, ist klar. Damit ist es aber bei Weitem noch nicht getan. Man liest, dass zb der Emotet-Trojaner zuerst mal im Hintergrund wartet und versucht, möglichst viel über das System zu "lernen". Hierbei zielt er u.a. darauf ab, Domänenadminrechte zu erhalten und quasi die Domäne zu "übernehmen". Was heißt das für den Admin? -> Bei Infektion -> Am Besten die Domäne neu aufziehen? Sofern eine Infektion stattgefunden hat, kann man sich ja nie mehr sicher sein, dass alles mit rechten Dingen zugeht. Wie seht ihr das bzw. was ist eure Meinung dazu?
  8. @NorbertFe meinte etwas Ähnliches wie @RolfW. Was sind für dich die "notwendigen Maßnahmen".
  9. stimmt. Wie siehst du die Problematik eigentlich?
  10. das hast du gut erkannt :-P (ich meinte natürlich im Optimalfall). kenne ich genug! Die meisten Netzwerke sind ganz sicher nicht "perfekt" aufgebaut. Manche eben zwangsläufig nicht... U.a. deshalb ist ja div. Schadsoftware so erfolgreich.
  11. Absolut korrekt! Ja und nein, denke ich. Es kommt ganz darauf an, was dieses "Ding" nachlädt. Wie man so liest, kann die nachgeladene Software individuell sein. Für eine Domäne vermutlich ein Supergau? Dies bestätigen Artikel, in denen es heißt: "In mehreren dem BSI bekannten Fällen hatte die Infektion große Produktionsausfälle zur Folge, sodass ganze Unternehmensnetzwerke neu aufgebaut werden mussten." Uns ist allen klar, dass es keinen 100% Schutz gibt. Panik ist natürlich auch fehl am Platze. Ich für meinen Teil setze aber -im Rahmen meiner Möglichkeiten- alle Hebel in Bewegung, um möglichst gut geschützt zu sein. Betreffend Windowsupdates, sehe ich da auch ein Problem. Aufgrund diverser Vorkommnisse mit fehlerhaften Updates seitens MS, sind viele Admins beim Einspielen von Updates sehr vorsichtig geworden. Will heißen, sie spielen die Updates nicht zeitnah ein, sondern warten mal ab. Dass dies zu einem Boomerang werden kann, versteht sich. Es sollte also gar nicht erst soweit kommen, dass ein Script / Schadcode etc. die Möglichkeit bekommt, eine Sicherheitslücke auszunutzen.
  12. Ist es aber nicht im Interesse des “Firmennetzwerkes“ gewisse Sicherheitsmechanismen zu aktivieren? Wenn ich da u.a. an die DSGVO denke, muss man dem Anwender, sofern man Firmengeräte zur Verfügung stellt, entsprechend abgesicherte Geräte zur Verfügung stellen. Security by design. Im Zeiten wie diesen eher wenig angenehm, wenn du quasi nicht reagieren darfst.
  13. D.h. ihr dürft gewisse Sicherheitsmechanismen nicht implementieren?
  14. All das von euch Erwähnte kenn ich sehr gut. ;) @magheinz habt ihr incoming / outgoing ssl deep inspection aktiv, was den Traffic angeht? Scannt ihr den Datenstrom in das bzw. aus dem Internet. Fortigate zB macht das ganz gut. (DNS Blacklists, Antivirus etc). Bei mir wurde auf diesem Wege mehrfach verhindert, dass die Schadsoftware nachgeladen wurde, nachdem ein User auf einen Link geklickt bzw. ein Makro aktiviert hat. Wie bei dir, fehlt aber jegliches Bewusstsein für die Gefahr, die von derartigen Bedrohungen ausgeht. Selbst wenn man es 100x erwähnt.
  15. @zahni: klar! die Details zu den anderen Umständen (Verbreitung, Auswirkungen auf das Netzwerk, die Domäne) und eure Sicht dazu würd mich dennoch auch interessieren.
  16. @multikulti an sich will ich hier nicht explizit auf "meinen" Stand der Dinge eingehen, sondern vlt. eine generelle Diskussion anstoßen. Meine bisherigen Sicherheitsvorkehrungen konnten uns Gott sei Dank bislang vor einem GAU bewahren. Ja genau, das wäre zum Beispiel eine Frage: Wie will man einen sauberen Stand identifizieren? Wird vorhandene Antivirussoftware einen Befall identifizieren? und und und... Hat es schon mal jemanden von euch hier erwischt... gibt es Erfahrungen?
  17. Dateiaustauschserver für zwei Standorte

    ja, klar - ich hab nix dagegen gesagt
  18. Dateiaustauschserver für zwei Standorte

    @Squireja, da hast du recht. Hab es nur überflogen, mein Fehler. So etwas in die Richtung könnte z.B. funktionieren: http://www.techspacekh.com/integrating-nextcloud-user-authentication-with-ldapactive-directory-ad/
  19. Dateiaustauschserver für zwei Standorte

    @Squire: Wenn wir hier aber von -sagen wir- 100 Usern+ reden, wäre es schon eine ganz schöne Arbeit, alle nochmal anzulegen. Warten wir mal auf den TO.
  20. Dateiaustauschserver für zwei Standorte

    ...wir wissen eigentlich nicht, was er genau will, oder ?
  21. Dateiaustauschserver für zwei Standorte

    von wie vielen Benutzern reden wir hier? falls eine Cloudlösung in Frage kommt, würd ich Nextcloud der Owncloud vorziehen. FTP halte ich für unpraktisch, wobei es natürlich darauf ankommt was hier genau hin- und hergeschoben werden soll.
  22. Achso! :) ich glaube, default sind 60 Tage.
  23. Hallo, ich habe 2x Server 2012 DC (aktueller Patchstand), die offenbar ein Problem bei der DFS-Replikation haben. Ich kann allerdings nicht nachvollziehen, warum das so ist. Aufgefallen ist mir das zuletzt, als ich eine GPO erstelle, die dann auf einem Client (gpupdate) eine Fehlermeldung ausgeworfen hat. Ich habe die GPO dann wieder gelöscht und versucht den Fehler zu finden. Interessanterweise steht überhaupt nichts in den Eventlogs. Nur, dass die DFS-Replikation am Abend aufgrund einer Datensicherung gestoppt wurde / danach wieder ordnungsgemäß hochgefahren ist. Warnmeldung ist die Folgende: Der DFS-Replikationsdienst beendet die Kommunikation mit Partner SRV-DC2 für Replikationsgruppe Domain System Volume aufgrund eines Fehlers. Der Dienst wird regelmäßig versuchen, die Verbindung wiederherzustellen. Weitere Informationen: Fehler: 9036 (Zum Sichern oder Wiederherstellen angehalten) Verbindungs-ID: 2F1E8FC8-0634-4C46-A909-52A4ABEB0B94 Replikationsgruppen-ID: 13783446-D95B-4EB5-A4B2-4119C1F97545 Schließlich habe ich per DFS-Management-Konsole diverse Tests durchgeführt, die allesamt erfolgreich waren. Dennoch: legte ich auf DC1 eine Datei in den Sysvol/Domain/policies-Ordner wurde diese nicht in das Sysvol des DC2 repliziert (auch nicht umgekehrt). Irgendwann ist mir dann eingefallen, dass ich den Dienst DFS-Replikation auf beiden Servern noch neu starten könnte. Und - siehe da - die Replikation funktionierte plötzlich wieder in alle Richtungen: DC1 file erstellt -> repliziert auf DC2 -> gelöscht auf DC2 -> wird gelöscht auf DC1 DC2 file erstellt -> repliziert auf DC1 -> gelöscht auf DC1 -> wird gelöscht auf DC2 Das funktioniert dann offenbar bis zum nächsten Tag. Ggf. ist der Auslöser ja die Sicherung, die am Abend stattfindet (bei der die Replikation angehalten wird.) Was ich noch dazu sagen muss ist, dass die DFS Replikation vor einigen Monaten erst wiederhergestellt wurde, da sie fast 1 Jahr (ist niemandem aufgefallen) nicht mehr synchronisiert hat. Hatte deshalb hier mal diesen Beitrag geschrieben (Stichwort MaxOfflineTimeInDays ): Jegliche Tipps gerne gelesen
  24. Hallo Leute, demoten werd ich ihn vorerst wohl nicht, nachdem alles andere ohne Probleme läuft. Trotzdem passts mir nicht, dass es nicht ganz rund läuft Der DC1 macht auch noch WSUS und hat ein paar andere Services inne. Die 999 Tage MaxOfflineTimeInDays sind zwar sehr hoch angesetzt, haben aber damit wohl nix zutun? Sollte man das besser wieder runtersetzen, oder ist das irrelevant?
×