Jump to content

monstermania

Members
  • Gesamte Inhalte

    1.393
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von monstermania

  1. Moin, ob nun ein Router von Lancom, MikroTik oder eine Firewall (z.B. pfsense/opnsense) wäre prinzipiell vollkommen egal. Die Hardware ist dabei Dein kleinstes Problem. Du musst halt Jemanden finden, der Dir Deine Hardware sauber einrichtet! Dann brauchst Du auch keine VPN-Tunnel abschalten, wenn der Sohnemann seine LAN-Party veranstaltet. ;) Das hab ich mir auch gedacht. Ach ja, Wortman ist ja auch Distributor von Securepoint. Mit einer Securepoint UTM (z.B. UTM Zwerg) kannst Du das natürlich auch umsetzen (lassen).
  2. @pipen Du solltest mit der GF ohnehin über Wartungsfenster bzw. mögl. Ausfallszenarien sprechen! Bei einem System, dass (anscheinend) Mo-Sa von 04.30 - 21.30 für die Arbeit unbedingt benötigt wird sollte man auf jedem Fall einen Plan B (Recoveryszenario) in Petto haben. Wartungen von produktionskritischen Systemen werden bei uns i.d.R. min. 1 Woche vorher angekündigt, damit die betroffenen Kollegen/Abteilungen die Ausfallzeiten einplanen können. Und vor Updates von kritischen Systemen gehört ein vorheriges Backup Systeme unbedingt dazu! Man kann nicht immer Alles am Sonntag oder in der Nacht erledigen.
  3. Moin, schau Dir mal Clouplan an (https://www.cloudplan.net). Dürfte alle Deine Anforderungen bezüglich Administration, Datenschutz usw. erfüllen. Gruß Dirk
  4. Moin, die QNAP unterstützen rsync! Mit rsync werden nur die Änderungen an den Daten von A nach B übertragen. Das funktioniert auf Blockebene, so dass bei einer großen Datei (z.B. ZIP-Archiv) nur die jeweils geänderten Blöcke übermittelt werden und nicht die ganze Datei. Damit kann man auch über lahme DSL-Leitungen syncen. Aber obacht. Das ist kein 'echtes' Backup, sondern nur eine unidirektionale Synchronisation. D.H. eine gelöschte Datei in der Quelle wird auch auf dem Ziel gelöscht! Wer also Versionierung beim Backup benötigt muss weiter ein externes Backup von der QNAP machen (z.B. auf USB) Gruß Dirk
  5. @gerd33 Um zu prüfen, ob es an der fehlenden DNS-Auflösung liegt könntest Du testweise einfach mal die HOST Datei auf dem Sync-Client anpassen. Wenn die Synchronisiation mit angepasster HOST Datei dann per VPN klappt liegt es definitiv an der fehlenden DNS-Auflösung.
  6. Aha, war das mit den 100 GB Änderung pro Tag mal so ins Blaue geschossen!? Wir haben bei einem täglichen Backup schon deutlich mehr Änderungsvolumen. Und das trotz Deduplication. Und selbst bei 'nur' 100GB brauchst Du mit den genannten 10 MBit/s fast 23 Stunden (Im idealen Fall)! Und wenn wir z.B. mal bei Veeam bleiben. Ein Forever-Incremental bläht sich auf Dauer immer mehr auf! Von daher sollte man ruhig man alle paar Monate ein Active Full machen. Ist schon Wahnsinn, was ein Regelmäßiges Active Full wieder an Platz auf dem Repository einspart! Also alle paar Monate ein neues Vollbackup an den DL schicken?
  7. Ähm, 2TB = 2000 GB. Die schaffst Du nie und nimmer in 2,5h über einen 10MBit/s Upload! Bei idealen Voraussetzungen schaffst Du etwa 4,5 GB/h (10Mbit/s). Und ideale Voraussetzungen hat man leider eher selten.
  8. Ist ja echt ein Schnapper... ;) Wenn ich mal nur unser Wochenendbackup nehme kommen wir z.zt. auf 4,3 TB Volumen (LTO). Das wären dann immerhin 430€/Monat für die Cloud. Bei 36 Monaten wären dass dann mal eben 15.480€. Wenn ich jetzt mal die Kosten einer Backuplösung auf Basis einer LTO Tapelibrary + Medien dagegen setze kommt so ein Cloud-Backup schon ganz schön teuer! Noch dazu verlangt doch unsere GF tatsächlich, dass wir nicht nur ein Wochenbackup bereithalten müssen, sondern dass Jeweils die letzten 6 Monate im Backup vorhanden sein müssen. Das geht dann bei 6 Monaten eher in die Richtung 12 TB Backup-Volumen, was ein Cloudbackup preislich dann noch unattraktiver machen würde. Nicht falsch verstehen. Cloud-Backup ist eine feine Sache und kann gerade bei Kleinstfirmen mit ziemlich geringen Backupvolumen eine durchaus interessante Alternative sein. Aber für eine etwas größere Firma rechnet sich so etwas nur unter sehr sehr bestimmten Voraussetzungen. Hier ist dann z.B. denkbar, dass nur bestimmte unverzichtbare Daten (zusätzlich) in der Cloud gesichert werden. Aber ein solches Backupkonzept ist dann natürlich entsprechend komplex. Und nein, wir sind kein Konzern, sondern ein einfaches Mittelstandsunternehmen mit ca. 50 PC Arbeitsplätzen. Wir machen hier übrigens auch selbst 'Cloud-Backup' Ein Außenstandort sichert seine Daten per Internet in unser Firmennetz. ;)
  9. Mach doch einfach. Ich frage mich dann nur, warum Du dann überhaupt fragst, wenn Du doch ohnehin schon weißt was das Beste ist. :rolleyes: Du kennst den unterschied zwischen Garantie vs. Vor-Ort-Service!? Aber egal. Ich hab geschrieben, was ich davon halte. Irgendwann wirst Du dann vielleicht auch meine Ansichtsweise nachvollziehen können! PS: Das "gestandene Rack NAS mit viel Power" QNAP TS-EC880U unterstützt nur SATA-Platten und kein SAS. Guckst Du hier: https://www.qnap.com/de-de/product/ts-ec880u/specs/hardware
  10. Wenn es mit der QNAP mal hakt, kannst du Dir nix dafür kaufen, dass Du bisher nie ein Problem mit einer QNAP hattest! ;) Gerade ein zentrales Storage ist ein klassischer SPOF. Du kannst ja im QNAP-Forum mal schauen, bei wie vielen Leuten es schon massive Probleme z.B. beim Rebuild des RAID bei einer defekt HDD gab oder beim FW-Update gab/gibt. Von der Performance will ich mal gar nicht anfangen. Ich habe noch kein QNAP NAS gesehen, dass es von der realen Performance her auch nur ansatzweise mit einem SAN der gängigen Markenhersteller aufnehmen konnte. Dazu käme noch der für mich Elementar wichtige Punkt des Vor-Ort-Servicevertrags. Ich würde nie ein zentrales Produktivstorage nutzen, bei dem es keinen Vor-Ort-Servicevetrag mit garantierter Reaktionszeit gibt. Interessant wäre auch Dein Versuch Deine vorhandenen SAS Platten in die TS-EC880U einzubauen. Die QNAP unterstützt AFAIK nur SATA und kein SAS! Aber mach mal einfach! So lange es gut geht, kannst Du Dich freuen, dass Du '"viel" Geld gespart hast. Und wenn es dann doch knallt oder die Performance grottig ist, suchst Du halt hier im Forum nach Hilfe.
  11. Ich würde keine unternehmenskritische Umgebung mit einem QNAP betreiben wollen! QNAPs als Backupmedium oder für eine Testumgebung OK, aber m.E. nicht als Produktivumgebung. Hab hier selbst eine QNAP als Datengrab/Spielwiese im Einsatz. Nach einigen schlechten Erfahrungen beim FW-Update habe ich inzwischen bei jedem QTS-Update echtes Bauchgrummeln. Updates werden inzwischen nur noch mit einigen Wochen bzw. Monaten installiert, und auch nur wenn aus der Community keine "gröberen" Fehler gemeldet werden.
  12. Moin, wir sind z.Zt. in der Findungsphase für eine Migration Exchange zu Office365. mal ein paar Stichpunkte, die bei uns zu einigen Fragen führen: - Office365 benötigt zwingend eine extrem stabile Onlineverbindung. Ohne Internet fällt auch sämtliche interne Email-Kommunikation flach! Wir haben hier leider doch hin und wieder Ausfälle, so dass wir über einen Fallback nachdenken müssen. -> Kosten - Anbindung von Multifunktionsgeräten (Scan2Mail) - Anbindung der Faxlösung an Office365 - Anbindung der vorhandenen Email-Archivlösung an Office365 - vorhandene Email-Signatursoftware/-Regelsoftware läuft nicht mehr mit Office365 -> Alternativlösung muss gefunden werden - Backuplösung für Office365 ist verhältnismäßig teuer (Veeam für Office365) - usw. Ach ja, wir kommen auch nur auf ca. 60 Anwender. Der Gedanke, dass bei der Umstellung auf Office365 der interne Exchange wegfällt ist ja richtig. Allerdings wäre das bei uns 1 Server VM von insgesamt ca. 30 VM's. Das Outsourcing von Exchange vereinfacht/verbilligt daher nahezu nichts in Sachen Hardware. Zumal für einige der oben geschilderten Probleme wieder Lösungen eingesetzt werden müssen, die auch wieder Aufwand/Kosten nach sich ziehen. Von daher ist bei und die Entscheidung einer Office365 Migration mit Outsurcing des Exchange noch vollkommen offen. Gruß Dirk
  13. Hmm, 'geht nicht' ist natürlich ein toller Ansatzpunkt! :rolleyes: Welche Fehlermeldung gibt es denn (Log-Dateien)? Logs auf den SQL-Server ausgwertet? VPN-Logs ausgewertet? Schon mal darauf geprüft, ob evtl. ein Timeoutfehler vorliegt? Gruß Dirk
  14. Moin, wir nutzen für solche Zwecke HP RGS (Remote Graphics Software). Auf der Workstation läuft der HP RGS Sender und auf dem PC zu Hause läuft der HP RGS Receiver. Für HP Workstations ist die Software Lizenzkostenfrei verfügbar! Also stell für Deine User 3 HP Workstations in den Serverraum und gut ist. ;) Wir nutzen das bei und um einigen Mitarbeitern die Möglichkeit zu geben CAD per Homeoffice zu machen. Funktioniert Prima. Gruß Dirk
  15. Ja und!? Im Gegensatz zu der von Euch z.Zt. genutzten Lösung benötigt Veeam Backup & Recovery zur Sicherung von Exchange oder SQL keinen speziellen Agent oder irgendwelche Zusatzlizenzen! Du darfst ruhig glauben, dass Veeam so ziemlich das Beste ist, was es an Backupsoftware für virtuelle Umgebungen am Markt gibt! Du kannst Veeam auch problemlos für 30 Tage testen und Dir selbst ein Bild von der Leistungsfähigkeit machen. :) Ach ja, wenn die Backuphardware stimmt, ist Veeam sehr schnell. Wir haben ein mehrfaches der vor Dir genannten Datenmenge täglich im Backup. Veeam B&R ist damit in wenigen Stunden durch. Das speichern auf LTO-5 dauert länger, da durch die Tape-Library nur ca. 140MB/s durchlaufen.
  16. Gute Frage! Wahrscheinlich, weil man ja doch irgendwie helfen will. :suspect: Sollte den guten Peter auf Ignorieren setzen und gut ist...
  17. Sorry, aber Deine Beiträge haben immer etwas dermaßen Unglaubliches an sich, dass ich ob der 'B..dheit' der Fragen fast schon an Fakes glaube! Warum schreibt Du solche 'Belanglosigkeiten' wie den Einsatz von Veeam auf dem Hyper-V eigentlich erst im x-ten Post im Fred!? :confused: Schau Dir doch mal das Whitepaper zu dem Systemvoraussetzungen von Veeam an. Findest Du ganz einfach hiermit: http://www.gidf.de/ Und diese Mindestvoraussetzungen musst Du natürlich zum sowieso benötigten Hyper-V Speicher addieren! Wenn also der Hyper-V ohnehin bereits 4 GB benötigt und Dein Veeam auch nochmal z.B. 8 GB benötigt, solltest Du also min 12 GB am freien RAM verfügbar haben! Zum RAM Bedarf eines SQL Express (Veeam): Ein SQL Express nutzt maximal 1 GB RAM pro instanz. Steht übrigens auch in den Whitepapers zum SQL Express!!! Von daher kann sich ein SQL Express kaum 'sehr viel Speicher' krallen, wie Du oben gepostet hast. Unsere SQL Express-Instanzen ziehen sich maximal 1,5GB RAM. Wie immer gilt: RTFM! ;) Gruß Dirk
  18. Hier der Link zu kostenlosen Sophos UTM Free (Business). https://www.sophos.com/de-de/products/free-tools/sophos-utm-essential-firewall.aspx
  19. Wozu braucht es bei VPN einen 2. Server!? Ich gehe mal davon aus, dass der Server ja Irgendwie am Internet hängt. Da nimmt man halt eine kostenlose Firewall-Distribution (z.B. OPNSense/pfsense oder ipfire) und kauft z.B. ein PCEngines APU2 und richtet das Ganze ein. Kostet ~ 200€ und man hat neben VPN (OpenVPN oder ipsec) sogar eine vollwertige Firewall. Oder, falls man nicht basteln kann, kauft man direkt eine Netgate SG1000 mit pfsense drauf. Kostet 159€. Viel Geld muss man auf Jedem Fall nicht in die Hand nehmen.
  20. Nö, eine solche Vorgehensweise ist ja dermaßen 'out'. Probleme lösen!? Ach was, lieber irgendwas hinbasteln, was oh Wunder funktioniert. Und sich dann als der große EDV-Guru feiern lassen... Hab ich in meiner aktiven Zeit als EDV-Berater ständig erlebt. Mein Highlight waren immer im Prinzip deaktivierte Firewall-Appliances (Any to Any-Regel :cry:) weil 'irgendwas' nicht funktioniert hat!
  21. Ja, und Du bist Mal eben rund 1000€ los. Da bekommt man ne ganze Menge Äpfel und Eier für! Nicht falsch verstehen. Aruba baut schon tolle AP. Wenn Geld keine Rolle spielt... @Piranha Ja, mit der Unifi Controller Software ist Captive Portal möglich. Entweder die Software auf RasPi laufen lassen, oder den Unifi Controller dazu kaufen. Gruß Dirk
  22. Moin, es muss m.E. nicht unbedingt Ruckus oder Aruba sein, Eine relativ preiswerte Alternative sind AP von Unifi. Wir verwenden die AC Pro bei uns in der Firma. Unifi bietet für die Geräte eine Controllersoftware mit der sich alle AP zentral verwalten lassen (läuft z.B. auf einem Rasberry). Da hat man eine sehr schöne Übersicht über die Anmeldungen und Auslastung der einzelnen AP, zentrale FW-Updates, usw. Die Teile laufen hier absolut stabil (2,4GHz / 5GHz mit internem WLAN und Gastnetz per vLAN). Handover zwischen den einzelnen AP klappt auch wunderbar. PoE Adapter werden ebenfalls mitgeliefert, so dass außer einem LAN-Kabel keine weitere Strippe zum AP erforderlich ist. Einzige Einschränkung: Max. sind 4 verschiedene WLAN möglich (4 SSID). Das dürfte aber im SOHO-Bereich vollkommen ausreichen. Gruß Dirk PS: Repeater sollte man möglichst meiden. Bringt nur eine eine Halbierung der verfügbaren Bandbreite!
  23. Hmm, anscheinend allein schon abseits der technischen Anforderungen eine interessante Frage. :) Ja, ich würde auch lieber den Inhouse Exchange behalten, da aber (zumindest in Teilen) eine komplette Integration von Skype for Business und Sharepoint angedacht ist würde das quasi auf eine Mischung zwischen Exhange online und lokalem Exchange hinauslaufen. Nicht gerade das, was ich persönlich als unbedingt erstrebenswert erachte. Gruß Dirk
  24. Moin, es zeichnet sich immer mehr ab, dass wir im nächsten Jahr auf Office 365 migrieren werden und die Exchange-Dienste in die Cloud auslagern. Z.Zt. haben wir diverse Devices, die z.B. Status-Emails per SMTP über den Exchange verschicken(intern), Multifunktionsgeräte, Faxsoftware sowie automatischen Rechnungsversand aus dem ERP. Für das Alles sind entsprechende Konnektoren auf dem internen Exchange eingerichtet. Wir wollen daher den internen SMTP-Verkehr vom Exchange auf einen anderen SMTP-Dienst umstellen, der zunächst an den internen Exchange und dann nach der Migration an Office 365 relayed. Wie sind diesbezüglich der Erfahrungen hier? Was setzt Ihr so ein und warum? Prinzipiell reicht ja der MS SMTP-Dienst aus um so etwas zu realisieren. Gruß Dirk
  25. Dieser Eintrag war zumindest auf meinen 2 Windows 10 Pro (1703) Clients vorhanden. Nach dem manuellen löschen klappte es dann auch wieder mit den Updates auf den beiden Clients. Werde das jetzt nochmal auf den 1607 Clients prüfen. Ich frag mich bloß, warum der Eintrag überhaupt gesetzt war. :confused: Im WSUS GPO steht der entsprechende Eintrag auf 'nicht definiert'. Hab jetzt erstmal ein GPO erstellt, die diesen Eintrag löscht! Vielen Dank! Gruß Dirk
×
×
  • Neu erstellen...