Jump to content

monstermania

Members
  • Gesamte Inhalte

    1.393
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von monstermania

  1. Und!? Überwachung schon eingerichtet oder willst Du darauf warten, dass so etwas wieder passiert!? Immerhin weißt Du ja jetzt wie es geht... :D
  2. Ganz einfach bei der Neuinstallation von W10 "Ich habe keine Lizenz auswählen". Nach der Neuinstallation von W10 wird das Gerät automatisch aktiviert. Habe das inzwischen bei einigen Geräten gemacht, da das Inplace-Upgrade irgendwie immer wieder mal Ärger gemacht hatte..
  3. MiMiMi... Ja, die Methoden die MS anwendet sind sicherlich Alles andere als nett oder Kundenfreundlich. ich finde es auch zum Kotzen! Aber, wird irgendjemand gezwungen die Software eines bestimmten Herstellers zu nutzen!? Es steht jedem frei sich nach Alternativen zu den MS-Produkten umzusehen. Im Endeffekt ist mir das mittlerweile egal. Ich als Admin kann eh nichts daran ändern und muss und werde mit der Situation leben. Und mein Arbeitgeber muss die Entscheidung vorgeben, welche Softwareprodukte das Unternehmen nutzen will. Und wenn wir dann halt MS Enterprise und Abo-Modelle brauchen!? So What!
  4. Nutzen seit der Umstellung auf Win 10 auf allen unseren Notebooks Bitlocker. Bisher haben wir allerdings die Win10 1511 im Einsatz. Werde demnaächst mal 1607 auf meinem Notebook testen. Wir werden wohl frühestens Ende 2016 damit beginnen 1607 bei uns auszurollen.
  5. War da nicht was von 200GB DB-Größe... ;) Und jetzt heißt es plötzlich 11 GB in 18 Jahren! Macht schon einen kleinen Unterschied, oder! Hab doch gleich vermutet, dass es wieder mal mit Kanonen auf die armen Spatzen geht... Wäre jetzt ja eigentlich nur zu klären, wie man die gewünschte Ausfallsicherheit der Datenbank bzw. der Software hinbekommt! :D
  6. Na ja, 200 GB DB ist natürlich schon mal eine Hausnummer! Wenn man da noch eine Testumgebung laufen lassen will, hast Du mal eben die DB-Größe x2 Neben einem entsprechen leistungsfähigem Server würde ich auch ein entsprechend leistungsfähiges Backup/Restore-Konzept einplanen! Allein schon im Bedarfsfall ein 200GB db-Restore zu machen bedingt ein entsprechend leistungsfähiges Backup/Restorekonzept. Wie willst Du sicherstellen, dass Du einen Ausfall < 1 Tag hast, wenn Du nur einen Server einsetzten willst? Selbst mit Mission Critical hast Du i.d.R max. 4 Stunden bis der Techniker VorOrt ist. Dann läuft der Server u.U. auch nicht sofort wieder. Von der Wiederherstellung mal ganz abgesehen. Ohne Cluster bzw. ohne Fallback-System sehe ich nicht, wie man eine (worst case) Ausfallzeit < 1 Tag realisieren könnte! Viel Spaß :D Und Du kannst ja berichten, was es nachher geworden ist!
  7. Natürlich hast Du recht! Aber in den 'normalen' Szenarien die hier gefragt/behandelt werden spielen die von Dir genannten Faktoren zumeist keine Rolle. Ich gehe auch in diesem Fall einfach mal davon aus, dass mit Kanonen auf Sparten geschossen werden soll. Wenn ich schon Herstellerempfehlungen von min. Core i3 lese, glaube ich kaum, dass es sich bei der Lösung um ein HighPerformance Datacenter handelt... In der Praxis habe ich schon Datenbankserver mit SQL Express und 32 GB RAM gesehen. Schön, wenn man dann im Monitoring sieht, dass der Server niemals mehr als 4GB nutzt... Auch toll. Unternehmen schafft sich für viel Geld einen Hammer SQL-Server für richtig viel Geld an, damit sein Reporting performanter wird (Empfehlung eines DL). Nach einigen Tagen dann das böse erwachen, dass das Reporting kaum schneller geworden ist. Unternehmen fragt bei uns nach. Nach etwas Logging stellen wir dann fest, dass die eigentliche 'Arbeit/Reporting' dummerweise überwiegend auf dem Client erledigt wird. Hätte der Kunde mal lieber einen Bruchteil des investierten Geldes in eine performante Workstation für den Controller investiert, oder gleich in ein eigens Reporting-Tool... Deshalb ja auch immer den Hersteller mit ins Boot holen. Der sollte seinem Kunden allein schon aus purem Eigennutz ein optimales System empfehlen.
  8. Ok, SQL Express fällt weg. Wirklich 200 GB DB-Größe!!! Das wäre schon eine ganze Menge :schreck:. Dann würde ich 64GB RAM aber als unterstes Limit für den Server ansetzten! Oder doch nur 200 MB? ;) Wie sieht es denn mit den Wachtsumsraten der DB pro Jahr aus!? Dazu wir der Hersteller doch mit Sicherheit etwas sagen können. Nehmen wir mal 1 GB/Jahr an. Dann wärst Du nach 5 Jahren bei 5 GB DB-Größe. Von daher würde ich dem SQL Server maximal 16 GB RAM gönnen. Mit ziemlicher Sicherheit würden auch 8 GB vollkommen ausreichen, wenn das ein reiner SQL Server ist. Wie lange willst Du denn die HW einsetzten!? Ich würde eine max. Lebensdauer von 5 Jahren ansetzen wollen. Alles darüber hinaus wäre mir zu unsicher. Das merkt man auch daran, dass die Hersteller 5 Jahre Support relativ günstig anbieten. Wenn Du dann den Support verlängern willst geht dass nur noch jährlich und zu überproportional hohen Kosten! Ich würde zunächst mal genau klären, um welche Datenmengen es genau geht und wie viel da pro Jahr dazu kommen. Dann wissen wir schon mal mehr. Dann kommt die Frage, wie es mit Ausfallzeiten/Datenverlust aussieht. Kann sich der Kunde einen Tag Ausfall leisten (worst case), oder muss dass System hochverfügbar sein? Wie groß darf der maximale Datenverlust sein, den der Kunde akzeptieren kann/will (z.B. 1 Arbeitstag, 1 Stunde, 10 Minuten)?
  9. Hmm, wenn ich lese, dass 5 Clients auf den Server (32 oder gar 64 GB-RAM :shock: ) zugreifen sollen, wäre es m.E. zunächst mal unerlässlich zu klären, ob dermaßen viel RAM/Leistung überhaupt benötigt wird! Wie groß ist überhaupt die Datenbank die genutzt werden soll? Muss es wirklich ein SQL Server Standard sein, oder darf es auch ein SQL Express sein!? Erlaubt der SW-Hersteller auch den Einsatz von SQL Express? Also, bevor ich mir irgendwelche Gedanken um Server-Sizing machen würde, würde ich zunächst mal klären, wie überhaupt die genauen Leistungsanforderungen sind!
  10. Hmm, Du solltest erst einmal die Begrifflichkeiten genau klären! BIOS -> Mit dem BIOS die 'Firmware' eines PC/Servers gemeint. Das BIOS initalisiert die gesamte Hardware eines Rechners. Firmware -> Viele Einsteckkarten haben eigene Microcontroller auf den Steckkarten. Die Basis-Software für die Steckkarten wird Firmware genannt. Treiber -> Dient dazu eine Hardware abhängig vom verwendeten Betriebssystem nutzen zu können. Da es sich bei Deinem Problem um einen Fehler in der Lüftersteuerung handelt, würde ich zunächst mal davon ausgehen, dass das BIOS des Servers aktualisiert werden sollte. Anhand des Service TAG auf Deinem Dell Server solltest Du recht einfach das aktuellste BIOS laden können. Bei den Dell Servern (das NX ist ja ein NAS, kenne ich nicht) kannst Du entsprechende Boot-Medien (ISO für Windows 32 oder 64) herunterladen, mit denen Du dann Updates unabhängig vom installierten BS einspielen kannst (BIOS und Firmeware-Updates).
  11. Moin, nur mal so zu Info: http://vmware-forum.de/viewtopic.php?t=29424 Ist ein generelles Problem in Servern, dass die Server-Hersteller bei (Fremd)Hardware immer 'zickiger' werden. Hatte den Spaß auch schön öfters mit SAS-Controllern. Mittlerweile baue ich nur noch HW in die Server ein, wenn die entsprechende HW auch explizit freigegeben ist. Kostet teilweise etwas mehr, da man SAS Controller oder NW-Karten nur von z.B. HP kaufen kann, spart aber in Endeffekt Zeit und Nerven. Gruß Dirk
  12. Also wir haben vor 2,5 Jahren für unser Dell MD3220 mit Platten (6 TB netto) und 5 Jahren Support (4h Reaktionszeit) ~ 11.000 € bezahlt. War aber im Rahmen eines kompletten Projekts. Dazu kamen dann noch Server und DL. Klar, ist damit keine Redundanz vorhanden. Das Teil aber absolut stabil und selbst FW-Updates des SAN und der HDD sind im laufenden Betrieb problemlos machbar. Und wie ich das so sehe, gibt es beim TO eh keine wirkliche Redundanz... ;) Ich finde QNAP auch super (Preis/Leistung). Aber eben nicht da wo ich einen Dauerbetrieb sicherstellen muss.
  13. Herzliches Beileid! ;) Das ist m.E. wieder mal das beste Beispiel dafür, warum es für professionelle Ansprüche auch professionelle Systeme sein sollen! Ich finde die QNAP NAS wirklich toll und wir nutzen hier im Unternehmen auch 2 Stück (u.a. Datenarchiv, Backupspeicher, Storage für das VM-Testlab) . Aber niemals würde ich mit so einem Teil ein produktionskritisches System betreiben! Was Ihr jetzt da habt, ist ein 'Hochverfügbarkeitssystem' für relativ wenig Geld, das aber nur auf dem Whiteboard funktioniert. Nicht umsonst zertifizieren die Hersteller professioneller Storagesysteme u.a. speziell die HDD und statten Sie mit eigener Firmware aus. Klar, so etwas hat seinen Preis, aber es funktioniert i.d.R. über Jahre fehlerfrei. Im Endeffekt wäre es wohl besser/günstiger gewesen, wenn man das Geld in ein vernünftiges SAN und ein gutes Backup/Restorekonzept investiert hätte und auf die (schein)Hochverfügbarkeit mit 2 Storages verzichtet hätte.
  14. Ach wie schön ist es doch mit Microsoft solch einen verlässlichen Partner an Seiner Seite zu wissen! :D Man muss es doch auch positiv sehen: Schafft zusätzliche Arbeitsplätze in der IT-Administration! Ich hätte auch noch ein paar Vorschläge für Microsoft für zukünftige 10'er Updates: - Beim nächsten Update funktioniert nur noch eine Office-Installation ab Office 2013 Open (natürlich keine OEM Versionen). - Beim übernächsten Update gibt es dann MS Office nur noch über einen separaten Lizenzvertrag a la Office 365 ... ... Gruß Dirk
  15. Ja, aber 2014 war das so. Daher haben wir Sophos dann abgelöst und sind auf die Securepoint UTM umgestiegen. Im Augenblick besteht auch keine Veranlassung für uns wieder auf eine andere Firewalllösung umzusteigen.
  16. Es liegt definitiv an dem Monitortyp. :confused: So bald ein Samsung 2243BX an die PC's angeschlossen ist, werden beim Ausdruck aus NAV2013R2 die Schriftarten gezerrt. Ist an den PC z.B, ein Samsung S22A450BWT angeschlossen (ebenfalls 1680x1050 Auflösung) oder ein beliebiger anderer 16:9 Monitortyp (FullHD), tritt das Problem nicht auf. Die Anschlusskabel waren bei den Test identisch! Ich habe testweise auch mal analoge Anschlusskabel verwendet. Dabei tritt genau das gleiche Verhalten auf. Das Schöne ist, dass man im laufenden Betrieb einfach die Monitore umstecken kann und schwupps ohne NAV2013R2 neu zu starten tritt das Problem auf oder eben nicht... So was erlebe ich zum ersten Mal und ich bin nicht erst seit gestern dabei! :nene: Fall Jemand eine Erklärung hat, immer her damit
  17. Evtl. kann ich helfen :) Schau Dir mal die Securepoint UTM an. Nutzen wir seit 2014 und hat die vor genutzte Sophos bei uns abgelöst. Lizenzierung erfolgt transparent per User und nicht wie bei Sophos per IP-Device.
  18. Mit exklusivem Zugriff meine ich, dass ausschließlich ein 1Client auf unsere QNAP zugreift. Wenn mehrere Clients gleichzeitig auf die QNAP zugreifen bricht die Performance deutlich ein. Ich habe mich mal nach Tests zur QNAP 253 umgesehen. Bei den Tests mit der 253 werden mit 1 x GBit-LAN immer > 100 MB/s erreicht. Allerdings hat bei dem gleichen Tester unsere QNAP 219II auch > 60 MB/s schreibend erreicht. Auf diese Werte bin ich niemals gekommen. Mehr wie 30 MB/s schreibend ist nicht drin. Allerdings nutzen wir unsere QNAP auch als NFS-Device für unser Testlab. Da muss der Schreibcache deaktiviert sein. Wahrscheinlich ist das für die niedrigen Werte beim schreiben verantwortlich.
  19. @scnugg Was für Festplatten hast Du im QNAP und sind die Festplatten im RAID0-Verbund konfiguriert!? Ich habe hier auch eine 2Bay QNAP konfiguriert im RAID1. Schreibend schaffe ich auf die QNAP max. 30 MB/s (lesend maximal 100 MB/s) bei exklusivem Zugriff eines Hosts auf die QNAP.
  20. Moin, zunächst mal ist es absolut wichtig zu wissen womit man es genau zu tun hat. Ist es ein Schädling dessen Fähigkeiten bereits genau analysiert wurden, so besteht die Möglichkeit, dass in der Tat nur einige Dateien auf dem Server verschlüsselt wurden und keine Neuinstallation erforderlich ist. Der betroffene Client gehört m.E. komplett neu Installiert bevor der wieder ins Netz kann. Diesen Vorfall sollte man aber auch als Anlass nehmen um die Sicherheitsmaßnahmen einer Prüfung zu unterziehen. Wie konnte der Schädling genau auf den Rechner gelangen!? Per Mail kommt ja meist nur ein Loader-Script, dass den eigentlichen Trojaner aus dem Web nachlädt. Gibt es eine Firewall mit Webproxy im Unternehmen? Dann scheint mir die Datensicherung sehr lax gehandhabt zu werden. Eine Datensicherung die diesen Namen auch verdient, sollte zumindest einen Zeitraum von mehreren Tagen abdecken. M.E. mindestens die üblichen Urlaubszeiten von 14 Tagen! Auch sollte es immer ein Offline-Backup geben. Gerade bei einem NAS besteht die Gefahr, dass es ebenfalls von einem Trojaner verschlüsselt wird und die Backups unbrauchbar werden! Gruß Dirk
  21. monstermania

    Outlook Signature

    Haben Exchange Rules Pro von CodeTwo im Einsatz. Funktioniert absolut problemlos für unsere Signaturen (intern + extern) und noch einige andere Dinge (z.B. Anhangsexport aus bestimmten Funktionspostfächern).
  22. Hast Du dafür eine Begründung!? Wir haben gerade komplett auf Chrome umgestellt. Grund war die sehr gute Unterstützung durch GPO. Edge ist (bisher) nur schlecht per GPO anpassbar und Firefox eigentlich gar nicht. Und der IE ist ja eh ein totes Pferd.
  23. Also sag blos nix gegen Motorradfahrer :D Bin selbst seit über 25 Jahren auf 2-Rädern unterwegs. Ist mein probates Mittel gegen Stress. Endlich mal niemand der einen Vollquatscht!
  24. monstermania

    i7 vs Xeon

    Moin, zunächst mal kann ich den Kollegen hier nur beipflichten. In einen Server gehört Serverhardware. Gerade bei kleinen Firmen ist der Server ein SPOF. Von daher sollte zum Server auch auf einen entsprechenden Wartungsvertrag geachtet werden (z.B. nächster Arbeitstag). - kleiner Xeon CPU (z.B. E3) - 32GB ECC RAM - echter RAID-Controller mit mindestens 2 Platten (RAID1). - Dual-Netzteil - USV - HW-Wartungsvertrag mit Vor-Ort-Service am nächsten Arbeitstag - Datensicherungslaufwerk (z.B. NAS, RDX oder Tape) Dann würde ich den Server gleich als VM-Host einrichten (z.B. mit Hyper-V). Eine VM als DC, DNS, DHCP / Fileserver reicht zwar prinzipiell aus, aber man könnte die Dienste auch auf 2 VM's verteilen. Die Serverlizenz gestattet Euch de Nutzung von 2 VM. Der Vorteil von VM gegenüber einer direkten Installation ist einfach die komplette Hardwareunabhängigkeit. Wenn also in 3 oder 4 Jahren der alte Server nicht mehr ausreicht oder aber der Server kaputt geht, stellt man einfach einen neuen Server hin und schiebt die VM auf den neuen Server bzw. spielt das Backup auf. Gruß Dirk
  25. Ist mal wieder HERRLICH. Du vermischt Hardware- und MS-Lizenzfragen in einem Satz miteinander. Du hast ja nun Herausgefunden, dass virtuelle DC das "Böse" sind: dein Fazit war doch "Finger weg", oder!? Evtl. tust Du uns und Deinen Kunden ja den gefallen und lässt von der IT insgesamt die Finger! :D (OK, der war etwas gemein). Ob Du nun als zusätzlichen DC einen HP Microserver (Kenn ich persönlich nicht) oder was auch immer für einen Server nimmst dürfte relativ egal sein. So ein reiner DC läuft auf so ziemlich jedem Einstiegsserver oder auf einer Intel-QNAP mit 4 GB RAM als VM. Unsere DC laufen hier mit 2 GB RAM als VM. Das charmante an der QNAP-Lösung ist, dass man Sie gleich noch als Backuplaufwerk nutzen kann. Das Ganze ändert aber nix an der Lizenzierung. Wenn Du einen zusätzlichen Server einsetzt (egal ob Pysisch oder virtuell), muss der auch lizenziert sein. 2 x Serverhardware mit Windows-Server = 2 x Serverlizenz. Vielen Klein(st)kunden dürfte das Konzept mit einem 2 DC aber schlichtweg zu teuer werden (Hardware+Lizenzen). Da ich sowieso VMWare-lastig unterwegs bin, habe ich oft und gern dass von Squire geschriebene Szenario umgesetzt. Ach ja, PSOD haben zumeist einen Grund! Wenn man den abstellt läuft ein ESXi genau so stabil wie ein HyperV oder jede andere Virtualisierungslösung. Ein Blick in das Protokoll wirkt da manchmal wahre Wunder! Der letzte PSOD den ich gesehen hab ist schon sehr lange her.
×
×
  • Neu erstellen...