Jump to content

Horstenberg

Members
  • Content Count

    139
  • Joined

  • Last visited

Community Reputation

13 Neutral

About Horstenberg

  • Rank
    Newbie

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

  1. Copernic Desktop Search haben wir bis vor einigen Jahren auch in unserem Netzwerk gesucht. Es war in vielerlei Hinsicht unzuverlässig. Wir haben sicher drei Versionen abgewartet, es hat aber nie zufriedenstellend funktioniert. Wir versuchen uns jetzt mit Lookeen in der Enterprise-Version. Das Zuschneiden auf unser System erweist sich als aufwändig. Es funktioniert bei uns aber besser als Copernic.
  2. Danke für Deinen sehr kenntnisreichen und wirklich sehr hilfreichen Beitrag. Zwei Fragen: Hast Du denn auch schon PCIe-NVMes in einen Storage Pool eingebunden? Und wenn Du ohne HW-RAID-Controller arbeitest, aber das OS immer auf einen RAID legst, hast Du dann das Betriebssystem in einen Raid-1 auf dem Motherboard-Raid-Controller gelegt? Auf SATA-SSDs? In den Storage Pool geht das ja wohl nicht. Nochmals danke für Deinen Beitrag! Derzeit hat HP professionelle, lüfterlose Switches im Angebot. Die haben aber keinen 10-GBit oder SFP+-Port. All
  3. Dass sind für mich unerreichbare Datendurchsatzraten. Ich brauche im wesentlichen lüfterlose und Silent-Konzepte, weil wir keinen separaten Serverraum haben. Ich hätte schon längst eine 10-GBit-Anbindung der Server, wenn es lüfterlose Switche mit entsprechender Leistung gibt. Ist übrigens bei vielen Settings in kleineren Unternehmen ein Thema und spricht bei der Server-Hardware für einen kompletten Abschied von Festplatten (Lautstärke, Lüfter).
  4. Habe ich mir auch überlegt. Ich dachte, dass in der Praxis vielleicht schon viele solcher Lösungen im Einsatz sind... Nachdem ich mich in den letzten Monaten viele Stunden mit Storage-Lösungen in KMU-Settings befasst habe, denke ich eigentlich, dass die Zeit der RAID-Controller mit Festplatten oder SSDs vorbei ist. Ich halte Ansätze wie den vroc-Ansatz von Intel (virtual raid on a chip) oder auch neue Schnittstellen wie Oculink und NVMe für deutlich überlegen, weil sie alte Flaschenhälse abschaffen und ganz neue Geschwindigkeiten ermöglichen. Natürlich ist das im heute noch übliche
  5. Danke für die Hinweise. So weitgehende Hinweise hatte ich aber auch gar nicht erwartet. Wenn man einen Server für die nächsten Jahre kauft, muss den jeder für sich selbst konzipieren. Die letzten Server habe ich in 2012 gekauft und die waren auch teils überdimensioniert und nicht passend für das Konzept, dafür halten sie auch heute noch gut deutlich anspruchsvollere Software aus. Meine eigentliche Frage (Storage Pools und PCIe-NVMe-SSD) scheint allerdings nicht zu beantworten zu sein. Also unterstelle ich mal, dass es leider nicht geht. Jedenfalls habe ich nirgends im Internet gefu
  6. Das Host OS lege ich auf eine M.2-NVMe-SSD, weil es praktisch ist (onboard M.2-Slot). Die M.2 kostet ja auch nicht die Welt (120 Euro oder so). Zum RAID-Controller: Die Frage ist eher, warum ich heute noch einen brauche? Mit Cache und allen Software-Options kostet der schnell EUR 1.200 extra. Warum dann nicht auf superschnelle PCIe-NVMe-Karten gehen. Wenn, ja wenn man bei diesen eine gewisse Ausfallsicherheit schaffen kann, etwa durch Storage Pools... Derzeit laufen die Server als Hyper-V-Maschinen auf fast neun Jahre alten XEONs. Prozessorauslastung meist so um die nu
  7. Ich lasse mir (voraussichtlich bei Thomas Krenn) einen neuen Server zusammenbauen, mit 2x Intel Silver 4208 Prozessoren, 256 GB RAM. Auf dem Server laufen unter Hyper-V einige virtuelle Maschinen (alle Server 2016/19 und Windows 10): - Insgesamt 9 Mal Server 2016/19: DC, Printserver, Exchange 2019, Mailstore, RDP, Web Application Proxy, ADFS, Work Folders, Fileserver. - Dazu 4 - 10 Windows 10 Clients. Bislang hatten alle Server bei mir Hardware-Raid. Die Raidkarte ist aber ein Single-Point-of-Failure und mir auch schon kaputt gegangen. SSD-Ausfälle hatte ic
  8. Ich möchte in Windows Server 2019 Standard mehrere NVMe-SSDs, die über PCI-Express am Motherboard hängen, über Storagepools (dt. wohl "Speicherpools") zusammenbinden. Die Terminologie dazu im Internet ist nie einheitlich, da Storagepools wohl oft mit Storage Spaces Direct verwechselt wird. Im Ergebnis möchte ich Storagepools als Software-Raid einsetzen (RAID-1 oder RAID-5-Ersatz), mit dem ich direkt angeschlossenen Speicher (DAS) bündele. In diesem Link von Microsoft werden verschiedene Schnittstellen für Festplatten und SSDs genannt, mit denen Speicherpools möglichst s
  9. Es gibt jedenfalls Gründe, von Exchange 2013 auf Exchange 2019 zu wechseln: Exchange 2013 läuft zwar derzeit super-stabil auch mit den neuesten Outlook-Versionen, aber der Lifecycle ist drei Jahre kürzer. Der zweite ist der Einfluss des Exchange auf das Gesamt-System. So wird nach der Support-Matrix ein Windows-Server-2019 Domain-Controller nur von Exchange 2019 und ab Exchange 2016CU7+x supported. Wer also einen 2019er-DC haben will und einen Exchange 2013 hat, muss umsteigen. Da die Preise für Exchange 2019 nicht mehr deutlich über Exchange 2016 liegen, k
  10. Derzeit sehe ich den auch nicht, wegen des verringerten Supportzeitraums bei Exchange 2019. Aber mal sehen, ob Exchange 2016 auch mit Outlook 2022 oder Outlook 2025 zusammenarbeiten wird.
  11. Hat jemand hier zwischenzeitlich Erfahrungen mit Exchange 2019 in kleineren Umgebungen mit weniger als dem empfohlenen Speicher gesammelt? Ein virtualisierter Exchange 2019 mit 64 GB für 30-40 Postfächer. Aushaltbar?
  12. Was sagt die Remotedesktop-Lizenzierungsdiagnose? Selbst wenn der Lizenzserver scheinbar überall richtig registriert ist, muss man dies noch in den Einstellungen des RD-Servers vornehmen. Hierzu etwa folgender Link: https://social.technet.microsoft.com/Forums/de-DE/0a044565-4585-4b43-80cc-d6f08077d082/remote-desktop-server-terminal-server-lizensierung?forum=windowsserver8de Ist nirgendwo dokumentiert, ich musste dies aber schon mehrfach so machen, zuletzt sogar unter Windows Server 2019.
  13. Nach sechs Jahren ist es jetzt tatsächlich preiswerter, insbesondere, wenn es jetzt noch ein paar Jahre läuft. Das war aber nicht mein Ziel. Ich beschäftige mich halt gerne mit Computern, mit der Hardware, der Software und der Programmierung, so als Hobby. Da ist eine Bastlerlösung halt interessanter. Manche haben zu schnelle Autos; das brauche ich glücklicherweise nicht.
  14. Mir geht es um den erweiterten (extended) Support. Windows Server 2019 hat extended Support bis Januar 2029. Scheint mir ein guter Deal zu sein. Exchange 2019 hat extended Support nur bis Oktober 2025. Gegenüber Exchange 2013 (extended Support bis April 2023) gewinne ich damit also nicht viel. Deswegen warte ich auf Exchange 20XX, es sei denn, die auch nicht mehr ganz zuverlässige Exchange/Outlook Support-Matrix ändert sich (was etwa sein kann, wenn Exchange 2013 nicht mehr mit Outlook 365 zusammenarbeitet). Mir wurde 2010 über ein Systemhaus ein Server von Tarox ve
  15. In 2010 habe ich Server gekauft mit 3 Jahren Support. Naiv wie ich war, wollte ich den 2013 verlängern, was natürlich verweigert wurde. Darüber habe ich mich geärgert, deswegen habe ich in 2013 meine eigene Lösung geschaffen: Zwei Mal die exakt (nahezu) exakt gleiche Hardware, komplett überdimensioniert, die aufeinander repliziert, so dass ich notfalls mit einem Server weitermache, wenn der andere abraucht. Hat mir gute Dienste geleistet. Eigentlich war für 2019 neue Hardware geplant, zusammen mit einem neuen Exchange. Bei 2019 hat mich aber der verkürzte Lifecycle enttäuscht, so d
×
×
  • Create New...