
mwiederkehr
-
Gesamte Inhalte
1.608 -
Registriert seit
-
Letzter Besuch
Beiträge erstellt von mwiederkehr
-
-
vor 1 Stunde schrieb magheinz:
Habt ihr wirklich die Erfahrung gemacht eine SSD für das OS beschleunigt einen Server merkbar? Wann liest oder schreibt der denn was auf die Systemplatte was sich so auswirkt?
Mit Systemplatte meinte ich "Speicher für OS und Anwendungen". Der MicroServer hat ein SATA-RAID, das ist nicht zu vergleichen mit einem "richtigen" Server mit SAS-Disks. Der Start des SQL Management Studios kann damit schon mal dauern... (Und es geht hier nicht um Virtualisierung. Dort ist das Systemlaufwerk des Hosts nicht so relevant.)
-
Da fallen mir zwei Möglichkeiten ein:
- Manuell mit "Clone Virtual Machine" und dann den "Customization Wizard" nutzen zur Anpassung der Netzwerkkonfiguration. (Lässt sich evtl. über den Orchestrator oder so automatisieren, bin da nicht mehr so auf dem aktuellen Stand.)
- Mittels Replikation von Veeam. Das kann bei einem (Test-)Failover die IP-Konfiguration des Replikats anpassen.
Vergiss aber nicht einen Test-Client mit Outlook in der Testumgebung. Manchmal läuft das Update sauber durch, aber es funktioniert trotzdem etwas nicht mehr hinterher. :)
-
Probleme kann es bei Serveranwendungen geben, also Microsoft Exchange etc. Aber Office, Firefox und Konsorten laufen natürlich schon.
250 GB sollten gut reichen, wenn die Daten auf den Festplatten gespeichert werden.
-
Ich würde die SATA-Disks im RAID 1 als Datenspeicher nutzen und zusätzlich eine SSD einbauen für das Betriebssystem (hat oben unter der Gehäuseabdeckung Platz dafür). Eine SSD beschleunigt das System ungemein.
Windows 10 sollte laufen, ist aber kein Serversystem. Gewisse Anwendungen werden sich darauf evtl. nicht installieren lassen.
-
Welchen Zweck soll denn der Server erfüllen? Falls er nur der Ablage von Dateien dienen soll, wärst Du mit einem NAS evt. besser bedient. Falls Du darauf arbeiten möchtest, würde ich mir gehostete Angebote anschauen. Dann könntest Du von überall auf den Server zugreifen und auch für das Backup wäre gesorgt.
Ansonsten würde ich für diese Spezifikationen einen kleinen Server von der Stange nehmen, zum Beispiel den HPE ProLiant MicroServer Gen10. Im Gegensatz zu einem PC sind auch kleine Server für Windows Server zertifiziert und man hat keine Probleme mit den Treibern.
-
-
Guacamole ist praktisch, aber seit Server 2016 bietet Windows auch einen HTML-RDP-Client: https://docs.microsoft.com/en-us/windows-server/remote/remote-desktop-services/clients/remote-desktop-web-client-admin
Laut Testberichten soll der sehr schnell sein, aber Sachen wie Drucken und Laufwerksmapping ist halt schwierig im Browser.
Eine Alternative wäre das gewöhnliche Remotedesktop-Gateway.
-
1
-
-
Outlook ist bei der Einstellung von Signaturen leider recht zickig. (Also eigentlich ist es bezüglich vieler Einstellungen zickig...)
Liegt die Signatur als HTML, RTF und TXT vor? Es gibt ein PowerShell-Script, welches die Signatur automatisch erstellt. Ich gehe davon aus, dass die dort verwendeten Registry-Einstellungen funktionieren: https://gallery.technet.microsoft.com/office/Script-to-set-Outlook-da7b56ee
-
Diese Daten sollten auch bei Ricoh per SNMP auslesbar sein: https://www.reddit.com/r/sysadmin/comments/44293z/get_snmp_info_from_ricoh_laser_printer_how/
Mit dem Tool SNMP Tester kannst Du anzeigen lassen, welche OIDs mit welchen Werten bei einem Gerät vorhanden sind. So solltest Du den Zähler finden. Eine Anfrage an den Support von Ricoh sollte auch helfen, die sollten das dokumentiert haben.
-
Der Sinn von VSS ist, dass man genau weiss, welchen Stand die gesicherten Dateien haben. Wenn Du um 20 Uhr einen Snapshot machst, werden alle Dateien mit Stand von 20 Uhr gesichert. Änderungen danach werden separat gespeichert und beim Löschen der Schattenkopie nach der Sicherung wieder "integriert". Es ist deshalb kein Problem, wenn während der Sicherung mit den Dateien gearbeitet wird.
Den Serverdienst für acht Stunden zu stoppen ginge auch, aber anscheinend wollen die Benutzer ja arbeiten in dieser Zeit.
-
1
-
-
PRTG kann das und ist kostenlos bis zu 100 Sensoren: https://www.paessler.com/manuals/prtg/snmp_printer_sensor
Es ginge auch mit PowerShell, siehe unten auf der Seite: https://serverfault.com/questions/329789/query-page-count-from-hp-web-jetadmin-10-2
-
Standardmässig gibt es kein Limit für die Anzahl Anfragen pro Client. Bin erstaunt, dass es mit mehreren Clients besser geht.
In der Grundkonfiguration bearbeitet ein Application Pool immer nur eine Anfrage gleichzeitig. Dies kann über die Option „maximale Anzahl an Arbeitsprozessen“ beim Application Pool eingestellt werden. Aber Achtung: die Anwendung muss damit klarkommen (Schreiben in eine Logdatei etc.). Ein allfälliger Cache und die Sitzungsdaten werden zudem pro Prozess verwaltet.
-
vor 37 Minuten schrieb Heavy_D.:
Ich mache es jetzt so, dass der Kunde den Aufwand der Arbeiten nachvollziehen kann.
Also, welche Arbeiten ich gemacht habe.
Welche Programme installiert wurden, welche Arbeitsschritte ich gemacht habe und wie lange ich dafür gebraucht habe.
Inklusive Angaben zu Server-Umgebung (IP-Adresse, Hostname etc.)
Ich würde den Rapport und die Dokumentation trennen. Den Rapport schaut später niemand mehr an, die Doku wird aber unter Umständen noch Jahre später benötigt.
Den Rapport würde ich so kurz wie möglich halten. Derjenige, der die Rechnung prüft, wird sich nicht für Details interessieren. Es interessiert nicht, dass Du "apt install mysql-server" eingetippt oder die DNS-Server in der Datei "/etc/resolv.conf" mit dem Editor nano hinterlegt hast. Eher so "Grundinstallation Linux-Server inkl. Updates und Netzwerkkonfiguration, Installation MySQL, Erstellung Backupscripts, Test".
-
Was ist denn das Ziel des Protokolls? Soll es als Anleitung oder Dokumentation dienen? Im Sinne von "damit soll ein Azubi den nächsten Server alleine installieren können" oder nur "nachschauen können, was der Server für eine IP-Adresse hat und welche Version von Software XY installiert ist"? Oder wird es der Rechnung beigelegt, damit der Kunde sieht, wie lange für welche Aufgabe gearbeitet wurde?
-
Je nach Anforderungen reicht evtl. die unter https://community.spiceworks.com/topic/324146-windows-server-namespaces-dfs-vs-windows-search-indexing?page=1#entry-4921597 vorgeschlagene Lösung: Anwendungen arbeiten über DFS, auf den Clients werden aber direkt die Server verbunden. Das geht ja dank GPO auch mit unterschiedlichen Servern pro Standort etc. Nur Failover geht dann natürlich nicht automatisch.
-
Wie die Funktion heisst, konnte ich nicht herausfinden, habe auch keine Dokumentation von Microsoft dazu gefunden. Nur diesen Artikel, in dem die Funktion "Remote Search" genannt wird: http://sourcedaddy.com/windows-7/understanding-remote-search.html
Es funktioniert definitiv. (Und ist der wichtigste Grund, Windows Search auf Fileservern zu installieren.)
Anscheinend funktioniert es aber nicht mit DFS-Namespaces, da der Suchclient nicht weiss, welchen Server er ansprechen soll. Das könnte hier das Problem sein. Funktioniert es mit dem UNC-Pfad direkt auf einen Server?
siehe auch https://social.technet.microsoft.com/Forums/en-US/a1b00d0a-3806-4388-bfcf-62f7df7257f6/dfs-2012-and-windows-search?forum=winserverfiles und https://community.spiceworks.com/topic/324146-windows-server-namespaces-dfs-vs-windows-search-indexing?page=1#entry-4921597
Edit: Habe doch noch einen Link von Microsoft gefunden: https://docs.microsoft.com/en-us/previous-versions/windows/it-pro/windows-7/dd744693(v=ws.10)
ZitatSupported Locations: [...] Shares that are indexed (departmental servers*, Windows 7 home PCs, Vista home PCs) [...]
Unsupported Locations: [...] Network shares that are accessible through Distributed File System (DFS) or are part of a server failover cluster [...]
For shares that are indexed on a departmental server, Windows Search works well in workgroups or on a domain server that has similar characteristics to a workgroup server. For example, Windows Search works well on a single share departmental server with the following characteristics: [...]
Users directly access the server. That is, the server is not made available through Distributed File System (DFS).
Habe ich nicht gewusst. Anscheinend sind die Kunden mit DFS eher von der ordentlichen Sorte.
-
Möchte mich NilsK anschliessen. Der Grund "Schutz vor Serverdefekt" fällt bei Office 365 aus. Trotzdem war ich schon froh um eine Sicherung. Dann nämlich, wenn der Kunde eine Mail wieder haben will, die er vor einem Jahr gelöscht hat.
Zur Software: bis jetzt sichere ich mit Acronis Backup Cloud. Da bezahlt man nur den belegten Speicherplatz und nicht pro Postfach eine Lizenz. Man muss aber neue Benutzer von Hand ins Backup einbinden und der Restore geht nur entweder pro Mail oder dann pro Ordner oder Mailbox in eine Mailbox (kein PST-Export). Die Lösung von Veeam würde ich mir anschauen, wenn eine lokale Datenhaltung und die Einbindung in andere Veeam Produkte (Cloud Connect etc.) gewünscht sind. Dort bezahlt man dann pro gesichertem Postfach.
-
Kein Problem, ich habe mich nicht angegriffen gefühlt. Die Aussage von DocData war direkt, aber nicht falsch.
Ich erlebe solche Sachen immer wieder im Alltag. Microsoft-Produkte haben (wohl dank SBS) immer noch den Ruf, einfach zu sein. Mit dem Assistenten "zusammengeklickte" Exchanges gibt es, ebenso Hyper-V-Cluster etc. Aber für einen kleinen Linux-Server holt man sofort einen Consultant, weil ist ja kompliziert mit den Konfigurationsdateien und so...
Ich nehme mich da selbst nicht aus. Arbeite zwar schon seit Version 2000 mit Exchange und habe schon mal von Shadow Redundancy gelesen, aber auf Anhieb darauf gekommen bin ich trotzdem nicht. Umso mehr bin ich froh, hier im Forum kompetente Hilfe von Leuten zu erhalten, die täglich mit Exchange arbeiten!
-
Auf einem DC sollte möglichst keine Software installiert werden, deshalb sollte man ihn nicht als SQL Server und nicht als Terminalserver einsetzen. Windows-eigene Rollen wie DHCP oder Fileserver machen eigentlich keine Probleme. Der IIS ginge zwar, aber für Websites will man meist lokale Benutzer und die gibt es auf einem DC ja nicht.
Von daher halte ich Deine Aufteilung für eine private Umgebung für sinnvoll. Für mehr virtuelle Server würdest Du zusätzliche Lizenzen benötigen. Wegen der Virtualisierung würde ich mir keine Sorgen machen. Deren Overhead ist dank Unterstützung direkt in der CPU sehr klein.
-
Das stimmt natürlich, allerdings muss ich den Admin etwas in Schutz nehmen: Exchange macht mit jeder neuen Version wieder ein paar Sachen mehr automatisch im Hintergrund, die einem auf die Füsse fallen können. Shadow Redundancy ist zweifellos eine gute Sache, aber es müsste nicht unbedingt automatisch aktiviert sein.
-
Betreue die Umgebung nur als Urlaubsvertretung und die Doku ist sagen wir mal sparsam.
So wie ich das verstehe, war der Testserver nicht für Tests im Sinne von "der Azubi soll mal werkeln" gedacht, sondern für "neue CUs werden zuerst da installiert und dann schaut man mit ein paar Testbenutzern, ob alles läuft". Eigentlich ja keine schlechte Idee, wäre da nicht die Abhängigkeit der Server untereinander...
Ich denke, den bekommt man gut wieder raus, denn er ist nur Exchange und nicht noch DC und Fileserver, wie man vermuten könnte.
Also entweder raus, oder zu einem vollwertigen Exchange machen, mit DAG und extern erreichbar etc. (wobei ich da den Aufwand persönlich lieber gleich in Exchange 2019 stecken würde).
-
Das Problem scheint gelöst zu sein. Es gab in der Organisation noch einen anderen Exchange, der zu Testzwecken installiert worden war. Hat keine Postfächer in der DB und ist extern nicht erreichbar. Und er hatte weniger RAM (wohl, weil Testserver). Dort in der Ereignisanzeige hatte es Meldungen bezüglich Back Pressure.
Weshalb der primäre Server keine Mails angenommen hat, ist mir nicht ganz klar. Ich vermute Shadow Redundancy. Nachdem der Testserver mehr RAM bekommen hat, kommen die Mails auf dem primären Server auf jeden Fall problemlos an.
Die Lehre aus der Geschichte: Testserver in einer anderen Domäne installieren.
Vielen Dank für die Tipps! Durch das "Bestehen" auf Back Pressure bin ich erst darauf gekommen, nach anderen Servern in der Organisation zu suchen.
-
Bist Du schnell!
vor 3 Minuten schrieb djmaker:Kannst Du auflisten welche Laufwerke du verwendest inkl. Gesamt- sowie freier Speicher?
C: (Windows + Exchange): 46.5 GB frei von 149 GB
E: (Datenbank): 415 GB frei von 599 GB
L: (Logfiles): 69.9 GB frei von 99.9 GB
vor 5 Minuten schrieb djmaker:Wie groß ist die Datei "mail.que"?
516 MB (habe diese heute Morgen neu erstellen lassen, vorher war sie 2.8 GB).
vor 4 Minuten schrieb ASR:Mal ins Eventlog geschaut: https://docs.microsoft.com/en-us/Exchange/mail-flow/back-pressure?view=exchserver-2019
Ausser einem fehlenden Zertifikat gibt es keine Fehler oder Warnungen von "MSExchangeTransport". Das Log reicht aber nur ein paar Tage zurück. Wäre gut möglich, dass das Problem schon länger besteht und es noch niemand gemerkt hat (die Mails kommen ja an, einfach verzögert).
Der PowerShell-Befehl vom Link sagt:
<ResourceThrottling> <message>Component "ResourceThrottling" is not supported by this process.</message> </ResourceThrottling>
(Wohl deshalb, weil ich Back Pressure deaktiviert habe.)
-
Hallo zusammen
Ein Exchange 2013 lehnt etwa die Hälfte aller Mailzustellungen ab mit "452 4.3.1 Insufficient system resources" nach dem DATA-Kommando. Für gewöhnlich ist da ja zu wenig freier Speicher die Ursache. Auf jeder Partition sind aber noch über 30% Speicher frei und auch der Arbeitsspeicher ist nicht ausgelastet. Zum Test habe ich "EnableResourceMonitoring" auf "false" gesetzt und den Transport-Dienst neu gestartet. Leider ohne Erfolg. In der Ereignisanzeige sehe ich keine Fehler in diesem Zusammenhang. Das Problem tritt nur im Zusammenhang mit SMTP auf. Intern über Outlook werden alle Mails sofort zugestellt.
Frage: Wo kann ich nachschauen, aufgrund welchen Kriteriums der Exchange auf die Idee kommt, eine Mail abzulehnen? Vielen Dank!
Client Verwaltung EndpointManagement für mehrere Kunden
in Windows Forum — Security
Geschrieben
Gutes gehört habe ich von https://www.highsystem.ch/. Die bieten für viele Software auch fertige Pakete an (ähnlich der Library von PDQ Deploy). Der Preis ist mir leider nicht bekannt.
Ebenfalls spannend finde ich https://www.pandasecurity.com/usa/business/solutions/. Diese Lösung betreibt man nicht selbst, sondern sie läuft in der Cloud. Sie ist mandantenfähig und man lizenziert pro Gerät (um die 4 Euro/Monat/Gerät soviel ich weiss). Enthalten sind Geräteverwaltung (Monitoring, Software-Verteilung), Sicherheit (Virenscanner) und Benutzerkontrolle ("Facebook nur über Mittag erlaubt"). Pfiffig finde ich die Funktion, Geräte ohne Agent (zB. ein Drucker) von extern steuern zu können, indem automatisch ein laufender Agent im gleichen Netzwerk als Proxy dient.