Jump to content

mwiederkehr

Expert Member
  • Gesamte Inhalte

    1.510
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von mwiederkehr

  1. Danke für den Link! Lustig finde ich ja, wie nonchalant er diese Aussage macht. Überhaupt keine Selbstzweifel, ob das wirklich nötig ist, oder ob .NET überhaupt die richtige Basis für solche Anwendungen ist. Diese Denkweise scheint leider etwas Mode zu sein, nicht nur bei Microsoft...
  2. Hallo zusammen Weil ich mich gerade wieder geärgert habe: Je länger je mehr wollen meine Kunden möglichst viel selbst machen. Früher konnte ich komplette Projekte übernehmen, vom Auspacken der Server bis zu den Abschlusstests. Heute ist es eher so "Was für einen Server brauche ich?" - "Ok, danke, bestelle ich selbst.", einige Zeit später dann "Läuft fast alles, nur eine kurze Frage noch, kannst Du Dich kurz per TeamViewer verbinden?". Aus mehreren Tagen werden dann wenige Stunden. Oder "Website ist langsam", kurze Diagnose, sehe dass PHP viel CPU braucht, "könnte man das nicht cachen mit einem varnish davor?" - "Ok, danke". Einen Tag später: "Habe varnish installiert, kannst Du mir kurz die Konfiguration machen?". Bis jetzt habe ich immer die geleisteten Stunden verrechnet, aber wenn sich das so fortsetzt, müsste ich den Stundensatz massiv erhöhen. Fairer wäre ja, die Auskunft bzw. Problemlösung zu verrechnen. Nur denke ich, dass die Kunden das nicht akzeptieren werden. Dem Kunden nicht die ganze Auskunft zu geben und die Installation selbst vorzunehmen wäre eine Möglichkeit, aber "ich installiere ein geheimes Tool auf Deinem Webserver" kommt natürlich nicht besonders gut an. Die meisten meiner Kunden sind gross genug, um eine eigene IT zu haben, aber zu klein, um geregelte Prozesse zu haben im Sinne von "das und das darf nur machen, wer dafür zertifiziert ist". Wie handhabt ihr das? Macht ihr nur "alles oder nichts"? Oder verrechnet ihr immer mindestens einen halben Tag?
  3. Finde die Argumente von Nils überzeugend. Mit einem PC pro Arbeitsgruppe würden die VLAN-Konfiguration und Remotezugriffs-Problematik entfallen. Der Intel NUC läuft tadellos mit Windows Server und Hyper-V und unterstützt bis zu 32 GB RAM. Der mit i3-CPU ist etwas lahm, aber der i5 reicht gut für mehrere VMs (zumal ja meist die Disk der Engpass ist). Der NUC7I5BNH kostet um die 350 Euro, dazu noch 2x 16 GB RAM und eine 500 GB M.2 SSD, macht total knapp 700 Euro.
  4. MailStore ist recht günstig und läuft auch auf PCs. Das Problem ist bei solchen Umgebungen eher, zuverlässig alle E-Mails archivieren zu können. Eingehend kann man es über eine Weiterleitung in ein Journalpostfach lösen, aber beim Versand per SMTP ist man darauf angewiesen, dass der Mailclient eine Kopie der Nachricht in einem IMAP-Ordner speichert (und der Benutzer diese nicht löscht vor der Archivierung).
  5. Mir wurde es so erklärt: Stellt man einen Server aus einem Backup auf anderer Hardware wieder her, geht das ohne zusätzliche Lizenz. Aber nur bei Hardwarefehlern (nicht für Wartungsarbeiten etc.) und nur alle 90 Tage. Repliziert man den Server mittels Hyper-V Replica, gilt das als Disaster-Recovery-Umgebung und man muss beide Hosts lizenzieren. Wie es aussieht, wenn man mit Veeam einfach die VHDs repliziert, weiss ich nicht. Mit Software Assurance könnte das anders sein, aber soweit ich weiss gibt es die nicht für Server Essentials.
  6. Wenn die Schüler die Server selbst installieren können müssen, ist ESXi einfacher als Hyper-V. Über das vCenter (welches als Appliance läuft) lassen sich Berechtigungen sehr granular regeln. Also Schüler X darf auf die Konsole von Server Y zugreifen, diesen Starten und Stoppen und Snapshots erstellen, aber nicht die virtuelle Hardware verändern. Bei Hyper-V benötigt man dafür eine Drittsoftware wie den System Center Virtual Machine Manager. Allerdings ist das vCenter nicht kostenlos. Für Schulen sollte es günstiger erhältlich sein. Zum Thema Netzwerk: Man kann das mit physischen Ports lösen, aber auch mit virtuellen Switches und VLANs. Jede Schülergruppe bekommt ein eigenes VLAN, welches man dann bis zu den jeweiligen Rechnern durch reichen kann. So können auch Dienste wie DHCP gefahrlos ausprobiert werden. Zur Hardware: Ich würde ein Auge auf Auktionen haben. Auf eBay findet man DL360 Gen8 mit 64 GB RAM für unter 1000 Euro. Selbst wenn man die Disks separat kaufen muss, sollte es im Budget bleiben. Diese Server laufen problemlos mit ESXi und Hyper-V. Falls es PC-Hardware sein soll: auf den Intel NUCs laufen ESXi und Hyper-V ebenfalls problemlos. Dank i7 und SSD sind die schnell genug für eine Testumgebung. Auf RAID etc. muss man aber natürlich verzichten.
  7. Wäre Azure (Lab Services) eine Möglichkeit? Da die Server nicht 24/7 benötigt werden, könnte man da preislich gut wegkommen. Zudem könnten die Schüler auch von zuhause aus auf den Systemen arbeiten, ohne dass man das Schulnetzwerk öffnet.
  8. Du kannst mit "()" auf Gruppen matchen und auf diese dann mit "{R:x}" referenzieren. Also bei "/tiles/europe/([0-9]+)/([0-9]+)/([0-9]+\.png)" ist "{R:1}" = 5, "{R:2}" = 15 und "{R:3}" = 10.
  9. Dass fremde Platten schneller kaputt gehen habe ich noch nicht erlebt, aber grundsätzlich stimme ich Dir zu. Bei fremden Platten hat man keinen Support, bei den "Smart Carriers" leuchten die LEDs nicht und bei einigen Servern drehen die Lüfter dauerhaft auf 100%, weil die Temperatur nicht überwacht werden kann. Aber: der MicroServer ist soweit ich weiss offiziell für Fremdplatten freigegeben. Er hat keine Hot-Swap-Carrier, sondern es liegen Schrauben zur Befestigung bei. Und der Controller ist kein SmartArray, sondern ein Intel-Software-RAID (wie bei einem PC).
  10. Am einfachsten mit OpenSSL: openssl s_client -connect outlook.office365.com:443
  11. Hängt vielleicht davon ab, wer die Verbindung in Betrieb genommen hat. Wenn B zu A sagt "steck Deine Rechner einfach an diesem Switch ein", muss B bewusst sein, dass da Risiken bestehen. Wenn aber A zu B sagt "wir haben die Netze verbunden", dann darf B davon ausgehen, dass das professionell gemacht wurde. Das ist aber eine Frage für Juristen. Mein Vorgehen in solchen Fällen: die Rechnung teilen, das Problem korrigieren und danach zusammen ein Bier trinken gehen. Es geht im Leben nicht nur um Recht und Unrecht, sondern man sollte auch auf die zukünftige Zusammenarbeit Wert legen.
  12. Bei OWA bin ich nicht ganz sicher, aber zumindest für den Zugriff mit Outlook müssen alle Benutzer Zugriff auf ein Adressbuch haben und in diesem auch vorhanden sein. Sonst kommt schon beim Einrichten des Kontos die Meldung "der Name kann nicht aufgelöst werden". Wie schon erwähnt wurde, sind Address Book Policies das richtige Mittel zur Separierung von Benutzern. Macht man auch so, wenn man Hosted Exchange für verschiedene Kunden auf dem gleichen Server bereitstellt (Suchbegriff: "Multi Tenancy"). Bei Dir ist dann einfach jeder Benutzer ein eigener Kunde. Du kannst die User zum Beispiel per OU aufteilen. Beispiel für die Adresslisten: New-GlobalAddressList -Name "XY – GAL" -IncludedRecipients MailboxUsers -RecipientContainer "domain.de/Freelancer/XY" New-AddressList -Name "XY" -RecipientContainer "domain.de/Freelancer/XY" New-AddressList -Name "XY – Räume" -RecipientFilter "(RecipientDisplayType -eq ‘ConferenceRoomMailbox’)" -RecipientContainer "domain.de/Freelancer/XY" New-OfflineAddressBook -Name "XY" -AddressLists "XY – GAL" New-AddressBookPolicy -Name "XY" -AddressLists "XY" -GlobalAddressList "XY – GAL" -OfflineAddressBox "XY" -RoomList "XY – Räume" Dann dem Benutzer zuweisen mit: Set-Mailbox -Identity benutzer@domain.de -AddressBookPolicy "XY"
  13. Gutes gehört habe ich von https://www.highsystem.ch/. Die bieten für viele Software auch fertige Pakete an (ähnlich der Library von PDQ Deploy). Der Preis ist mir leider nicht bekannt. Ebenfalls spannend finde ich https://www.pandasecurity.com/usa/business/solutions/. Diese Lösung betreibt man nicht selbst, sondern sie läuft in der Cloud. Sie ist mandantenfähig und man lizenziert pro Gerät (um die 4 Euro/Monat/Gerät soviel ich weiss). Enthalten sind Geräteverwaltung (Monitoring, Software-Verteilung), Sicherheit (Virenscanner) und Benutzerkontrolle ("Facebook nur über Mittag erlaubt"). Pfiffig finde ich die Funktion, Geräte ohne Agent (zB. ein Drucker) von extern steuern zu können, indem automatisch ein laufender Agent im gleichen Netzwerk als Proxy dient.
  14. Mit Systemplatte meinte ich "Speicher für OS und Anwendungen". Der MicroServer hat ein SATA-RAID, das ist nicht zu vergleichen mit einem "richtigen" Server mit SAS-Disks. Der Start des SQL Management Studios kann damit schon mal dauern... (Und es geht hier nicht um Virtualisierung. Dort ist das Systemlaufwerk des Hosts nicht so relevant.)
  15. Da fallen mir zwei Möglichkeiten ein: - Manuell mit "Clone Virtual Machine" und dann den "Customization Wizard" nutzen zur Anpassung der Netzwerkkonfiguration. (Lässt sich evtl. über den Orchestrator oder so automatisieren, bin da nicht mehr so auf dem aktuellen Stand.) - Mittels Replikation von Veeam. Das kann bei einem (Test-)Failover die IP-Konfiguration des Replikats anpassen. Vergiss aber nicht einen Test-Client mit Outlook in der Testumgebung. Manchmal läuft das Update sauber durch, aber es funktioniert trotzdem etwas nicht mehr hinterher. :)
  16. Probleme kann es bei Serveranwendungen geben, also Microsoft Exchange etc. Aber Office, Firefox und Konsorten laufen natürlich schon. 250 GB sollten gut reichen, wenn die Daten auf den Festplatten gespeichert werden.
  17. Ich würde die SATA-Disks im RAID 1 als Datenspeicher nutzen und zusätzlich eine SSD einbauen für das Betriebssystem (hat oben unter der Gehäuseabdeckung Platz dafür). Eine SSD beschleunigt das System ungemein. Windows 10 sollte laufen, ist aber kein Serversystem. Gewisse Anwendungen werden sich darauf evtl. nicht installieren lassen.
  18. Welchen Zweck soll denn der Server erfüllen? Falls er nur der Ablage von Dateien dienen soll, wärst Du mit einem NAS evt. besser bedient. Falls Du darauf arbeiten möchtest, würde ich mir gehostete Angebote anschauen. Dann könntest Du von überall auf den Server zugreifen und auch für das Backup wäre gesorgt. Ansonsten würde ich für diese Spezifikationen einen kleinen Server von der Stange nehmen, zum Beispiel den HPE ProLiant MicroServer Gen10. Im Gegensatz zu einem PC sind auch kleine Server für Windows Server zertifiziert und man hat keine Probleme mit den Treibern.
  19. Windows Resource Kit? Oder Microsoft Desktop Optimization Pack (MDOP)?
  20. Guacamole ist praktisch, aber seit Server 2016 bietet Windows auch einen HTML-RDP-Client: https://docs.microsoft.com/en-us/windows-server/remote/remote-desktop-services/clients/remote-desktop-web-client-admin Laut Testberichten soll der sehr schnell sein, aber Sachen wie Drucken und Laufwerksmapping ist halt schwierig im Browser. Eine Alternative wäre das gewöhnliche Remotedesktop-Gateway.
  21. Outlook ist bei der Einstellung von Signaturen leider recht zickig. (Also eigentlich ist es bezüglich vieler Einstellungen zickig...) Liegt die Signatur als HTML, RTF und TXT vor? Es gibt ein PowerShell-Script, welches die Signatur automatisch erstellt. Ich gehe davon aus, dass die dort verwendeten Registry-Einstellungen funktionieren: https://gallery.technet.microsoft.com/office/Script-to-set-Outlook-da7b56ee
  22. Diese Daten sollten auch bei Ricoh per SNMP auslesbar sein: https://www.reddit.com/r/sysadmin/comments/44293z/get_snmp_info_from_ricoh_laser_printer_how/ Mit dem Tool SNMP Tester kannst Du anzeigen lassen, welche OIDs mit welchen Werten bei einem Gerät vorhanden sind. So solltest Du den Zähler finden. Eine Anfrage an den Support von Ricoh sollte auch helfen, die sollten das dokumentiert haben.
  23. Der Sinn von VSS ist, dass man genau weiss, welchen Stand die gesicherten Dateien haben. Wenn Du um 20 Uhr einen Snapshot machst, werden alle Dateien mit Stand von 20 Uhr gesichert. Änderungen danach werden separat gespeichert und beim Löschen der Schattenkopie nach der Sicherung wieder "integriert". Es ist deshalb kein Problem, wenn während der Sicherung mit den Dateien gearbeitet wird. Den Serverdienst für acht Stunden zu stoppen ginge auch, aber anscheinend wollen die Benutzer ja arbeiten in dieser Zeit.
  24. PRTG kann das und ist kostenlos bis zu 100 Sensoren: https://www.paessler.com/manuals/prtg/snmp_printer_sensor Es ginge auch mit PowerShell, siehe unten auf der Seite: https://serverfault.com/questions/329789/query-page-count-from-hp-web-jetadmin-10-2
  25. Standardmässig gibt es kein Limit für die Anzahl Anfragen pro Client. Bin erstaunt, dass es mit mehreren Clients besser geht. In der Grundkonfiguration bearbeitet ein Application Pool immer nur eine Anfrage gleichzeitig. Dies kann über die Option „maximale Anzahl an Arbeitsprozessen“ beim Application Pool eingestellt werden. Aber Achtung: die Anwendung muss damit klarkommen (Schreiben in eine Logdatei etc.). Ein allfälliger Cache und die Sitzungsdaten werden zudem pro Prozess verwaltet.
×
×
  • Neu erstellen...