Jump to content

mwiederkehr

Expert Member
  • Gesamte Inhalte

    1.605
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von mwiederkehr

  1. Ich verwende meist SQL Server, weil ich mit .NET entwickle und das Entity Framework sowie WCF verwende, welche beide von Microsoft sind. Mit dem SQL Server habe ich so am wenigsten Probleme bezüglich Schnittstellen, die Backupsoftware unterstützt SQL Server, die Kunden verwenden meist schon SQL Server und deren Admins haben das Know-How etc. Postgres ist aber auch eine mächtige Software und auch MySQL kann einiges. Kürzlich haben wir ein GIS von Oracle zu SQLite umgestellt. Oracle war historisch bedingt, weil die zuerst Spatial-Datentypen kannten. Das kann jetzt sogar SQLite und das ist natürlich viel einfacher und günstiger. (Aber natürlich nicht überall einsetzbar.) Will heissen: von der Funktionalität her sind die Unterschiede zwischen den etablierten Systemen nicht gross, wie Nils schon geschrieben hat.
  2. Falls Du die Kommunikation zwischen VMs auf dem gleichen Host meinst: die ist unabhängig von den physischen Adaptern und deren Geschwindigkeit.
  3. Die 3500 Euro sind meiner Meinung nach absolut im Rahmen, denn die SG 310 sind grosse Kisten. Bei einem anderen Anbieter würdest Du wohl etwa gleich viel bezahlen für diese Leistungsklasse.
  4. Ich habe zum Beispiel das Produkt "R18-05748", "Microsoft Windows Server 2019 User CAL OL, EDU", gefunden. Kann aber nicht sagen, ob das die richtige Lizenz für Deinen Kunden ist, es gibt mehrere Varianten.
  5. Such Dir einen Partner, der sich mit Lizenzierung für Schulen auskennt. Dieser weiss, wie man vorgehen muss, um die Lizenzen vergünstigt zu erhalten. Kommt darauf an, ob die Benutzer zum Beispiel auch von zuhause aus arbeiten etc. CALs sind nicht teuer, schon gar nicht für Schulen, von daher solltest Du gut alle Lehrer und Schüler inkl. Reserve lizenzieren können. Ja, aber: Drucker und andere Geräte, die Dienste vom Server (DHCP reicht!) nutzen, müssen auch lizenziert werden. Überprüft oder gesperrt wird nichts. Du musst bei einem Audit einfach genügend Lizenzen vorweisen können.
  6. Die wichtigste Frage: weshalb VDI? Gibt es Gründe, die gegen einen klassischen Terminalserver sprechen? Die typische RDS-Umgebung für 15-20 Clients ist wesentlich einfacher: ein oder zwei Hosts (je nach Anforderungen an die Verfügbarkeit), zwei DCs, Dateiserver (kann gleichzeitig auch Druckserver sein), je nachdem noch Datenbank- bzw. Anwendungs-Server und dann ein Terminalserver.
  7. Bei kleinen Servern mit ein paar VMs muss es nach meinen Erfahrungen kein HW-RAID sein, jedenfalls nicht für die Performance. Die Parität für RAID 5 oder 6 rechnet eine moderne CPU nebenher, ohne gross ins Schwitzen zu kommen, zumindest bei den im Betrieb gefragten Bandbreiten. (Die günstigen NAS sind auch alles SW-RAIDs und dazu noch mit schwächerer CPU als normale Server.) Gefragt ist nicht ein möglichst hoher Durchsatz, sondern viele IOPS. Da helfen nur SSDs. Habe kürzlich einen HPE ProLiant ML30 mit zwei SATA-Disks am SW-RAID-Controller angetroffen und der war richtig träge: Server Manager starten dauerte fast eine Minute, die drei Benutzer auf der Terminalserver-VM konnten nach einem Neustart mehrere Minuten kaum arbeiten etc. Lösung: Disks durch SSDs ersetzt, wieder als SW-RAID. Seither ist alles schnell ohne Hänger. Grosse SSDs sind mittlerweile so günstig, dass sie auch für Datenmengen von mehreren Terabytes nicht mehr unbezahlbar sind. Ansonsten macht man zwei RAIDs: eines mit SSDs für alle System- und Datenbank-VHDX und eines mit Disks für die Daten.
  8. Der Defender tut, was ein signaturbasierter Virenscanner halt tun kann. Das tut er im Gegensatz zu vielen Produkten von Drittanbietern günstig, schnell und vor allem ohne Komplikationen. Drittsoftware bringt häufig noch weitere Features mit: Websites sperren, nur bestimmte USB-Geräte erlauben, Abfluss von heiklen Daten verhindern etc. Braucht man das nicht, ist der Defender eine gute Lösung. Werbeversprechen wie "erkennt 99.9%" der Viren sind übrigens nichts wert. Solche Tests beziehen sich immer auf die Vergangenheit. Signaturbasierte Erkennung von Schadsoftware funktioniert deshalb nur mit zeitlicher Verzögerung einigermassen zuverlässig. Also "Virenscanner schlägt bei drei Rechnern Alarm, die setze ich neu auf" und nicht "wenn Virenscanner nichts findet mache ich die zugeschickte .docm auf". Man sollte immer schauen, dass potentiell gefährlicher Code nicht auf die Rechner kommt. Also .exe und .docm etc. blockieren auf dem Mailgateway und sich nicht auf Signaturen verlassen.
  9. Als Ergänzung, weil mir das Problem soeben auch gemeldet wurde: das Problem tritt auch beim Zugriff auf SMBv1-Freigaben auf Windows Servern (in diesem Fall Windows 2003) auf, nicht nur bei Linux. Der Explorer von Windows 10 2004 hängt sich dann auf und startet nach einiger Wartezeit neu. Trennt man die Laufwerke nach einigen Minuten und verbindet sie neu, funktioniert alles tadellos bis zum nächsten Neustart. Aktuell finde ich viele Leute mit dem gleichen Problem, aber keine Lösung (ausser zeitverzögert ausgeführte Scripte). Man darf aber angesichts der vielen betroffenen Benutzer auf ein baldiges Update hoffen...
  10. Ja, ich denke schon. Acronis nistet sich wie ein Virenscanner tief im System ein. Ich würde es mal ohne versuchen in der Testumgebung. Bei mir haben In-Place-Upgrades von Server 2016 auf 2019 bis jetzt immer geklappt. Es waren aber alles VMs ohne systemnahe Software.
  11. Ich würde auf den Clients auch weg von SMBv1. Längerfristig fliegt das bei Windows wohl sowieso raus. Da Du an der Maschine nichts ändern kannst, würde ich einen Proxy dazwischen hängen. Entweder als VM oder als Raspberry Pi, je nach Bastelgemüt und Verfügbarkeitsanforderungen. Der Proxy wäre ein Linux, auf welchem das Verzeichnis per SMBv1 gemountet und mit Samba mit SMBv3 freigegeben ist.
  12. Saubere Fehlersuche, gratuliere! Evtl. will der Prozess die MKV-Datei öffnen, um daraus ein Standbild für die Vorschau zu extrahieren. Dabei bleibt er hängen und weil er nur in einem Thread läuft, blockiert er den Explorer, welcher mit dem gleichen Prozess vielleicht die Vorschaubilder der JPGs aktualisieren wollte. Wenn er nur den passenden Codec zur MKV-Datei nicht hätte, würde er einfach weitermachen. Aber ein Kunde hat es mal hinbekommen, eine AVI mit "exotischen" Parametern herzustellen. Im VLC lief die wunderbar, aber nicht im Media Player. Könnte bei Dir auch sowas sein, Videoformate sind eine Wissenschaft für sich...
  13. Ein Script kenne ich gerade nicht, aber mit Veeam Backup Agent könntest Du das Backuparchiv (anstatt der ganzen Disk) verschlüsseln. Es erkennt Disks auch anhand der Seriennummer und kann beim Einstecken definierte Aktionen ("Backup starten") ausführen.
  14. mwiederkehr

    Materialized View

    Bei Indizes gilt nicht "je mehr, desto besser". Vereinfacht gesagt setzt man sie dort, wo man direkt zugreift: auf Spalten, die in WHERE-Bedingungen oder JOINs vorkommen. Nicht aber auf Spalten, die dann nur angezeigt werden. In Deinem Fall, wo die Daten aus verschiedenen Quellen kommen und nicht aktuell sein müssen, könntest Du auch mittels Script die View laufen lassen und das Resultat in eine Tabelle schreiben, von wo sie dann tagsüber gelesen werden.
  15. Soweit ich weiss geht das nur mit Outlook bzw. der Outlook-App. Nativ auf dem System geht es nicht, weil ActiveSync nur das Postfach synchronisiert, mit dem man sich anmeldet. Meine Kunden verwenden entweder die Outlook-App oder normale Postfächer mit dazugehörigem Benutzer. Beide Varianten haben ihre Vor- und Nachteile. (Entschieden wird in der Praxis dann aber oft nicht nach Bewertungsmatrix, sondern nach "passt dem Chef die Outlook-App?". )
  16. Ich würde wie "mba" auch VNC empfehlen. Ein Kunde hat UltraVNC auf allen Clients installiert und zumindest im LAN läuft das super.
  17. Guter Hinweis! Habe nachgeschaut: einige LUNs sind tatsächlich mit ReFS formatiert, aber auch die mit NTFS sind langsam. Es ist ein etwas älteres Modell (2200 V3) im Einsatz, dort gibt es die Option "third-party multipath" nicht, aber man kann ALUA manuell aktivieren. Wenn er mit Round-Robin jedes zweite Paket über den "falschen" Controller schickt, würde das die lahme Performance erklären. (Wobei ich rein vom Gefühl her gesagt hätte, dass auch der nicht optimierte Pfad schneller sein sollte.) Werde schauen, dass ich einen Host frei bekomme, um für dessen Initiator ALUA aktivieren zu können.
  18. Theoretisch müssten um die 800 MB/s drin liegen, aber ich war mit den 300 MB/s zufrieden in Anbetracht des nicht mehr ganz neuen MSA2052 und RAID 6. Gerne! Die Ports auf den Hosts haben je eine IP und sind "standalone", also nicht in einem Team. Ist eine separate Karte mit vier Ports, also keine virtuellen Adapter mit anderem VLAN oder so. Bezüglich MPIO habe ich gelesen, man solle bei 10 GBit/s Round-Robin ausschalten und auf Failover umstellen. Das dauernde Umschalten zwischen den Verbindungen bringe nicht viel, da 10 Gig den Speicher eh sättige. Ja, das habe ich geprüft. Habe den Test auch von allen Hosts aus auf alle Volumes durchgeführt, immer mit dem Resultat 11.1 MB/s.
  19. Hallo zusammen Es besteht ein Cluster für Hyper-V aus vier ProLiant DL360 Gen10, welche über zwei Cisco-Switches mit 10 GBit/s zum Storage verbunden sind. Dieser besteht aus einem HPE MSA und zwei Huawei OceanStor. Mit dem MSA läuft alles super. Das Kopieren einer grossen Datei auf ein darauf befindliches CSV läuft mit um die 300 MB/s. Der Zugriff auf die Huaweis läuft nur mit exakt 11.1 MB/s. Dies ist von allen Hosts aus der Fall. Die Latenz ist dabei sehr gering (wie zu erwarten bei SSDs) und VMs laufen problemlos (wenn auch mit entsprechendem Zeitbedarf zum Booten). Auf den Switches werden keine Pakete verworfen. Die Ereignisanzeige sagt nichts, auf dem Cluster ist alles grün. Auf den Huaweis wird bei allen Interfaces ein Link mit 10 GBit/s angezeigt. Ich denke, es könnte ein Problem mit MPIO sein. Beim MSA haben alle Ports eines Controllers die gleiche IP-Adresse und der Pfad zum aktiven Controller ist "optimiert". Bei den Huaweis hat jeder Port eine andere IP-Adresse und alle Pfade sind gleichwertig. Dies ist laut Dokumentation jedoch korrekt. Bevor ich mich an die umfangreiche Fehlersuche mache, wollte ich kurz fragen, ob jemandem die 11.1 MB/s bekannt vorkommen? Hatte jemand schon mal ein solches Verhalten? Besten Dank für eure Tipps!
  20. Hallo zusammen Habe für folgendes Problem keine Lösung: in einer RDP-Datei soll die Domain vorgegeben werden, nicht jedoch der Benutzername. Der zuletzt angemeldete Benutzer dürfte schon sichtbar sein, das Kennwort aber nicht gespeichert werden. Das Speichern des Kennworts kann ich per GPO verbieten oder mit dem "Public Mode" in der RDP-Verknüpfung. Aber bei beiden Varianten schaffe ich es nicht, die Domain vorzugeben. "domain:s:domainname" hat keinen Effekt. Eigentlich möchte ich das gleiche Verhalten wie beim guten alten Anmeldebildschirm, den es seit NLA nicht mehr gibt. (Das Deaktivieren von NLA ist keine Option.) Geht das mit Bordmitteln irgendwie? Vielen Dank für eure Tipps!
  21. Funktionieren tut es problemlos, ist aber irgendwie so nicht vorgesehen und muss deshalb über die Registry aktiviert werden: https://ryanmangansitblog.com/2014/01/04/publish-remote-desktop-session-in-a-remote-app-session-collection/
  22. Allenfalls wäre ein spezieller Test-Mailserver eine Option, zum Beispiel smtp4dev. Der braucht keine Installation, nimmt jegliche E-Mails an und stellt sie in einem Webinterface dar.
  23. Das könnte ein Anwendungsfall für Windows Autopilot sein. Damit würde das Gerät bei der ersten Verbindung im Azure AD registriert und der Benutzer müsste sich mit seinem Schul-Account anmelden. Gleichzeitig hätte man es in der Verwaltung von Intune. Voraussetzung ist natürlich, dass die Schule Microsoft 365 nutzt.
  24. Wie Norbert schon geschrieben hat, könnte man es mit der Windows Suche probieren. Einem Kunden, dem das nicht gereicht hat, habe ich Copernic Desktop Search installiert. Nur auf seinem Rechner, da Kleinfirma. Er war begeistert. Die haben auch eine Serversuche: https://www.copernic.com/en/products/search-server/. Laut Website werden bei den Suchresultaten die Windows-Berechtigungen berücksichtigt.
  25. Dort, wo E-Mail als kritisch angesehen wird, sollte man hinterfragen, ob es sinngemäss eingesetzt wird. Hatte mal so einen Fall, da wurden Daten von einer Disposition per E-Mail an den Zoll geliefert, wo dann automatisch Zolldokumente erstellt und zurückgeschickt wurden. Dies frühmorgens, da ohne diese Dokumente die LKW nicht abfahren konnten. Es kam, wie es kommen musste: SPF nach Migration falsch, Mails kamen nicht an, Firma hat Geld verloren. Danach kam dann raus, dass der Zoll eine Webschnittstelle anbietet und man konnte die Applikation direkt mit der Schnittstelle sprechen lassen. E-Mail ist kein gutes Medium für Maschinen-zu-Maschinen-Kommunikation.
×
×
  • Neu erstellen...