Jump to content

mwiederkehr

Expert Member
  • Gesamte Inhalte

    1.588
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von mwiederkehr

  1. Danke! Hatte nicht bedacht, dass es keinen (vertrauenswürdigen) Timestamp gibt. Die erste Warnung ist nur "Signatur ungültig", erst bei den Details steht die Ursache. Es empfiehlt sich wohl, das Zertifikat jeweils frühestmöglich zu erneuern.
  2. Hallo zusammen Beim Aufräumen meines Postfachs zum Jahresende ist mir aufgefallen, dass Outlook bei vielen älteren E-Mails eine Warnung ("die digitale Signatur ist ungültig") anzeigt, wenn diese signiert sind. Die Zertifikate sind aktuell tatsächlich ungültig, weil abgelaufen. Aber sie wurden nicht revoziert. Nach meinem Verständnis sollte die Signatur gültig bleiben, wenn das Zertifikat zum Zeitpunkt der Signierung gültig war und nicht revoziert wurde. Ist das ein Fehler in Outlook oder mache ich einen Überlegungsfehler?
  3. Ich wünsche ebenfalls frohe Festtage und bedanke mich für die vielen interessanten, lehrreichen und immer anständig geführten Diskussionen im zu Ende gehenden Jahr! Es ist eine Freude und dem grossen Einsatz der Betreiber, Moderatoren und Experten zu verdanken, dass ein Forum auf solch hohem Niveau seit so langer Zeit existieren kann.
  4. Es braucht Waren- und Gastrostände für einen attraktiven Markt. Gut organisierte Märkte beschränken die Anzahl Gastrostände und verlangen von diesen eine höhere Gebühr (bis zum Dreifachen der normalen Gebühr). Das wird auch bezahlt, denn mit Essen und Trinken macht man den Umsatz und kann so die Warenstände querfinanzieren. Schade ist, dass insbesondere in Städten viele Märkte gewinnorientiert organisiert werden. Das führt zu Ständen mit Produkten mit hoher Gewinnmarge. Und das sind leider die singenden Weihnachtsmänner aus China und nicht die handgesägten und bemalten Puzzles für Kinder... Ich bevorzuge deshalb Märkte in kleineren Städten. So richtig in Weihnachtsstimmung komme ich beim Kerzenziehen mit Bienenwachs.
  5. Das war früher nicht so ein Problem, dafür gab es "Local Text Echo" in Metaframe XP. Der Client hat mit der richtigen Schriftart und -grösse weitergeschrieben, auch wenn der Text noch nicht am Server angekommen ist. Dem Marketing von Citrix zufolge war eine ICA-Session mit Brieftauben besser bedienbar als RDP im LAN.
  6. Die zweite Abfrage bei den "Expensive Queries" ("SELECT target_data FROM") kommt vom Telemetrie-Dienst. Dieser führt sie alle 5 Minuten aus. Da sie im Durchschnitt 55 Sekunden CPU-Zeit benötigt, erklärt das die wechselnden Wartezeiten und den Effekt, dass es nach einem Neustart des SQL Servers für einige Minuten gut läuft. Aber es erklärt nicht, weshalb die Abfrage so lange läuft. Der Telemetrie-Dienst läuft auf jedem SQL Server und ich habe noch nie eine Auswirkung von dessen Abfragen bemerkt. Als Sofortmassnahme kannst Du den Dienst deaktivieren und schauen, ob es dann besser wird. Zumindest müssten die Wartezeiten dann mehr oder weniger konstant sein. Eine Anleitung findest Du in den Kommentaren dieses Artikels: https://www.brentozar.com/archive/2019/02/what-queries-does-microsofts-telemetry-service-run-on-your-sql-server/ Du kannst die Abfrage auch im Management Studio ausführen und den Ausführungsplan anzeigen lassen. Dann siehst Du evtl., wo sie hängt. Ich denke aber, das ist nur ein Symptom eines tiefer liegenden Problems, denn wie erwähnt laufen diese Abfragen auf jedem SQL Server, ohne je in der Performance-Auswertung aufzutauchen.
  7. Die teilweise extrem langen Zeiten deuten eher auf ein Timeout als eine lange laufende Abfrage hin. Ich würde während der Wartezeit die Systeme beobachten: Auf welchem Server wird CPU-Zeit verbraucht? Von welchem Prozess? Der SQL Server Profiler zeigt Anfragen und deren Laufzeiten an. Das Performance Dashboard des SQL Server Management Studios zeigt die am längsten laufenden Abfragen an: https://learn.microsoft.com/en-us/sql/relational-databases/performance/performance-dashboard?view=sql-server-ver16 Da die Wartezeit nicht immer gleich hoch ist, würde ich auch ein Augenmerk auf die GUI legen. Ist es jeweils beim ersten Aufruf langsam oder immer, wenn man im geöffneten Formular etwas ändert? Besonders Anwendungen mit moderner GUI (WPF) können Effekte zeigen, die wie langsame Datenbank-Abfragen aussehen. Einmal hat ein Kunde sich beschwert, dass das Ausklappen des Dropdowns mit der Projektliste fast eine halbe Minute dauere. Das war nicht wie vermutet die Datenbank, sondern der Client war diese Zeit auf 100 % CPU und die Ursache war das Laden vieler Elemente ins Dropdown. Beim zweiten Klick ging das Dropdown sofort auf. Aber nicht, weil die Projekte nicht nochmals von der Datenbank abgerufen werden mussten, sondern weil sie schon als GUI-Elemente im RAM vorhanden waren.
  8. Ich verwende Fortinet, sowohl für Firewall als auch für WLAN. Mir gefällt, alles aus einer Hand zu haben, mit Vorteilen wie SSID im Tunnel Mode (praktisch, wenn der Kunde nicht überall Managed Switches hat oder einen AP zu Hause aufstellen will). Zudem bietet die FortiGate ein komfortables Webinterface und gleichzeitig ein leistungsfähiges CLI. Der VPN-Client läuft, wie er soll und verursacht keine Supportanfragen. Wenn man mehrere Kunden hat, ist die (selbst gehostete) zentrale Verwaltung praktisch. Ein Nachteil sind sicher die Kosten. Der Kunde schluckt schon leer, wenn er ein paar APs kaufen soll, besonders im Vergleich zu UniFi, welches einen vergleichbaren Funktionsumfang bietet.
  9. Ergänzend zu Jan: 25 MBit/s für 10 Sitzungen sollte normalerweise gut reichen für Office- oder ähnliche Anwendungen (ohne viele Bilder oder Animationen). Um die Latenz niedrig zu halten, sollte die Firewall RDP priorisieren. Die Mitarbeiter im Büro sollten davon nicht viel mitbekommen, die verwenden hauptsächlich den Downstream. Idealerweise teilt die Firewall die Bandbreite fair auf die Verbindungen auf, damit nicht jemand 100 Seiten PDF mit Bildern ausdruckt und bei allen anderen die Latenz steigt. (Bei Citrix kann man die Bandbreite, die zum Drucken verwendet wird, limitieren. Das geht bei Remote Desktop soweit ich weiss nicht.)
  10. Das ist soweit ich weiss immer noch so und wird sich wohl aus technischen Gründen auch nicht ändern. Es müssen allerdings keine IPs aus den USA sein, ich sehe auf einem Exchange viele Verbindungen von Frankreich, Finnland und Österreich. Wird wohl einfach ein Azure-Standort sein. Um den Akku zu schonen, erlauben Android und iOS fast keine Hintergrundprozesse. Die Outlook-App kann also nicht zum Exchange eine persistente ActiveSync-Verbindung aufbauen. Stattdessen macht das ein Cloud-Dienst und sendet Benachrichtigungen ans Smartphone.
  11. Ja, das habe ich nach überwundenem Schrecken dann auch gemacht. Es reicht, das Feature installiert zu haben, man muss keine Zeitpläne konfigurieren und kann Dedup deaktivieren, falls man es nicht mehr möchte. (Dabei auf genügend freien Speicherplatz achten...)
  12. Guter Hinweis, sieht ganz danach aus. Die funktionierenden TXT-Dateien liegen wohl unter der Mindestgrösse für Deduplizierung. Ansonsten sieht das Fehlerbild genau so aus und viele Dateien haben 0 KB Grösse.
  13. Ich würde die Gelegenheit nutzen und die neue Lösung im grösseren Rahmen denken. Also nicht fokussiert auf "wo betreibe ich den Server?", sondern "brauche ich noch einen Server?". Je nach eingesetzter Software sind andere Lösungen möglich. Kunden mit vielleicht bis zu zehn Arbeitsplätzen, die den Exchange schon bei Microsoft haben und keine komplexe Branchen-Anwendung verwenden, können mit OneDrive (und allenfalls Intune) glücklich werden. Ein Kunde arbeitet hauptsächlich mit Office und lokalem CAD. Die Buchhaltung hat er als Webanwendung gemietet. Er hat nur eine alte Access-Anwendung. Diese wird ihm per Terminalserver bereitgestellt. (Bei so "Datei-Datenbanken" ist mit OneDrive Vorsicht geboten, da dieses kein Locking kennt.) Bei einem anderen Kunden konnte ich mit dem Hersteller der Software, die SQL-Server benötigt, die Datenbank zu Azure SQL auslagern. So benötigt der Kunde ebenfalls keinen Server mehr und kann von unterwegs arbeiten, ganz ohne VPN und Terminalserver. Zum Thema "Terminalserver ja oder nein?": Nach meiner Erfahrung ist, falls die Software mitmacht (kein CAD oder Videoschnitt), ein Terminalserver ab ca. zehn Benutzern einfacher im Unterhalt als lokale Clients mit VPN. Besonders, wenn von unterwegs gearbeitet werden soll. Direkt über VPN auf eine Dateifreigabe zuzugreifen geht natürlich, aber man muss abklären, was die Anwendungen machen. Ein CAD, welches per "Autospeicherung" alle fünf Minuten die gesamte Zeichnung (inkl. 500 MB Luftbild-Hintergrund) auf den Server schreibt, ist ungünstig.
  14. Für die "datensparsamen" Anwender gab es doch bald mal eine modifizierte Luca-App, die anonym eingecheckt hat. Wie die Zeit vergeht... Es kommt mir vor, als wär das schon ewig her.
  15. Besten Dank! usoclient kannte ich noch nicht. Hat leider nicht geholfen in diesem Fall. "wuauclt /resetauthorization /detectnow" alleine auch nicht. "%windir%\softwaredistribution" löschen, Windows-Update-Dienst neu starten und Updates pausieren und fortsetzen hat schlussendlich geholfen.
  16. Hallo zusammen Auf Windows Server 2019/2022 habe ich das Problem, dass bei den verfügbaren Updates manchmal nicht die aktuellen Updates angezeigt werden. Stattdessen werden früher gefundene Updates angezeigt. Ein Beispiel: WS2022, zuletzt aktualisiert im September. Windows Update ist eingestellt auf "Updates suchen, aber nicht installieren". Der Server zeigt das aktuelle .NET-Update an, jedoch das kumulative Update vom Oktober und nicht November. Wenn ich beide Updates installiere, zeigt er nach dem Neustart das November-Update an. Meiner Meinung nach sollte ich direkt das aktuelle Update installieren können, da diese ja kumulativ sind. Weder "wuauclt /detectnow" noch Ein- und Ausschalten von "Updates pausieren" helfen. Wie kann ich Windows Update zwingen, nach den aktuell verfügbaren und notwendigen Updates zu suchen?
  17. Das ReFS würde ich im Cluster definitiv nicht haben wollen. Da es keine Möglichkeit zur Konvertierung von ReFS zu NTFS gibt, läuft es auf eine Neuformatierung hinaus. Wenn man irgendwie genügend Speicher bereitstellen kann, geht das Verschieben ohne Downtime. Ein NAS mit SSDs und idealerweise 10 Gig könnte schon reichen. Ein Backup ist ohnehin Pflicht! Also: - neuen Server als Single Node Cluster installieren - temporären Speicher am neuen Server anhängen (per iSCSI) => muss kein CSV sein, die VMs kommen noch nicht in den Cluster - VMs per Shared Nothing Live Migration verschieben - bestehenden Server in Cluster aufnehmen - LUN als NTFS formatieren und als CSV einbinden - VMs auf CSV verschieben - VMs in Cluster aufnehmen Und wenn Du schon dran bist: Firmware und Treiber beider Server auf den gleichen Stand bringen, im BIOS die Einstellungen identisch wählen.
  18. Ja, ganz genau, die Outlook Web App. Für diese reicht das Abo "Microsoft 365 Business Basic" ohne Office-Lizenz. (Du kannst den Exchange natürlich auch woanders mieten, aber bei Microsoft wirst Du keine Versandprobleme haben.)
  19. Outlook 2010 kann sich seit ca. einem Jahr nicht mehr mit Exchange Online verbinden. Da gibt es soweit ich weiss auch keine "Tricks". Ich habe dem Sparfuchs-Kunden einen Link auf OWA gespeichert. Das moderne OWA ist bequemer in der Anwendung als Outlook 2010, deshalb war es für ihn eine Verbesserung, auch ohne Office-Lizenz.
  20. Windows selbst ist relativ fett, unter anderem wegen der tief verankerten GUI. (Deshalb spart Server Core nicht viele Ressourcen.) Andererseits läuft viel mit, was man unter Linux nicht hat oder nicht im Autostart: Defender (300 MB), Teams (400 MB)... Der Firefox geht zudem relativ sparsam mit dem RAM um. Chrome übertreibt es total, der Edge ist etwas besser. Es kommt aber immer sehr auf die Anwendungen an: ein "Hello World", ausgeliefert von Tomcat, braucht wohl schon um die 4 GB. (Siehe auch Elasticsearch: Das benötigt auch bei kleinen Installationen als absolutes Minimum 4 GB.)
  21. Mit HP bin ich zufrieden, sowohl Desktops als auch Notebooks. In Umgebungen, in denen zentrale Verteilung von BIOS-Updates, vor-Ort-Service etc. nicht notwendig sind, haben sich Intel NUCs bewährt. Klein, günstig, leise, zuverlässig. Für Office-Arbeitsplätze nehme ich aktuell 16 GB RAM, aber 32 GB sind besonders für "Power-User" keine schlechte Investition.
  22. Ich hoffe auch, dass es Ersatz geben wird. Denn wenn man, wie Microsoft, der Meinung ist, dass ein Webserver zum Betriebssystem gehören soll, sollte auch ein Mailserver dabei sein. Als lokales Gateway für Geräte, die keine Authentifizierung können, aber auch für Scripts, welche per Pickup-Verzeichnis mailen, ist der Dienst notwendig.
  23. Netaphor scheint ca. 1 EUR pro Monat und Gerät zu kosten. Das ist im gleichen Rahmen wie der MSP Monitor. Ich kann nicht nachvollziehen, weshalb das bei 1000 Geräten zu teuer sein soll. Dem Kunden wird euer Service bestimmt so viel Wert sein, oder ihr spart durch weniger manuelle Arbeit mehr ein, als die Lösung kostet. Ihr bezahlt 1 EUR pro Monat, könnt dem Kunden aber vielleicht 2 EUR berechnen für die Dienstleistungen "monatlicher Report über Druckvolumen", "proaktive Reaktion bei Fehlern" und "rechtzeitige Lieferung von Ersatztoner". Als jemand, der vor etwa 20 Jahren einmal einen Spamfilter für Exchange selbst entwickelt hat, weil er das Gefühl hatte, es sei dank Event Sinks "ganz einfach" , kann ich Dir sagen: Solche Projekte werden immer um mehrere Grössenordnungen komplexer, als man anfänglich denkt. Den Zählerstand auslesen und per E-Mail verschicken ist für sich eine überschaubare Sache, das stimmt. Aber wie passt man die Konfiguration an? Bei 1000 Geräten werden es einige Kunden sein. Kommt man da überall ans Überwachungs-Script? Man kann viele Lösungen bauen, vom Laden der Konfiguration über einen Webserver bis zum über einen Reverse-SSH-Tunnel erreichbaren Webinterface. Aber das alles ist viel mehr Aufwand, als die eigentliche Aufgabe, das Überwachen von Druckern.
  24. Das ist ein Anwendungsfall für einen Raspberry Pi. Ich kenne einen Dienstleister, der bei den Kunden einen Raspberry Pi ins Netzwerk hängt. Dieser lädt Zähler- und Tonerstände täglich per FTP als CSV auf den Server. Fehler meldet er per E-Mail. Je nach gewünschter Ausbaustufe lässt sich das mit überschaubarem Aufwand realisieren, zum Beispiel als Projekt für den Azubi. Oder aber man nimmt eine fertige Lösung. Ich habe auf Anhieb https://www.mpsmonitor.com/ gefunden. Die läuft in der Cloud und man installiert beim Kunden einen Agenten, welcher die Daten per SNMP abfragt. Dieser läuft entweder auf Windows, Linux (Raspberry Pi ist ausdrücklich unterstützt) oder bei grösseren Geräten direkt auf den Druckern. Angesichts des aus meiner Sicht fairen Preises von etwas über 100 EUR pro Monat für 100 überwachte Geräte, würde ich zu einer fertigen Lösung tendieren.
  25. Laut https://www.bleepingcomputer.com/news/microsoft/new-microsoft-exchange-zero-days-allow-rce-data-theft-attacks/ hat Microsoft teilweise Entwarnung gegeben: Regarding ZDI-23-1578: Customers who have applied the August Security Updates are already protected. Schade nur, dass das nicht offensiver kommuniziert wird. (Und merkwürdig, dass der Bug laut ZDI Anfang September gefunden wurde und die hoffentlich mit einem aktuellen Exchange getestet haben.)
×
×
  • Neu erstellen...