Jump to content

Alle Aktivitäten

Dieser Verlauf aktualisiert sich automatisch

  1. Letzte Stunde
  2. Ich hatte ein ähnlich gelagertes Problem in meinem Home Office. Nachdem ich meinen Router neu gestartet und somit eine neue IP zugewiesen bekommen hatte konnte ich unsere Firmenwebseite wieder aufrufen. Des Weiteren würde ich prüfen, ob der Webserver einen "Blacklist-Eintrag" für die IP-Adresse der Firma hat (z.B. Firewall oder auch Software zum Blocken von IP Adressen).
  3. Hallo, @Nobbyaushb hab ich ausgeführt, mind. 5 Minuten gewartet, aber keine Änderung. @Sunny61 DNS über https ist nicht aktiv. STRG + F5 ändert auch nichts. VG ag1
  4. So, wieder zurück von meinem Termin Ich habe eine ganze Zeit überlegt, was ich dir Antworten soll Eigentlich ist das Consulting und damit verdiene ich mein Geld… Wie schon geschrieben, aus einem Desaster-Recovery-Szenario entwickelt man ein Backup und Restore Conzept Man muss sich einfach überlegen, was darf wie lange aus sein und was ist ein tolerierbarer Datenverlust - und den gibt es nun mal im Worst-Case Heute „stirbt“ gute Hardware viel seltener als noch vor ein paar Jahren, wogegen der Verlust ganzer VM und aller Daten durch Ransomware sehr viel wahrscheinlicher geworden ist Ich bin seit Jahren ein großer Fan von Backup auf Offline-Medien sprich Tape Das haben inzwischen (vielleicht durch mich und andere) immer mehr Dienstleister und Firmen erkannt und deshalb sind derzeit LTO Laufwerke und Wechsler kaum zu bekommen Zudem sind solche Konzepte mit der Geschäftsleitung zu entwickeln, denn die müssen nach richtiger Planung und Beratung die Entscheidung fällen Sowas ist immer individuell und was bei dem einen Kunden passt geht bei dem anderen gar nicht Ich hoffe auf dein Verständnis, das ich das hier öffentlich nicht weiter diskutieren möchte - logisch, oder? Und wie gesagt das kann muss aber nicht mit dem eigentlichen Problem zusammenhängen, dafür müsste man in die Tiefe gehen und da sind wir an einem Punkt angelangt, ab dem es in einem Forum nicht mehr geht
  5. Prüf im FF doch mal nach, ob evtl. DNS über https aktiviert ist: https://support.mozilla.org/de/kb/firefox-konfiguration-schutzstufen-dns-uber-https Drück auch mal STRG + F5 im Browser, wenn Du die Website aufgerufen hast.
  6. Hallo Nils, ich hab am Server im DNS-Manager den Cache gelöscht, über cmd den Befehl "ipconfig /flushdns" ausgeführt, im Firefox den Verlauf inkl. Cache gelöscht, den MS Edge installiert. Leider hat sich nichts geändert. Es kommt immer ein Timeout. ping, tracert und nslookup dagegen i.O. VG ag1
  7. Moin, um das Thema/die Antwort von Nils aufzugreifen: Am Client und am Server cmd ipconfig /flushdns (erfordert Ausführung als Administrator!) Am Server am cmd (Administrator) dnscmd /clearcache zusätzlich 5 Minuten warten - neu testen Und je nach Browser kann das dauern bis das da ankommt…
  8. Heute
  9. Moin, Evtl. falsche Einträge im DNS-Cache auf dem Server oder im Resolver-Cache auf dem Client. Außerdem machen, wenn ich es richtig verstanden habe, mache Browser die DNS-Auflösung selbst, da könnte es also auch falsche Daten im Cache geben. Gruß, Nils
  10. Habe das Update HU - HotfixUpdate installiert und es scheint alles gut zu laufen. Danke Norbert.
  11. Hallo, bei einem Kunden läuft ein Server2016 mit AD, DNS, DHCP. Als vor vielen Jahren die Domäne angelegt wurde, wurde als Domäne kundendomain.de verwendet. Um also die Webseite aus dem Kundennetz aufrufen zu können, wurden im DNS-Manager passende Host(A)-Einträge erstellt (z.B. www mit der externen IP-Adresse der Webseite). Als letztes Jahr der Webhoster gewechselt wurde, hab ich die IP-Adressen angepasst und alles war gut. Nun hat der Betreiber der Webseite diese Woche ein Betriebssystemupdate auf seinem Server durchgeführt. Dabei lief lt. seiner Angabe dieser Server kurzfristig mit einer anderen externen IP-Adresse. Dies wurde aber behoben und lt. seiner Aussage läuft auch wieder alles. Mein Kunde kann aber seitdem seine Webseite nicht mehr aufrufen, weder am Server noch auf den Clients. Ein ping, tracert, nslookup liefert einwandfrei die passenden Werte, aber ein Aufruf per Browser liefert eine Zeitüberschreitung. Von meinem Netz aus kann ich die Webseite des Kunden aufrufen. Ein ping liefert hier die gleiche IP-Adresse. Hat jemand eine Idee, was hier das Problem sein könnte? VG ag1
  12. Ja, ich habe alle Änderungen schon umgesetzt. Auch das April 2024 Exchange Server Hotfix Update. Der RDS Server fühlt sich auch ein bisschen performanter an. Subjektiver Eindruck ;) Die Probleme beim Versenden der E-Mails tritt in meiner RDP-Sitzung nicht auf. Ich habe gerade noch einmal während eines Veeam Backup auf dem Terminalserver ohne Probleme gearbeitet. Das inkrementelle Backup von 6 VMs dauert ca. 7 Minuten. Auch bei der Replikation der 6 VMs war alles OK. Die Replikation der 6 VMs dauert auch ca. 7 Minuten. Alles klar, dann bis später.
  13. Hallo zusammen In einer Terminalserverumgebung mit Windows 2022 bleiben getrennte Sitzungen manchmal beim Abmelden hängen. Wenn sich der Benutzer später wieder anmelden will, gelangt er in die unvollständig abgemeldete Sitzung (schwarzer Bildschirm). Benutzer meldet sich an, arbeitet und meldet sich ab. => Kein Problem. Benutzer meldet sich an, Sitzung wird getrennt, Benutzer verbindet sich später wieder. => Kein Problem. Benutzer meldet sich an, arbeitet, trennt Sitzung, Sitzung soll nach einer Stunde abgemeldet werden (Einstellung in GPO). => Manchmal unvollständige Abmeldung. Die Lösung ist dann jeweils, die zur hängenden Sitzung gehörende winlogon.exe abzuschiessen. Danach kann sich der Benutzer wieder problemlos anmelden. Der Fehler tritt in ca. einer von Hundert solcher vom Server initiierten Abmeldungen auf. Es scheint, als warte ein Prozess auf einen Monitor oder so am anderen Ende, denn der Fehler tritt nur beim Abmelden von getrennten Sitzungen auf. Anwendungen wie winword.exe laufen bei hängengebliebenen Sitzungen nicht mehr, nur noch Systemprozesse. Windows Updates und FSLogix sind aktuell. In den Protokollen sind keine Fehler verzeichnet. Im Internet hatte jemand ein ähnliches Problem mit Citrix. Da hatte es geholfen, die Transparenzeffekte auszuschalten. Das habe ich versucht, ohne Erfolg. Ist das Problem jemandem bekannt?
  14. Hallo, kennt jemand das folgende Verhalten? Throttling and Blocking Email from Persistently Vulnerable Exchange Servers to Exchange Online OnPrem Server waren seit März auf Version 15.1.2507.37. Scoped Send Connectors via Exchange 2016 auf Server 2016. Output Get-OnPremServerReportInfo Build: 15.1.2507.35 RecommendedBuildVersions : 15.1.2507.39,15.1.2507.37,15.1.2507.36,15.1.2507.35,.... Der Report hat sich seit 3 Wochen nicht verändert, Update auf bereits installierte Version wird empfohlen um Problem zu lösen. Microsoft Ticket zu dem Thema seit über zwei Wochen offen bisher ohne Ergebnis. Update der Server auf 15.1.2507.39 gestern erfolgt, Report zeigt noch keine Änderung. Mailflow findet statt, aus dem Messagetrackinglog ist SchemaVersion 15.1.2507.39 erkennbar. Wie erzwinge ich ein Update des Reports oder lasse ExO die aktuelle Version erkennen? Aus dem oben verlinkten Artikel ist ein User mit gleichem Problem erkennbar, keine Lösungsvorschläge bisher. danke für eure Erfahrungen.
  15. Moin, ich schreibe dir später mal was dazu, bin unterwegs Und das ist an der Stelle nichts mehr was man in einem Forum lösen kann Außerdem sind wir inzwischen vom ursprünglichen Thema weg Aber das kann (muss nicht) zusammenhängen Hast du denn die Änderungen schon gemacht?
  16. Moin an Board, auf geht es in den Tag - ich koche Kaffee Allen einen guten Donnerstag, bleibt gesund! Hier bewölkte 4°C, soll gleich anfangen zu regnen Über den Tag immer wieder mal Schauer und bewölkt bis etwa 9°C Aber am Wochenende soll es wieder warm werden
  17. Moin Nobert, wie würdest du das denn machen? Der Kunde möchte so wenige Daten (E-Mail, Datensätze in der SQL-Datenbank, Dateien, etc.) wie möglich bei einem Serverausfall verlieren. Und der Kunde möchte so schnell wie möglich wieder produktiv arbeiten können nach einen Serverausfall. Jetzt bin ich mal gespannt.
  18. Gestern
  19. n8 an Board, meine guten Taten für heute sind getan Schlaf gut, Board
  20. Wenn das NAS im LAn ist und immer an hilft dir das im Falle von Ransomware genau gar nicht. Und einen RDS Host brauche ich nicht jede Stunde sichern - wozu? Da sind eigentlich keine Daten drauf, die liegen auf den Shares und Datenbanken der Applikationen - und auch die braucht man nicht stündlich sichern Sind die an der Börse? Aus einem Desaster-Recovery Plan entwickelt man eine Backup-Strategie... Das was du da bei dem Kunden machst ist nur scheinbar sicher und belastet das Netzwerk Aber nun denn - deine Verantwortung
  21. Nö, danke alles klar dort... Damit der Kunde möglichst wenige Daten verliert. So fehlt maximal 1 Stunde. 1. NAS für Backup - Stündlich von 7 bis 19 Uhr 2. Backupserver für die Replikation der VMs - immer nach dem Backup 3. AWS - Cloud für tägliche Sicherung ab 19 Uhr in die Cloud
  22. Vielen Dank für eure Hilfen und Ideen! Ich werde das Thema „neuer Server“ jetzt mal ganz oben auf die Agenda setzen! Viele Grüße !!
  23. Toller Thread, ich hoffe noch nicht zu alt. wir haben das Tier Modell bei uns auch umgesetzt. Bis ich die alten Hasen erklärt habe, warum wir das tun, sind schon Monate vergangen. Der ein oder andere sagt heute noch, das die Arbeit kaum zu erledigen ist, weil der Verwaltungsoverhead enorm ist. Tier0 ist simpel. Bei Tier 1 und 2 wird’s haarig. Gerade Tier2. Wir haben dem normalen Useraccount das Tier2 Recht gegeben. Damit ist halbwegs normales arbeiten möglich. Nicht gut, ich weiß. paws haben wir noch nicht eingeführt, weil schlicht noch kein sauberes Konzept vorliegt, wie man auch aus dem Home Office diese nutzen kann. richtig Grenzwertig wurde es als wir 2 FA für die Tier User eingeführt haben. Zu erst mit Yubico als Smartcard. das geht aber nur sauber, wenn überall der yubico minidriver installiert wird. Da wir noch xp clients in der Produktion haben, hat uns dass das durchgängige Konzept verhagelt. Auch wollten wir nicht auf jedem Server den Treiber installieren. Ende vom Lied, kein durchgängiges Konzept, alle unzufrieden. als Lösung haben wir dann Silverfort gekauft, geniale Lösung. Auf einmal war jeder Netzwerkzugriff mit 2fa geschützt. Einzig, cached Credentials können es für die lokale Anmeldung außer Kraft setzen. Aber genau das war nun das Problem mit den eigenen Workstations. So richtig glücklich sind wir damit auch nicht. achja, die Tier1 Admins in die Protected User Gruppe aufnehmen? Schlechte Idee, wenn man Radius zur Anmeldung an den Switchen verwendet. Geht dann nämlich nicht mehr. also, eigener User zur Verwaltung der Switche? @wznutzer bei Service Accounts regelmäßig die Kennwörter zu ändern halte ich für nicht realistisch, jedenfalls nicht, wenn die IT normal bis unterbesetzt ist. das Thema ist so unfassbar komplex, es gibt nicht die eine Lösung. Aber sich damit zu beschäftigen und so viel wie möglich umzusetzen, ist schon mal ein sehr guter Schritt. @daabm mit welchen Usern verbindet ihr euch über cyberark mit den Servern? Gibt es da einen generellen Account und ihr verbindet euch mit dem persönlichen gegen cyberark?
  24. Ich hab noch was - was spricht der Healthchecker auf dem Exchange? Hat der was zu meckern?
  25. Weiß ich grad nicht, weils ja doch schon ne Weile her ist. Gabs das noch mit IE8? :)
  26. Rein für mein persönliches Interesse. Warum anonymisierst du private IP Adressen?
  27. Kennt IEM schon TLS1.2? "gpresult durchsucht" - welche Art von Report und wie durchsucht? Und was passiert, wenn man das manuell ändert und gpupdate aufruft - dann auch wieder falsch?
  28. Guck mal ob du Veeam-One in der Lizenz hast, damit sieht man deutlich mehr was die VM´s wirklich machen und brauchen Wozu werden die VM´s jede Stunde gesichert? Halte ich für Oversized... Was ist das Backup-Target?
  1. Ältere Aktivitäten anzeigen
×
×
  • Neu erstellen...