Jump to content

Leuchtkondom

Members
  • Gesamte Inhalte

    535
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Leuchtkondom

  1. Leuchtkondom

    DNS Alterung

    Hallo Leute, ich habe ein paar Probleme mit der Alterung. AD-integrierte Zone, Alterung auf der entsprechenden Zone auf 7 und 15 Tage gesetzt. Auf den Servereigenschaften habe ich den Haken für Aufräumvorgang aktivieren gesetzt und aktuell (nur Testweise) 1 Stunde. Im Eventlog wird der Eintrag 2501 geschrieben: Der DNS-Server hat den Aufräumzyklus abgeschlossen: Besuchte Zonen = 143, Besuchte Knoten = 1135, Aufgeräumte Knoten = 1, Aufgeräumte Einträge = 1. Dieser Zyklus hat 0 Sekunden gedauert. Der nächste Aufräumzyklus findet in 1 Stunden statt. Die Ereignisdaten enthalten den Fehlercode, wenn während des Aufräumzyklus ein Fehler aufgetreten ist. Trotzdem werden alte DNS Einträge nicht gelöscht. Hier mal ein Beispiel eines Eintrags: http://www.bilder-upload.eu/show.php?file=598881-1525690060.png Warum werden die Einträge nicht gelöscht? Edit: Windows 2012 R2
  2. Wir haben auch jegliche ubiquiti wlan Produkte im Einsatz. Was hast du denn für fragen zu deren Produkten ?
  3. sicher macht es einen Unterschied, aber ich habe ja geschrieben das ich auf der Maschine auf der Veeam läuft ein Post Script ausführen möchte. Von GuestProecessing habe ich ja nie geschrieben
  4. Verstehe ich nicht. Ich will kein Guest Proecssing sondern einen Post Script Job
  5. Hallo Leute, in der Hoffnung das hier einige mit Veeam als Datensicherungssoftware unterwegs sind, frage ich einfach mal Kann mir irgendjemand erklären wann bei einen Backup COPY! Job das Post-Script ausgeführt wird und wann nicht? Ich sehe da kein System, verstehe es einfach nicht. Manchmal wird es ausgeführt, manchmal nicht. Am Script selber kann es NICHT liegen, da ich selbst in der Veeam Konsole nicht mal einen Eintrag dazu sehe. Also dort wird dann ja, an dem mir unbekannten Punkt X, irgendwann angezeigt "Running Post-Script....". Aktuell ist aber wieder der Fall, dass alle Backups erfolgreich kopiert wurden, das Script aber nicht ausgeführt und auch nicht mal ein Eintrag dazu geschrieben wurde. Aktuell sieht der Verlauf meines Backup Copy Jobs so aus: 01.03.2018 08:37:18 :: Job started at 01.03.2018 08:37:17 01.03.2018 08:37:19 :: New copy interval started 01.03.2018 08:37:25 :: Building VMs list 01.03.2018 08:37:39 :: Backup file will be encrypted 01.03.2018 08:37:42 :: Waiting for permitted network usage period 03.03.2018 00:00:02 :: VM size: 550,0 GB 03.03.2018 00:00:02 :: Changed block tracking is enabled 03.03.2018 00:00:02 :: Processing wei-appsrv01 03.03.2018 00:00:05 :: VM size: 1,6 TB 03.03.2018 00:00:05 :: Changed block tracking is enabled 03.03.2018 00:00:05 :: Processing wei-filesrv01 03.03.2018 00:14:13 :: VM size: 370,0 GB 03.03.2018 00:14:13 :: Changed block tracking is enabled 03.03.2018 00:14:13 :: Processing wei-dbsrv02 03.03.2018 08:14:46 :: Waiting for the new copy interval Leider nichts von Script zu sehen. Daher meine Frage, wann wird dieses denn überhaupt ausgeführt und wann nicht? Vielen Dank und einen schönen sonnigen Sonntag noch
  6. mit ein wenig googeln solltest du unzählige Anleitungen zum Einrichten einer Domain finden
  7. Vielen Dank für eure Beiträge. Nils, du hast sicher recht. Bisher habe ich mich mit EFS noch nicht all zuviel Beschäftigt, und dass diese Art von Verschlüsselung vermutlich eher ungünstig für "Wechseldatenträger" ist, die an eventuell anderen Rechnern gelesen werden müssen, habe ich bereits gelesen. Bisher bin ich wie gesagt noch in der Findungsphase für diese Sicherung. Auch ist bisher in der Firma noch nicht geklärt, wie und wer das mit den RDX Medien am Ende handhabt. Da das ein Verbund aus mehreren Firmen ist und jeder so seine Befindlichkeiten hat, wird das erst im Vorstand geklärt. Ich mache mir nur im voraus schon mal Gedanken, im Falle des Falles des Abhandenkommens der Medien. Wie gesagt, die VMs werden ja nur Veeam verschlüsselt. Aber mal am konkreten Beispiel: Es gibt auch eine Datevserver VM. Dort läuft Datev DMS, Datev Rewe und noch viele andere Datev Applikationen. Diese VMs wird zwar von Veeam gesichert, trotzdem wird aller 2 Stunden die Datev eigene Datensicherung innerhalb der VM gestartet, weil nur so kann ich dann einzelne Programmteile wieder herstellen. Diese Daten landen dann auf dem Backupserver in einen Ordner. Diese Sicherungen werden wie gesagt schon an ein NAS in einen externen Gebäude gesichert, nichts desto trotz hätte ich diese auch ganz gern auf den RDX Medien. Was gäbe es denn, zum für diesen Fall ungeeigneten EFS, als Alternativen? Okay, ich könnte das ganze vorher packen und mit Passwort versehen, und dieses Archiv dann auf das RDX Medium speichern. Daher frage ich hier, was euch für Alternativen einfallen würden. Wie gesagt, Bitlocker war nicht nutzbar.
  8. Hallo Leute, kurz zur Ist Situation: Wir sichern unsere VMs alle per Veeam auf den Backupserver. Von dort wird per BAckup Copy Job über eine Laserverbindung die Daten noch auf ein NAS in ein anderes Gebäude gesichert. Trotzdem haben wir uns entschlossen jetzt die Daten noch auf ein weiteres Ziel zu sichern und haben uns ein RDX Quickstation 4 gekauft. per Backup Copy Job werden von Veeam die Backups dort drauf kopiert. Diese sind per Veeam verschlüsselt. Jetzt wollte ich aber zusätzlich noch auf die RDX Medien einen Ordner erstellen, wo per Job-Pre-Script Daten drauf kopiert werden. Jetzt meine Frage, ich habe Bitlocker versucht. Das ist jedoch nicht nutzbar, die Schreib-Performance bricht von ca. 85 MB/s auf 15 MB/s ein. Jetzt habe ich diesen Ordner per EFS Verschlüsselt. Da ist kein Performance Verlust spürbar, meine Frage wäre nur, wie sicher ist denn das ganze? Angenommen die RDX Medien, die dann täglich getauscht werden, kommen in die falschen Hände. Wie sicher sind die Daten im Ordner X? Habe schon ein wenig gegoogelt, alles was ich finde ist jedoch recht alt, ich weiß ja nicht in wie Weit sich das zu heute geändert hat. Ansonsten wäre ich auch für andere Ideen offen :-) Habe auch per Veeam probiert, mit dem File Copy Job. Da ist ja aber wirklich gar nichts möglich, weder Verschlüsselung noch ein Spiegeln (ich möchte Quelle und Ziel spiegeln, nicht nur einfach kopieren). Lieben Dank
  9. Hallo, für einen unserer ESXi Hosts (Xeon Scalable Purley Platform) ist jetzt auch ein BIOS Update verfügbar. Ich wollte mal nachfragen, wie ihr das aktuell mit euren Servern handhabt, denn ich bin leicht verunsichert. Hersteller die ihre BIOS Updates zurückziehen, Intel mit Fehlern in ihren Microcode, Berichte über BSOD und unerklärlichen Neustarts. Fakt ist, ein instabiles System, was eigentlich unter Volllast im täglichen produktiven Einsatz ist, würde mir vermutlich mehr Probleme machen als ein EVENTUELL angreifbares System (die Windows Uodates + Regkeys have ich in allen VMs drin) Vielen Dank für eure Erfahrungen. Ps: Mainboard Intel S2600WF
  10. „Der Switch muss Spanning Tree Supporten. Vozugsweise RSTP auf Switch-Ebene. „ Spanning Tree hat absolut nichts mit Teaming zu tun.
  11. Also wir setzen bei uns ubiquiti ein. Aktuell ca. 300 APs (gemischte Struktur, teilweise die alten UAP mit WLAN N, teilweise UAP-AC Lite) Verbindungen insgesamt so meist 800. Controller läuft unter ESXi, per DNS wird der Controller auch in Außenstellen automatisch gefunden, sodass ein „Erweitern“ fast automatisiert geht innerhalb von Sekunden. Nutzen tun wir mehrere VLANs, produktives Netz mit Computer Zertifikaten , Gäste Netz usw. Zur Authentifizierung im Gästenetz haben wir anfangs den im Controller eingebauten Hotspot Manager genutzt, mittlerweile haben wir etwas eigenes in PHP gebaut, wo, durch AD Gruppen definiert, einige Mitarbeiter Codes in verschiedensten Zeitprofilen erstellen können und diese dann an den Unifi Controller übergeben werden. Ich kann ubuquiti nur empfehlen. Zyxel im übrigen gar nicht. Vor ubiquiti haben wir immer Zyxel genutzt, zu den Controller gesteuerten Geräten kann ich nichts sagen, die standalone APs (und dabei meine ich nicjt die günstigen) brauchten öfter mal ein Reboot oder so... bei ubiquiti kenn ich sowas gar nicht. Anstecken und läuft . Liebe Grüße
  12. Hallo Leute, ich habe nur eine ganz ganz kurze, vermutlich einfache Frage. Unsere Server sind alle über iSCSI mit mehreren NetAPPs (über MPIO Round Robin) verbunden, funktioniert alles bestens. Allerdings habe ich das bisher immer "offline" eingerichtet, dass heißt wenn auf dem Host grade keine VMs aktiv waren. Jetzt muss ich aber ein weiteres Storage einbinden, "offline" ist diesmal aber nicht möglich. Wenn ich das iSCSI Ziel eingebe erkennt er alle Pfade wie es soll. Dann aber die entscheidende Frage: Soll der HBA erneuert geprüft werden? Bisher habe ich mir da nie Gedanken darüber gemacht, weil ich bisher wie gesagt immer "offline" eingerichtet habe. Aber jetzt ... was passiert wenn ich JA drücke? Werden die vorhandenen iSCSI Verbindungen dabei kurz unterbrochen, oder bleiben die komplett unberührt? Da über die vorhandenen iSCSI Verbindungen ja der Traffic der aktuell laufenden VMs läuft... Ich nehme an das man das ohne Sorge bestätigen kann, wollte mich aber vergewissern. Lange Frage, vermutlich ganz kurze Antwort. :-) Danke an euch
  13. Also ich bin immer davon ausgegangen das man in einem (HW) raid die gleichen Platten verwenden muss. Du hast aber 3x unterschiedliche Festplattentypen, wusste gar nicht das das überhaupt geht, aber vielleicht liegt ja auch genau dort das Problem ???
  14. Danke für deine Antwort, per GPO habe ich mir eben angeschaut. Dies scheint aber nur für lokale Dateien / Ordner zu gehen oder ich suche falsch. Vermutlich hast du Recht und ich muss es via Skript machen, vielen dank
  15. Hallo Leute, bei uns wird für eine bestimmte Benutzergruppe von beim Start einer RemoteAPP ein Ordner auf dem Fileserver erstellt, da dies für die Anwendung essentiel notwendig ist. Das funktioniert auch soweit, ich habe allerdings Probleme mit dem NTFS Rechten dabei. Ausgangslage: \\server\freigabe\datev-dms Auf diesen Ordner sind folgende NTFS: - Administratoren Vollzugriff (Dieser Ordner, Unterordner und Dateien) - Benutzer "Scanner" nur Dateien erstellen und Attribute schreiben (Dieser Ordner, Unterordner und Dateien) - und diese gewisse Benutzergruppe, ich nenne es jetzt einfach mal Gruppe hat das Recht Ordner erstellen (NUR DIESEN ORDNER) In dieser Freigabe werden per GPP per %username% ein Ordner des jeweiligen Benutzers erstellt, das klappt da der User in der Gruppe ist. Jetzt sieht der Ordner aber folgendermassen aus: \\server\freigabe\datev-dms\benutzerx - Administratoren Vollzugriff (Dieser Ordner, Unterordner und Dateien) - Benutzer "Scanner" nur Dateien erstellen und Attribute schreiben (Dieser Ordner, Unterordner und Dateien) - Ersteller-Besitzer Vollzugriff (Nur Unterordner und Dateien) - BenutzerX Vollzugriff (nur dieser Ordner) An sich ist das ja soweit korrekt, da Benutzer X Ersteller ist kann er im automatisch erstellten Ordner alles machen. Jetzt aber folgendes Problem: Scanner X scannt in diesen Ordner per User Scanner, ist also in dem Fall Besitzer. BenutzerX kann diese Datei NICHT löschen, da er nicht Besitzer ist und der Vollzugriff automatisch auf "Nur dieser Ordner" gemacht wird. Was brauche ich? Beim automatisierten Erstellen müsste BenutzerX mit Vollzugriff hinzugefügt werden (macht er ja bereits) - aber nicht für "Nur dieser Ordner" sonder für "Dieser Ordner, Unteordner und Dateien")! Bekomm ich das irgendwie gelöst? Oder muss ich die Rechte anders bauen das es funktioniert?!?!?!
  16. Also wir setzen als Mailgateway unsere Firewall von Securepoint ein. Dort wird ein Greylisting durchgeführt, Spam Filter und Virenfilter. Anschließend gehen die Mails zum Exchange wo sich Kaspersky Security für Exchange nochmal um die Mails kümmert was Viren und Spam angeht.
  17. mmmm die Empfängeradresse deutet jetzt nicht unbedingt auf einen Verteiler hin, ich war auch der Annahme das der Fehler auf "Kundenseite" liegt, wollte das nur noch mal durch euch verifizieren, vielen Dank :-)
  18. Hallo, beim Senden an einen unserer Kunden erhalte ich immer eine Fehlermeldung: Betreff: [MX-Name-des-Kunden] Mail delivery failed : returning message to sender This message was created automatically by the SMTP relay on [MX-Name-des-Kunden] A message that you sent could not be delivered to all of its recipients. The following address(es) failed: [Ziel-Emailadresse beim Kunden] SMTP error from remote mail server after MAIL FROM:[MEINE-Email] SIZE=3331572: host 192.168.10.241 [192.168.10.241]: 530 5.7.1 Client was not authenticated Kann mir jemand Helfen? Der Fehler scheint doch nicht auf unserer, auf der sendenden Seite zu sein oder?
  19. @testperson: Da sehe ich doch aber auch nur die Dienste, welche dahinter liegen. Diese kenne ich ja schon. @djmaker: so ganz klar wie ich mit dem Porzess Explorer der Sache auf dem Grund gehe ist mir noch nicht, aber ich werde mich mal mit beschäftigen edit: Alle Host´s sind virtuell, aber das Problem ist erst seit kürzerer Zeit
  20. Hallo Leute, ich habe hier ein Problem mit unserer 2012 R2 RDS Farm bestehend aus 7 Session Host´s. Das ganze lief jetzt 3 Jahre absolut Problemlos, aber seit knapp 2 Monaten haben wir das Problem das die Server ständig bei 100% CPU sind und kaum noch ein Arbeiten möglich ist. Dabei nutzen die User kaum CPU Ressourcen, was den Server immer mit 100% auslastet ist die svchost.exe. Wenn ich aus diese einen rechtsklick Mache -> Dienste anzeigen werden mir folgende Dienste aufgeführt: - Anwendungsinformationen - Anwendungsverwaltung - Zertifikatsverteilung - Geräteinstallations-Manager - Gruppenrichtlinienclient - IP-Hilfsdienst - Server - Multimediaklassenplaner - Benutzerprofildienst - Aufgabenplanung - Benachrichtigungsdienst für Systemereignisse - Konfiguration für Remotedesktops - Shellhardwarerkennung - Designs - Windows-Verwaltungsinstrumentation Kann ich irgendwie sehen, welcher Dienst genau diese hohe CPU Belastung hervorruft? Diese Auslastung kommt immer wieder zwischendrin einfach so, dass heißt der Server läuft im Schnitt bei ca. 20% CPU und dann plötzlich wieder für 3-4 Minuten bei 100% mit diesem Prozess. Ich konnte allerdings auch feststellen, dass das gleiche Verhalten IMMER passiert, wenn sich jemand am Server anmeldet. Auslastung für 3-4 Minuten bei 100%. Da auf der Farm knapp 400 User arbeiten, ist die Anmelde-/Abmelde"rate" relativ hoch :-( Aber wie gesagt, beim Anmelden passiert es IMMER, aber auch zwischendrin (also ohne Anmeldung). Server sind auf aktuellsten Updatestand. Vielleicht kann mir jemand Helfen, dem Problem auf die Spur zu gehen oder mir zumindest Tips geben, wie ich die Auslastung auf den einzelnen Dienst eingrenzen kann um dann dort weiter zu suchen. Vielen Dank
  21. Vielen Dank magheinz für den Tip mit Flexoptics. Werden dort bestellen
  22. Ja aber genau das muss ich ja :-( Ich habe Emulex und Intel Netzwerkkarten, Switch wäre dann Netgear. Da muss ich ja Herstellerübergreifend arbeiten. Und da gibt es oft Probleme? Um ehrlich zu sein dachte ich bisher, diese DAC Kabel "simulieren" einfach ein ganz normales SFP+ Modul, da kann ich ja Herstellerübergreifend Arbeiten (zumindest laufen in unseren Zyxel Swichtes ganz normale Intel Module ohne Probleme)
  23. Mit der Längenbegrenzung von, im Internet meißt 10m angegeben, bin ich mir bewusst. Was genau meinst du mit "Die Kabel sind in der Menge recht störrisch"?
  24. Hallo Leute, unsere bisherigen Host´s laufen alle angebunden über 10 GBit SFP+ mit entsprechenden Modulen und Kabeln, soweit so gut. Jetzt stehen große Erweiterungen an, und irgendwie bin ich grade verunsichert. Es gibt ja auch DAC Kabel, damit bin ich ja viel viel günstiger als mit jeweils 2* Modul + Glaskabel. Beispiel: 3 Meter DAC rund 30€, 2 SFP+ Module + 3 Meter Kabel ungefähr 200€?!?!?!?! Was spricht dann gegen diese DAC Kabel? Oder sind diese für was ganz anderes gedacht als ich grade im Kopf habe? Sind diese verschiedenen Kabel denn immer Hersteller-Kompatibel? Switch wäre in unserem Fall Netgear, Netzwerkkarten wären Emulex und Intel. Was mir auch nicht klar ist ist der gewaltige Preisunterschied zwischen den DAC Kabeln. Klar von Hersteller zu Hersteller ist das immer ein wenig anders, aber so extrem? Wäre schön wenn mir jemand dazu etwas Input geben kann, letztendlich geht es im Moment bei uns um 14 neue zusätzliche 10G Links, und bei 14 Links wäre die Geldersparnis ja enorm wenn ich da diese DAC Kabel nutzen kann. Danke
×
×
  • Neu erstellen...