Jump to content

guybrush

Premium Member
  • Gesamte Inhalte

    1.213
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von guybrush

  1. Hallo Kollegen, eine kleine Frage: Habe seit gestern/vorgestern das Problem, dass verdächtig viele E-Mails von Kunden und Lieferanten rejected werden (5.5.0, RBL). Alle angeschauten Fälle waren auf diversen Blacklists, also komplett legitim. Aber der Sprunghafte Anstieg wundert mich... Kennt von euch jemand dieses akute Phänomen, bzw. hat auch damit zu kämpfen? LG Johannes
  2. Harter Artikel! Harte Fakten und auch beinharte Reaktion von Brian....
  3. OK, das war mir neu. Aber wenn das Microsoft so will, dann werde ich das heut Abend gleichmal ändern. Wartungsfenster für SP2 ist auch schon für Freitag Abend angesetzt, dann wird das schon werden.... @Queue: Ich habe mir das jetzt ein wenig angeschaut, mein Queue-Verzeichnis "wiegt" 11GB. Queue an sich ist leer. Ist das so normal? Wohl eher nicht, schätze ich... LG
  4. Nicht ganz, ich mach halt meine großen Schritte ohne Zwischenschritte. D.h. ich bleibe auf SP1, bis ich einen Patch einspielen muss, weil ein gewissen Verhalten eintritt. Irgendwann spiele ich dann SP2 ein, wenn ich mir sicher sein kann, dass es passt. Mittlerweile ist es 11 Monate da, da mach ich mir keine Gedanken. Aber Service Packs lass ich prinzipiell mal 1-3 Monate durch die Branche schwirren, bevor ich es installiere. Zum "Betatesten" habe ich nicht die Zeit. Man kann jetzt natürlich streiten, welcher Ansatz der bessere ist. Ich für mich bin bis dato mit meinem eher konservativen Ansatz recht gut gefahren. LG
  5. Der Fehler bzw. das Verhalten ist neu, seit heute quasi. Bis dato wollte ich nicht updaten, weil es noch keinen Grund gab, bzw. ich mir das SP2 als Wunderwaffe in petto halten wollte, wenn ich mal "gar nicht mehr weiter weiß" :D Alle Partitionen (jede DB liegt auf einer eigenen) sind mit +20GB noch weit weg von voll. Aber wo liegen die Queues genau? Das is mir nicht ganz bewusst... Stimmt, ist sie. Ich habe allerdings die eine oder andere Kleinigkeit vergessen zu erwähnen. Das kommt davon, wenn man neben dem Posten noch mailt und telefoniert.... Der Server hatte bis vor kurzem 16GB RAM + 4GB Swap. Jetzt ist er auf 24GB + 4 GB upgedatet worden. Kann es sein, dass ich mit dem Swapfile höher gehen muss, wenn ich den RAM erweitere? Möchte das eigentlich nicht glauben, weil ich dieses Verhalten noch nie hatte bzw. diese Maßnahme noch nie tätigen musste....
  6. Servus Kollegen, ich plage mit gerade mit einem störrischen Exchange 2010 SP1. Er hostet 3 Datenbanken (MSX zentral, pro geographischem Standort eine DB. Outlook via Citrix). Folgendes spielt sich ab: - Senden von E-Mails an einen Standort funktioniert nicht (eigene Maildomain & eigene Datenbank auf dem gleichen Server) - Die Queue steigt und steigt - Fehlermeldung im Queueviewer: 421 4.3.2 Service not available - Mailing sonst funktioniert einwandfrei, nur eben zu dieser NL bzw. zu dieser DB nicht. - In der EMC - Organizational Configuration - Database Management sind alle Datenbankenstati bei "Mounted -> Unknown" - EMC - Server Configuration - Mailbox bei allen Datenbanken der Copy Status auf ServiceDown. Der Server hatte 16GB RAM, wurde auf 24GB aufgestockt. Im Eventlog habe ich folgendes gefunden: Source: Service Control Manager, Event ID: 7000 The Microsoft Exchange Replication service failed to start due to the following error: The paging file is too small for this operation to complete. Das Pagefile hatte eine fixe größe von 4096MB. Während meines Troubleshootings (ich hab noch nichts wirkliches gemacht), hat sich die Queue dann wieder von selbst geleert. Jedoch bin ich gerade äußerst skeptisch, was die Maschine angeht. Kann mir da vielleicht jemand einen hinweis geben, was da los sein kann? LG Johannes
  7. Hallo Kollegen, Für eine Teststellung habe ich vor, 2 Fileserver (geringe Datenmenge, geringe Änderungen) über unsere WAN-Leitung (10MBit sync) und DFS zu synchronisieren. Einige arbeiten auf Published Desktops, andere auf lokalen Computern. Interimsmäßig müssen wir beiden Gruppen gemeinsamen Zugriff auf ihre Daten gewähren. SMB über WAN ist naturgemäß keine Option. Eventuell noch Branch Cache, da ich die DFS-Replikation anderen Orts so oder so benötige, will ich mich hier gleich daran versuchen. Da jetzt der neue 2012 Server da ist, der nativ ja dedupliziert und somit eine recht interessant Wahl für einen Fileserver generell darstellt, wollte ich mal in die Runde werfen, ob ich gleich aufs neue Pferd setzen soll, oder bei altbewährtem bleiben soll? Noch bin ich in einer Phase, wo ich es mir aussuchen kann. Was meint ihr? Gibt es technische Gründe für/wider 2008R2<->2008R2 oder 2012<->2012? Beste Grüße Johannes
  8. Hallo Kollegen, ich versuche gerade, einer Benutzergruppe zu erlauben, via "shutdown -i" unsere Server zu rebooten. Ich bin bis jetzt folgenden Weg gegangen: Computer Configuration\Windows Settings\Security Settings\Local Policies\User Rights Assignments\Shutdown the system. Dort habe ich die entsprechende AD-Gruppe (IT) hinzugefügt, Security Filtering defaultmäßig auf Authenticated Users. Die GPO habe ich in die Server-OU verlinkt. Allerdings funktioniert das so nicht. Habe ich da was falsch verstanden, oder ist "shutdown -i" nicht gleichzusetzen mit dem recht, lokal angemeldet auf reboot klicken zu dürfen? Letzteres ist nicht das Ziel, da wir uns ja mit den Adminkonten anmelden können. Es soll dann aber zur Erleichterung wirklich so sein, dass es via Remotekommando geht. Wo hab ich da meinen Denkfehler? Lg und Danke Johannes
  9. Ich hab ja nur 1,5 Jahre rumlamentieren müssen für meine Clariion. Nachdem jetzt das Eis gebrochen ist, werden 2-3 kleine VNXen sicher drinn sein :)
  10. Das hast du glaub ich falsch verstanden - ich erstelle sie nur am DC. Getestet wird natürlich auf einem Client. So viel Respekt vor meiner internen Reputation und vor meinem Feierabend hab ich schon, dass ich solche Dinge nicht auf einem DC teste ;) Am Client mach ich es ebenfalls. Das Kommando am DC abzusetzen ist einfach nur aus alten 2k-Zeiten noch tief drinnen (damals halt mit secedit, aber ich habs mir damals schon vielleicht falsch angewöhnt - zumindest schadets nicht). Weisst eh, wie es mit Gewohnheiten so sein kann.... @olc: Habe mir deinen Link durchgelesen, aber so ganz sicher bin ich mir nicht, worauf du hinaus willst? Die GPP wird zwar später auch am TS ausgeführt werden, sobald ich meine User migriert habe. Oder geht´s da gar nicht um den TS, sondern einfach darum, den Ordner am DC zu leeren? LG
  11. In meinem Fall ist es um Druckermappings (im Replacemodus) gegangen. Eingehend wollte ich es via Item Level Targeting auf die Abteilungsgruppen runterbrechen. Habs dann aber via Sicherheitsfilter gelöst, weil es für ersteres einen Patch brauchte, der mir beim Testen schon Probleme gemacht hat. Die Druckermappings, gleich wie Sharemappings erfolgen beim Anmelden, deshalb fragt er danach (meiner Erfahrung nach). LG
  12. Naja, um ehrlich zu sein, das /force mach ich eigentlich nur aus rein (subjektiv) psychologischen Gründen. Da werden dann ja einfach alle Gruppenrichtlinien verarbeitet, gleich ob sich was geändert hat oder nicht, und die Replikation zu den anderen Domaincontrollern wird angestoßen (?). Zumindest meine Meinung bisher. Ich habe bisher auch schon viele Benutzerbezogene Gruppenrichtlinien erstellt, diverse Ordnerumleitungen, Laufwerksmappings, Dateioperationen usw... - und immer mit dem Securityfilter auf die Usergruppe. Dann zum testen am DC gpupdate /force, danach am Terminalserver, und danach anmelden und schauen, ob die GP auch greift. Da hat es im Domainadmin, unter dem ich sowas am DC immer mache, noch nie ein Logoff gebraucht. Erst kürzlich ist mir das aufgefallen...
  13. Hallo Kollegen, seit einiger Zeit fällt mir auf, dass GPOs, die ich am DC erstelle und mit "gpupdate /force" quasi aktiviere, auch für den am DC angemeldeten Domainadmin ziehen? Konkret geht´s derzeit um mein Druckerdeployment. Ich erstelle eine GPP, in der ein Drucker einer gewissen Benutzergruppe zugewiesen wird. beim Securityfilter hab ich die Authenticated User entfernt und die gewünschte Gruppe hinzugefügt. Läuft auch alles soweit recht ordentlich, aber eben beim gpupdate will er den DA am DC abmelden? Das war früher nicht so, da bin ich mir ganz sicher. Ich wüsste aber auch nicht, was ich da anders machen würde als sonst? Vielleicht hat da jemand einen Tip für mich. Der Drucker wird am DC (zum Glück) nicht erstellt, es gibt auch im Eventlog keinen Eintrag (ist wirklich Blütenweiß). LG Johannes
  14. Das ist mir zu aufwändig, weil ich es dann ja steuern muss. Außerdem gibt es keinen Pattern, wann eine Datei gelöscht werden kann und wann nicht, zumindest nicht in der jetzigen Struktur. Aber du hast schon recht - ich könnte zukünftige Files in ein Scratch-Verzeichnis packen und dann per cron alle Woche löschen... Das alles beinhaltet dann aber wieder Arbeit für mich - und ich würde das gern an meine Marketingleute ausweiten. Z.b: der Entwurf für den neuen Katalog wird an die Werbeagentur und die Druckerei geschickt - dann soll der Uploader einfach sagen, dass die Datei nach dem zweiten erfolgreichen Download gelöscht wird.... Es geht halt alles in Richtung Managed File Transfer, wofür mir aber das Budget gestrichen wurde bis auf weiteres (ich wollte in Richtung Accellion gehen). Aber fürs erste würde mir da so eine kleine Lösung schon genügen....
  15. Hallo Kollegen, ich plage mich schon seit einer Weile mit unserem Downloadsserver. Schaut folgendermaßen aus: - Erreichbar via downloads.mycompany.at - Die internen Mitarbeiter (Marketing, ...) laden dort ihre Sachen hoch, wie z.B.: Produktdatenblätter, aktuelle Kataloge, usw... - Kunden bekommen dann den Link und der Download läuft... Jedoch wird der Server auch gern als Filesharingplattform missbaucht (nichts illegales, aber Dateiaustausch mit Kunden >100e MB). Jetzt liegt da natürlich viel Datenmüll herum, kein Mensch kennt sich aus, viele GB meines Rootservers sind zugemüllt. Ich suche jetzt ein kleines Script o.ä., mit dem ich diese Downloads zumindest ein klein wenig administrieren kann. Ich stelle es mir so vor: Ich lade eine Datei hoch bzw. via FTP, bekomme dann einen Link wie z.B.: downloads.mycompany.at/download.php?id=0123456 Dann wird der Download angestoßen, im Hintergrund der Downloadcounter inkrementiert um eins. Am wichtigsten wäre für mich jedoch die Möglichkeit, Dateien nach x-maligem download ablaufen zu lassen. Ich habe mich gestern durch Hotsripts usw... gewühlt, aber irgendwie nichts gefunden, was in diese Kategorie fällt. Abgesehen von Olate und Project Send, welches ich mir beides noch anschauen muss. Vielleicht hat ja jemand von euch einen Tip für mich? Kann auch gern eine Kleinigkeit kosten... Besten Dank schonmal Johannes
  16. guybrush

    NAS für Heimgebrauch

    :D Das "Schweinderl"' war das allererste Gerät, dass mir in meiner jetzigen Firma in die Hand gedrückt wurde - und welches ich nach knappen 15 Minuten in die Tonne geworfen habe. Aber Back2Topic: Ich habe mittlerweile schon das dritte QNap TS-219 II verbaut (bei Kollegen/mir selbst/Knden). Läuft einwandfrei, sehr schnell, und die Software spielt wirklich alle Stücke. Der Support ist auch recht kompetent, vorausgesetzt man weiß, dass man in Holland anrufen muss, und natürlich miiindestens 20 Minuten vor Feierabend. Die Deutsche Nummer geht ins Leere... LG Johannes
  17. Danke für die Info Steffen, das war mir nicht klar bzw. hatte ich (ohne es zu hinterfragen) was anderes angenommen.... Da muss ich dann noch mit meinem Provider reden, was die mir für Equipment hinstellen. D.h. ich könnte/müsste das IPSec dann eventuell wieder über meine Firewall managen? Also ans Interface X den Router hängen, am anderen Ende auch und dann quasi wie ein S2S behandeln?
  18. Ein Traum - somit kenn ich mich wieder aus und brauch mich nicht lang einlesen :) Danke für die Info(s)!
  19. Gut zu hören! Ich hab mir echt schon das Horrorszenario IP-Range Änderung durch den Kopf gehen lassen :D Wäre wohl ein Mammutprojekt geworden. D.h. wenn es reguläres Routing zwischen den Standorten gibt, ist es auch kein Problem, WAN-Streckenoptimierung mit z.B.: dem Branchrepeater oder ähnlichen Produkten zu implementieren?
  20. Hallo Kollegen, wir haben einen Remotestandort, der recht abseits gelegen ist. Auf meiner Suche nach einer ordentlichen Leitung habe ich nun als "optimale Lösung" eine MPLS-Leitung angeboten bekommen. Jetzt habe ich aber mit MPLS noch so gar keine Erfahrung, bis dato habe ich immer mit S2S-VPN gearbeitet (und noch keinen wirklichen Nachteil darin gesehen). Ich habe gehört, dass durch MPLS an beiden Standorten die gleiche IP-Range verwendet wird, es so also kein Routing mehr geben soll im klassischen Sinne? Wenn dem so wäre, hätte ich mit meinem eh schon beengten Klasse-C Netz eh schon ein Problem. Oder ist das alles nur ****sinn? Falls ja, wie würde ich dann den Remotestandort via MPLS anbinden und die Infrastruktur (die Remotedomäne wird "assimiliert") managen? LG Johannes
  21. WOW! Ganz ehrlich Torsten, wenn das bei mir läuft, bin ich mehr als nur zufrieden! Vielen Dank für diesen Link, er ist really cool! :)
  22. Hallo Kollegen, ich bereite mich gerade auf die Installation des neuen SCCM vor. Der 2007er verrichtet seinen Dienst noch recht brav, soll aber aus diversen Gründen bald abgelöst werden. Jetzt habe ich schon in Erfahrung bringen können, dass man nicht updaten, sondern nur migrieren kann, was ich in dem Sinne ja auch nicht wirklich will. Ist es möglich, beide SCCMs im gleichen Subnet (wegen PXE-Requests) parallel zu betreiben, bis ich am 2012er alles auf einem funktionen Stand habe? Wenn ja, gibt es diesbezüglich Fallstricke? LG Johannes
  23. Servus Norbert, das ist mir prinzipiell klar. Allerdings kosten die Agenten und Optionen in Summe auch gut ihre 12k. Alle Systeme sichere ich mangels Lizenzen ja nicht mit BE - vieles mit WSB. Nun denke ich mir, dass man sich die Alternativen anschauen sollte, bevor man so viel Geld in die Hand nimmt. Könnte ja sein, dass Arkeia z.b.: besser dedupliziert bzw. andere Vorteil hat? LG Johannes
  24. Servus Kollegen, ich verwende derzeit BE2010R3 mit diversen Agenten (SQL, MSX, AD), um meine Systeme zu sichern. Allerdings stammen die Lizenzen noch aus einer Zeit, wo alles physikalisch war. In der Zwischenzeit hat sich einiges getan; Alle Server sind nun virtualisiert (vSphere 5) und liegen auf einer Clariion CX4. Somit muss ich mir auch was bez. Backups überlegen, und bevor ich jetzt Unmengen ausgebe für Symanteclizenzen, will ich mir noch den einen oder anderen Hersteller anschauen. Arkeia schaut auf den ersten Blick nicht schlecht aus. Aber ich kenne niemanden, der es im Einsatz hat. Wie schauts bei euch aus? Gibt es damit schon Erfahrungswerte? Beste Grüße Johannes
  25. Servus, meines Wissens nach gibt es noch keine Version, die 2010 unterstützt, oder täusche ich mich da? Alle mir bekannten Versionen laufen gegen 2003/2007, speziell für das Sizing eines geplanten 2010er... Ich lasse mich aber auch gern eines Besseren belehren.... Lg Johannes
×
×
  • Neu erstellen...