Jump to content

JClasen

Members
  • Gesamte Inhalte

    71
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von JClasen

  1. Moin zusammen! Erstmal nochmal danke für Eure Kommentare und Hilfestellungen. Bei uns gibt es keine Betriebsvereinbarung zur IT-Nutzung (kann es auch gar nicht geben). Es gibt aber die offizielle Aussage von oben, daß die Privatnutzung prinzipiell und im Rahmen technischer Einschränkungen gestattet ist. Eine Einschränkung dieses gewährten Rechts widerspricht der Firmenphilosophie im Umgang mit den Mitarbeitern. Insofern gibt es natürlich auch einen zementierten Unterschied zwischen privaten und dienstlichen Dateien. Und so wie ich das verstehe geht es weniger darum, daß ich als Admin die Daten sehen kann, sondern darum, daß der Besitzer der Daten später relativ problemlos erkennen kann, ob ich auf eine Datei zugegriffen habe. Beim Backup fehlt aber genau diese Sicherheitskomponente. Eine mögliche Variante wäre, das Verzeichnis mit den privaten Daten mit dem User-PW verschlüsselt zu speichern. Damit hätte ich dann die Möglichkeit die verschlüsselten Daten ins Backup zu übernehmen. Ohne Kenntnis des User-Passwortes könnte ich dann die Daten nicht einsehen, was eigentlich - aus meinem Laienblickwinkel betrachtet - dem Datenschutz genüge tun müsste. Jetzt käme die Frage der technischen Realisierung ins Spiel: Ich kann relativ schmerzfrei Daten verschlüsselt speichern. Die Frage ist, wie das ganze mit alle N Tage wechselnden Benutzerpasswörtern interagiert. Außerdem hab ich sowas noch nie für Netzlaufwerke gemacht. Da sehe ich weitere Schwierigkeiten. Außerdem stellt sich mir bei der ganzen Geschichte auch noch die Performance-Frage. Ich hoffe jetzt einfach, daß es dafür etablierte Lösungen gibt. Gruß Jens
  2. Erstmal vielen Dank für Eure Tipps. Sorry, daß ich erst heute drauf reagiere. Meine GF hat mir mittelfristig Zielsetzungen für die Disaster-Recovery von <=4h ins Pflichtenheft geschrieben, insofern krieg ich bei jeder Form von Dateien ohne Backup erstmal extreme Bauchschmerzen. Ich hab schon erlebt, daß sich ein Raid 5 verabschiedet, weil gleichzeitig 2/3 der Platten den ***** hoch machen und kein lauffähiges Backup existierte. Seit dem bin ich da gebranntes Kind. Einmal professionelle Datenrettung reicht mir in meiner Karriere eigentlich. Ich vermute mal, bei Euch in den Firmen sieht das ähnlich aus, deshalb interessieren mich halt hauptsächlich die Erfahrungen aus anderen Firmen. Per Gesetz verbotene Backups kann ich mir sehr schwer vorstellen, insofern such ich eher nach einem Weg, der Datenschutzrechtlich unbedenkliche Backups erlaubt. Anweisungen unseres Datenschutz-Hutträgers sind ja durchaus in Ordnung, ich bin nur auf der Suche nach nem sauberen Kompromiss zwischen Datenschutz und Datensicherheit. Meine User steigen mir ja schließlich aufs Dach, wenn eine Datei fehlt - egal ob privat (darf ich nicht sichern) oder dienstlich (muss ich schlimmstenfalls 10 Jahre aufbewahren). Ich meine, als Admin hast Du ja sowieso und immer die Chance, an alle Daten ran zu kommen, insofern muss es dem Admin ja wohl irgendwie möglich sein, Datenschutz und Datensicherheit unter einen Hut zu bringen. Gruß Jens
  3. Moin zusammen, unsere Abteilung Datenschutz ist auf den Trichter gekommen, vorzuschreiben, daß "Eigene Dateien" nur noch im Zugriff des jeweiligen Nutzers und damit nicht mehr ins Backup kommen sollen. Das zerschießt nun natürlich die Chance zum simplen Vollbackup der Platte unseres SBS und verleiht der ganzen Geschichte nen Zacken mehr Komplexität. Außerdem zerstört es mir meine Ausfallzeitenkalkulation. Außerdem kann es mir passieren, daß da wieder die Pflicht zur Aufbewahrung von Geschäftsbriefen rein spielt. Zum einen wollt ich mal hören, wie Ihr das handhabt. Zum anderen glaube ich, ich muss mich da mal ein bißchen tiefer in die Materie einlesen. Geben Eure Bookmarklisten da brauchbare Infos zu her? Gibt es irgendwo Konzeptdokumente zum Thema betrieblicher Datenschutz in SBS-Domains? Gruß Jens
  4. Eben, und genau diese Mehrzahl in Lizenzpapiere stört mich halt. Ich hätte gerne nen Ordner (analoge Version), wo schön in festgelegten Intervallen ein Report über den Lizenzierungsstatus abgeheftet wird. Und diesen Report würd' ich ungern per Hand erstellen. Sollte ich diesen Stuhl irgendwann mal verlassen, dann würd ich dem nächsten gerne sagen: "Du, schau mal hier in den/die Ordner. Hier findest Du im Bereich Microsoft vorne drauf alle Lizenzierungsstati der letzten X Monate und dahinter die zugehörigen Lizenz-Pickerl und Installationsmedien. Hinter den Pickerln findest Du dann noch die jeweiligen Lizenztexte und so verfügbar SLAs". Die selben Bereiche macht man dann einmal für alle Lizenzpartner durch, und ich muss nicht mal mehr daneben stehen, damit ein fremder (Szenario: Ich falle Unfall bedingt aus.) durch die ganze Kiste durch blickt. Richtig - es sollte. Nur nimm mal das Szenario, daß ich hier grad habe: Ich hab eine IT-Abteilung übernommen, die von einer Fremdfirma aufgebaut wurde. Aller Papierkrieg wurde dann in unserer Firma einfach immer in ein Schrankfach gehauen. Zum einen kann ich da doch nicht von brauchbar gepflegtem Papierkrieg reden, und zum anderen kann ich das ganze nur schwer auf Vollständigkeit hin untersuchen. Mittlerweile hab ich mich zwar durch gefriemelt, aber ich stell mir doch die Frage, ob das nicht auch einfacher gegangen wäre. Genau. Und da hab ich mir halt erhofft, daß irgendwer ein passendes Zusatztool für diese Zwecke erstellt hat. Allein schon weil die maximale Verwendung bei mir definitiv nicht stimmen kann, trau ich dem Snap-In nicht so wirklich. An meinem SBS-Server hängen zum Beispiel 27 Rechner, die zwischen 5 und 7 Tage die Woche immer wieder auf den Exchange zugreifen. Hinzu kommt noch ein paar andere Rechner, die nur sporadisch mit den Verzeichnisfreigaben und Druckern arbeiten. Ich habe gegenwärtig 35 Lizenzen zur Verfügung. Jeder Benutzer greift über einen ihm fest zugewiesenen Rechner auf die Domäne zu oder kann alternativ auf einen TS zugreifen. Als maximale Verwendung wird mir aber ne 24 genannt. Wie machen es denn die ganzen IT-Support-Dienstleister? Die müssen doch was an Diagnosewerkzeugen haben. Es kann doch nicht sein, daß solche Informationen in einer IT gespeichert werden, ohne daß man eine Chance hat, darauf zuzugreifen. Vielleicht hat ja noch wer ne Idee? Gruß Jens
  5. Moin zusammen, nachdem die Aussagen im Lizenzierungs-Snapin in der Managementconsole ja reichlich knapp gehalten sind, bin ich auf der Suche nach einem Tool oder einer Methode, die etwas mehr Aufschluss bietet. Konkret benötige ich die folgenden Infos - idealerweise als druckbaren Report: 1) Wie viele SBS-CALs sind installiert? 2) Welchen Typ haben die Dinger (Device vs. User)? 3) Wann wurde aktiviert? 4) Wie viele SBS-CALs werden in der Domain verwendet? 5) Sollte auf dem Server ein TS-Lizenzierungsdienst für die Domain laufen, dann halt das übliche. Lizenzanzahl, Art, Verwendung und Aktivierung. Die Suche hab ich entweder mit den falschen Stichwörtern gefüttert, oder aber sie bietet nichts aufschlussreiches. Kennt Ihr was entsprechend? Gruß Jens
  6. Du bootest von einer BartPE-CD und machst cmd auf. Anschließend wechselst Du auf die entsprechende Partition (meistens C: ) und wechselst ins o.g. Verzeichnis. Danach kannst Du den Restore ganz normal durchführen. Gruß Jens
  7. Und genau diese Formulierung hat mich halt stutzig gemacht. Die Eingangsfrage zielte darauf ab, was den der lizenzierte Server ist. Wenn das genau die Ansammlung von Hardware ist, die für das Starten eines Betriebssystem halt notwendig ist, dann ginge mein Szenario ja nicht, bzw. ich würde N+M Lizenzen benötigen. Ich müsste ja schließlich dann nach Hardware lizensieren und nicht nach Serversoftwareinstanz. Am Ende scheint es jetzt ja aber so auszusehen, daß ich die Lizenz quasi beim ersten Hochfahren der Softwareinstanz an die konkrete Hardware binde, und wenn ich die Hardware wechsele - sprich die konkrete Partition in anderer Hardware boote - ich meine Lizenz einfach umverschiebe (sprich: neu-aktiviere). Die einzige Frage die sich mir diesbezüglich jetzt noch stellt ist, wo ich denn nun den Aufkleber hin klebe... @Dr.Melzer: Weist Du zufällig noch aus dem Kopf, mit welcher Windows-Version sich das geändert hat? Ich müsste mal ein paar meiner Altlasten hier anschauen und dann mal meine deinstallierten Lizenzen gegen die Anzahl der Backups gegen zählen. Gruß Jens
  8. Danke. Übrigens sorry, falls ich Dir auf den Schlips getreten habe. Aus und leite ich mal ne kleine Gewissensberuhigung ab. Danke Euch beiden. Mir ist klar, daß ein Booten vom SAN relativ heikel sein kann. Zum einen hab ich sowas ähnliches aber schonmal im Betrieb gehabt (wenn auch nicht auf Windows), und zum anderen sind doch schon recht extreme Vorteile für so eine Lösung zu verzeichnen, wenn sie denn richtig läuft. LUN(s) umleiten <= 2 Minuten, Server hochfahren <=12 Minuten, ggf. aktivieren <=1 Minute. Macht eine Worst-Case-Zeit von 15 Minuten bis die Betriebsfähigkeit wieder hergestellt ist. Hinzu kommt noch die Reaktions- und Diagnosezeiten. In der Summe sind wir dann bei max. 1.5h Ausfallzeit. Für unsere kleine EDV-Abteilung hier sind das Welten im Vergleich zum Status quo. Ein Hardware-Defekt ist hier normalerweise nicht unter drei bis vier Stunden ausgestanden. Den Test ist mir das auf jeden Fall wert. Abhaken kann ich das ja immer noch wieder. Es ist ja schließlich nicht so, als das ich dafür extra Ressourcen schaffen müsste. Gruß Jens
  9. Richtig. Anders würde das ganze Szenario doch sowieso nicht funktionieren. Gruß Jens
  10. Okay, wir verheddern uns hier beide grad im Tonfall. Können wir bitte ein Stück zurück rudern? Mir ist bekannt, was eine Partition ist. In diesem Zusammenhang denk bitte eher in Richtung der durch die Gegend getragenen Wechselfestplatte. Die Partition und die Daten existieren nur genau ein einziges mal. Da wird nichts kopiert geclont, oder ähnliches. Gruß Jens
  11. @Gulp: Du weißt, was ein SAN ist? [EDIT]Und wozu sollte ich da irgendwas installieren oder clonen? Erläutere mal bitte, wie Du zu dem Schluss kommst. Danke auf jeden Fall für Deine Bemühungen.[/EDIT] Gruß Jens
  12. Genau das ist ja der Punkt, wo es bei mir grade aussetzt: Was ist in diesem Zusammenhang eine "Installation"? Installiert wird ja schließlich nur jeweils N mal. Die Geschichte ist eher vergleichbar mit einer Wechselplatte, die ich bei Bedarf vom (defekten) Produktionsserver in eine (heile) identische Maschine schiebe. Das die ganze Geschichte dann halt per SAN passiert, steht ja auf nem anderen Blatt. Wenn jeder Server seine eigene Festplatte mit replizierten Daten hätte - also wenn ich in die DAS-Richtung denke, dann würd ich es ja genauso sehen, wie Du es beschreibst. In diesem Fall ist das aber eher so, als ob ich mir für meine Server jedes Teil ausser der Festplatte als Ersatz aufs Lager packe und bei Bedarf einen neuen Server um die Festplatte herum baue. Hintergrund der Geschichte ist folgende: - Um das Storage Area Network komm ich sowieso nicht herum - das wird eh angeschafft - Im Zusammenhang damit werden hier zwei physikalisch identische Maschinen frei, und zwei weitere identische verbleiben in Betrieb - nun kann ich die Dinger entweder zerlegen und als Ersatzteile in den Schrank legen, oder ich kann sie im Rack lassen und ggf. am Stück als Ersatzteil verwenden. Die lizenzrechtliche Beurteilung häng da doch IMHO von der genauen Definition der Begriffe "Server" (HW vs. SW) und "Installation" (Festplatte vs. Gehäuse) ab. Das ich nun quasi beliebig Hardware an meinen Servern austauschen darf (wenn auch ggf. mit Aktivierung), ist bekannt. Da müsste doch das obige Szenario meinem Verständnis nach in die selbe Kerbe hauen? Gruß Jens P.S.: Kein SA oder R2 hier.
  13. Moin zusammen, über das Thema Redundanzen wurd ja schon viel geredet, und was geht und nicht geht, hab ich ja nun auch einigermaßen begriffen. Für folgendes hypothetische Szenario benötige ich aber trotzdem mal einen Daumen hoch, bzw. runter: - es werden N Server-Systeme benötigt - es exitieren N+M physikalisch identische Server - ein SAN an dem alle N+M Server dran hängen - die M Server Überhang finden als universale Cold-Spare-Maschinen Verwendung Fällt nun einer der N dauerhaft in Betrieb befindlichen Server aus, so werden einem der M "kalten" Server die LUN des ausgefallenen Servers zugewiesen und das Ding hoch gefahren. Meiner Interpretation nach würde ich hier N Serverlizenzen benötigen. Oder lieg ich da verkehrt und benötige doch N+M Lizenzen? Speziell interessiert mich das im Bezug auf w2k3 Std und im Bezug auf W2k3 SBS. Für letzteren wäre dann auch noch das Thema CALs interessant. Sind die an die physikalische Maschine "SBS-Server" gebunden oder an die durch ihn aufgespannte Domäne? Könnt Ihr bitte Licht ins Dunkel bringen? Gruß Jens
  14. Die zwei Monate sind zwar noch nicht ganz rum, aber wir haben uns mittlerweile für die Nod32-Lösung (Enterprise Edition + RC) entschieden und diese eingesetzt. Im wesentlichen klappte zumindest die Installation der Software reibungslos, es gab aber auch ein paar Probleme, die ich Euch nicht vorenthalten will: Was schlecht lief: Die Symantecs zu deinstallieren ging nur Hands-on, weil das Deinstallationskennwort nirgends akzeptiert wurde. Obwohl auf allen Systemen die Hashes passten, ging das Standard-"start123" nicht. Auf allen Systemen musste das Norton-Removal-Tool händisch gestartet werden. Unser Small-Business-Server hat nach Installation des Nod32 angefangen, sich pünklich und auf die Sekunde genau alle zwei Stunden aufzuhängen. Abhilfe brachte hier nur die Deinstallation des Nod32-Kernels. Eine Deaktivierung aller Module half nur soviel, daß aus alle zwei Stunden jeweils vier Stunden wurden. Weder der Eset-Support, noch ich wissen momentan rat. Der Editor für die Konfiguration ist eine ziemliche Krücke. Es ist erschreckend zu sehen, was der Symantec alles nicht erkannt hat. Was gut lief: Nach erfolgter Installation und Konfiguration von Scanner, Lan-Update-Server, Ra-Server und Console erfolgte die komplette Installation an den jeweiligen Standorten remote. Ein Hands-On-Einsatz war nicht notwendig. Die Downtime durch Reboots und ähnlichen Käse war minimal. Der Einfluss der Scanner auf die Systemperformance ist minimal. Es gab nicht eine Inteferenz mit bestehender Software (mal mit Ausnahme der SBS-Geschichte oben) Wir zahlen jetzt für den Nod32 genau das selbe, wie für die Symantec-Lösung. Der Unterschied? Bei Symantec war es für ein Jahr, jetzt ist es für drei Jahre. Im großen und ganzen bin ich zufrieden, und von meinen Usern hat mich auch noch niemand gekillt. Nochmal vielen Dank für die guten Tipps. Gruß Jens
  15. Oh weh - nicht schon wieder Vertriebler :( In Anbetracht meiner Erfahrungen mit denen mehrerer SMS-Gateway-Betreibern vergangene Woche, wollt ich mich davon eigentlich erstmal erholen. Aber Danke für den Tipp - sobald mein Nervenkostüm das wieder mit macht, frag ich da nochmal an. ;) Mach ich. Kann allerdings zwei Monate dauern. Meine dringendste Baustelle ist das nicht. Gruß Jens
  16. Am schnellsten? Du nimmst einen exakt baugleichen Server ohne Festplatte. Du fährst beide Server runter und schraubst die Festplatte vom alten Server in den neuen. Ein bißchen langsamer wäre dann die Variante mit Daten kopieren. Das willst Du aber glaub ich nicht, oder? Was ist Ziel der Aktion? Wie ähnlich sind sich beide physikalischen Maschinen? Gruß Jens
  17. Moin zusammen! Fangen wir erstmal mit einem dicken Danke für Eure Erfahrungswerte an. Zum Thema Performance muss ich noch eins los werden: Unser Kriterium ist immer, wie das ganze dazwischen haut, wenn die angesprochene Routenberechnung läuft. Einer unser typischen Anwendungsfälle läuft auf einem AMD Athlon X64 3800+, 1 GB RAM im Schnitt 2:12 Minuten - ohne Virenscanner. Mach ich das ganze mit aktiviertem Symantec sind es im Schnitt 2:21 Minuten - und das ohne voll laufenden Speicher. Gemessen auf einem frischen XP Pro SP2 - vor und nach Installation des AV-Clients. Ihr könnt Euch vorstellen, daß mir meine User da schon ganz schön meckern. Eine Neuanschaffung darf einfach nicht merklich langsamer sein - und dabei geht's rein ums subjektive Emfinden. Das ist die eine Baustelle. Die andere Baustelle sind Leistung und Features. In unserer Größenordnung muss das System hauptsächlich erstmal laufen. Eine meiner Aufgaben hier ist es, den Bedarf für eine Vollzeit-IT-Stelle zu killen. Langfristig muss das ne Halbtagskraft oder ein Externer hin kriegen - wahrscheinlich am ehesten letzteres. Ich geb jetzt also lieber nen Euro mehr für ne anständige Verwaltungskonsole aus, damit ein Externer damit Remote arbeiten kann, als hier auf Turnschuh-IT zu setzen. Was den Support angeht, hab ich - je mehr ich lese - den Eindruck, daß sich die alle nicht viel nehmen. Entweder Du hast Glück und gerätst an den richtigen Supporter am anderen Ende der Telefonleitung - oder eben nicht. Ich hab zum Beispiel mit den Leutchen von Symantec nur und ausnahmslos gute Erfahrungen gemacht. Andere erzählen die reinsten Schauergeschichten. Beides wird irgendwo stimmen. Meine Quintessence für den Moment ist folgende: - McAfee scheidet auf Basis von Chunky's Aussagen (Danke nochmal) und auf Basis von 2:33 Minuten im obigen Referenztest aus, obwohl es von den Features und vom Preis her in Frage käme. - Nod32 macht auf den ersten Blick nen ganz sauberen Eindruck. Zum genaueren Test bin ich noch nicht gekommen. Ich lese allerdings von Zeit zu Zeit von Problemen mit der Erkennungsrate. Wobei ich das in Anbetracht des doch ganz brauchbaren Rufs von Kaspersky nicht ganz glaube. - ITM kriegt auch ein definitives "Maybe" - momentan vor allem auf Basis des Preises. Der Informationsgehalt der Webseite gefällt mir allerdings schonmal garnicht. Wenn ich das Ding getestet hab, bin ich schlauer. - Sophos ist sicher auch ein tolles Produkt. Man hört und liest immer wieder gute Empfehlungen. Was mich da noch etwas stört ist der Preis. Für den Preis kann ich auch einfach unseren Symantec verlängern. Nur um des Wechselns willens, muss ich nicht zwingend was neues haben. Ich mach den Test mal, sollten ITM und Nod32 durchfallen. Gruß Jens
  18. Moin Stephan Klar: Inklusive aller Testsysteme und Reserve planen wir mit 40 Clientlizenzen. Das wär nett. Danke Meine beiden Aussagen bezogen sich auf unterschiedliche Szenarien. Die Aussage mit den Zeitunterschieden bezog sich auf Enterprise-Lösungen auf einem Testsystem. Die Aussage mit den unterschiedlichen Ressourcen bezog sich hingegen auf die subjektive Wahrnehmung von Geschwindigkeiten, sowohl im privaten Sektor, als auch im Unternehmensumfeld. Wenn ich zum Beispiel auf meinem Rechner zu Hause (2xP3 500Mhz CPU, 2GB RAM, RAID 0) einen Virenscanner laufen lasse, dann würde eher auffallen, wenn der CPU-Leistung kapert, als wenn er Arbeitsspeicher frisst oder häufig die Platte rödeln lässt. Deshalb kann dann halt auch mein subjektiver Geschwindigkeitseindruck ganz anders sein, als Deiner. Mein Eindruck bei der ganzen Geschichte war halt, daß Der Avira ziemlich störend ist. Das erhebt aber keinen Anspruch auf Vollständigkeit dieser These für alle Szenarien. Beim Norton hingegen hatte ich bisher eigentlich immer den Eindruck, daß das ganze für das gebotene Performance-mäßig in Ordnung geht. Einen Direktvergleich beider Produke (aus den von Dir schon angesprochen Gründen) würd ich aber nicht machen wollen. Das wären dann doch die berühmten Äpfel und Birnen. Die Webseite macht schonmal nen ganz guten Eindruck. Ich zieh mir mal den 30 Tage Test. Der Preis sieht auch erstmal in Ordnung aus. Gruß Jens
  19. Hallo Ihr beiden, schonmal Danke für Eure Erfahrungswerte. Über ITM hab ich auch schon einiges gutes gehört. (leider aber wieder ohne Performance-Test) Hast Du zufällig parat wie die bei den laufenden Kosten pro Client momentan liegen? Außerdem wäre interessant zu wissen, ob das Ding die Signaturen inkrementell oder am Stück auf die Clients läd (ein Teil unserer Arbeitsplätze ist nur mit 2MBit an den Server angebunden). Mal mit Ausnahme des Speicherverbrauchs find ich den Symantec eigentlich vergleichsweise anspruchslos. Aber bei unseren Anwendungen ist normalerweise eh eher die CPU das Nadelöhr. Wir betreiben hier massiv Routenberechnungssoftware, da geht der Unterschied auf einem Testsystem zwischen z.B. McAffee und dem Symantec schon gelegentlich in den 30 bis 40 Sekundenbereich - zu Gunsten von Symantec. Richtig. Vor allem hängt es leider sehr daran, welche Ressourcen da eigentlich verschwendet werden. CPU-Last und Arbeitsspeicherwurcher wirken sich je nach Anwendungsfall anders aus. Deine Erfahrungen mit McAffee wundern mich nicht wirklich. Und das mit der schwachen Erkennungsrate von Avira ist ja eigentlich auch kein unbekanntes Problem. (Schade eigentlich - das Preismodell der Suite ist eigentlich ganz brauchbar.) Ja - leider. Vom Leistungsumfang her, haben wir eigentlich kaum Gründe zu wechseln. Solange man nicht versucht, einen Symantec aus irgendwelchen Gründen von einem System wieder runter zu bekommen, und man einigermaßen mit dem Login-Skript umzugehen weiß, is das schon okay so. (Natürlich wäre ne verlässlichere Remote-Install schön, aber wat soll's.) Aber wir reden hier mal eben von ~2.500€ jedes Jahr. Da könnt ich mein Budget auch besser verbraten. Das Programm kenn ich jetzt wirklich nur dem Namen nach. Ich mach mich mal ein bißchen schlau und lass evtl. mal nen Test laufen. Ne Marktübersicht, die auch auf die Performance eingeht, habt Ihr nicht zufällig gesehen, oder? Gruß Jens
  20. Moin zusammen, bei uns steht bald mal wieder die Erneuerung der Maintenance-Subscription für unser Symantec AntiVirus Enterprise Edition 10.2 an. Ich hab nun weder gegen die Performance, noch gegen die Features besagter Lösung wirklich was einzuwenden, aber wenn ich mir die damit so verbundenen jährlichen Kosten so anschaue, dann wäre ein Blick über den Markt wohl nicht verkehrt. Soweit auch kein Problem, Marktübersichten und Testvergleiche gibt es (auch hier im Forum) ja so einige. Integrales Kriterium für uns ist aber die Resourcen-Nutzung der jeweiligen Clients - und darüber schweigen sich dann alle Vergleiche die ich so gesehen habe leider aus. Aus dem Privatanwenderbereich kennt man ja, daß zum Beispiel die Aviras und McAffees unheimlich Leistung klauen, während z.B. die Nortons vergleichsweise besser da stehen. Im Enterprise-Umfeld fehlt mir da aber ein bißchen die Erfahrung. Ist Euch irgendwas an Links bekannt, was auch diesen Aspekt beleuchtet? Was sagt Eure Erfahrung? Wen schaut man sich besser mal genauer an? Wovon kann man gleich die Finger lassen? Gruß Jens
  21. Also kurz gefasst: Am besten wir bleiben bei einem Smtp-Connector und tragen dort den zweiten Server als Smarthost ein, sollte ich wirklich irgendwann so verzweifelt sein, daß ich das Hirngespinst umsetze. Der muss sich dann halt selbst um die Fílterung kümmern. Danke für Deine Erläuterungen Gruß Jens
  22. Richtig, aber das Standardgateway ist eine Route - nämlich die Default-Route. Und die kannst Du durchaus mittels route ändern. Letztendlich wird Deine Einstellung für das Default-Gateway in der Netzwerkkonfiguration sowieso nur später als Route übernommen. Teste mal durch: route change 0.0.0.0 MASK 255.255.255.255 $NEUES_GATEWAY und danach schau in die Konfiguration Deiner Netzwerkkarte... Gruß Jens
  23. Moin Moin, nur mal so in den Raum geschmissen: Wäre es nicht am einfachsten, das ganze per route-Kommando im Login-Skript zu lösen? Da brauchst Du weder den Namen der Lan-Verbindung, noch den Karten-Bezeichner, noch sonst was. Was meinen die Experten dazu? Gruß Jens
  24. Konkretisierung: Meiner Definition nach ist die Domain Teil der Adresse. Ich möchte also sagen können: Mails an xyz@web.de sollen über Smtp-Server B raus, und alle anderen über Smtp-Server A. Und wenn ich das ganze bisher nicht missverstehe, dann lassen sich als Adressraum ja nur Domains angeben. Das ist aber eigentlich der unwichtigere Teil der Frage. Am wichtigsten wäre es, wenn ich sagen könnte: Alle Mails von xyz@subdomain.local gehen über Smtp-Server B nach draußen, wärend alle anderen E-Mails weiterhin über Smtp-Server A laufen. Wie mir da ein Smtp-Connector mit Adressraum hilft, erkenne ich leider nicht. Kannst Du Deinen Tipp nochmal für doofe formulieren? Irgendwie befürchte ich, wir reden einfach ein bißchen an ein ander (schreibt man das eigentlich getrennt oder zusammen?) vorbei. Danke schonmal für Deine Bemühungen. Gruß Jens
×
×
  • Neu erstellen...