Jump to content

PathFinder

Members
  • Gesamte Inhalte

    508
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von PathFinder

  1. Hallo Guenther, danke für dein Interesse =) Also erst mal vorweg, ich find die Rollen genial! Abdecken möchte ich damit den Standard den die Rolle bietet wie: - Postfach- und Daten- Kontingente - Umleitung der Daten ja/nein - Zugriff auf die Webseiten (BuildIn) VPN etc. Weiter möchte ich damit Nutzerrechte in Form von Gruppen abdecken. Aber da fängt es eigentlich schon an: Benutzerin Sekretariat A und Benutzerin Sekretariat B haben EXAKT dieselben Rechte und Einstellungen, aber Benutzerin SekB macht halt zusätzlich noch DATEV und braucht noch Mitgliedschaft in der Gruppe DATEV denn anhand dieser Gruppe bekommt Sie Zugriff auf ein Netzlaufwerk und dieses auch zugewiesen (Loginscript) Bedeutet ich muss die Rolle nochmal anlegen nenne sie Erw1+DATEV und so fort. Möchte ich nun auch noch Drucker verteilen auf Basis von Gruppenmitgliedschaften (ifmember im Loginscript) wird es richtig chaotisch, denn jetzt muss ich als Beispiel: Die Basis Rolle anlegen + DATEV + Druckerset Den das Problem ist ja schlicht wenn ich so was wie die Druckergruppen aus den Rollen raushalten will und nur Gruppen mit Nutzern fülle, irgendetwas an der Rolle ändern und die durch schieße sind alle manuell hinzugefügten Mitgliedschaften wieder weg. Was ich eigentlich sagen will ist das ein manuelles Feintuning so nicht mehr möglich ist, es muss für jede verwendete Konstellation (eigentlich pro Benutzer) eine eigene Rolle her und damit bewege ich mich nicht mehr im Bereich der statischen Gruppen oder Abteilungsrollen, es läuft auf dedizierte Benutzerrollen raus, aber dann nutzt mir die Rolle nicht mehr allzu viel dann kann ich es machen wie eh und je. Rollen sind also nur dann brauchbar wenn wirklich ALLES was darüber konfiguriert wird bei wenigstens 2 Benutzern identisch ist. Und jetzt kommt mein Verständnisproblem. Je größer die Netze werden desto schwieriger wird es mit den Rollen zu arbeiten. Wir haben Kunden im Bereich von 5 - 65 PCs und je größer der Kunde wird desto problematischer die Sache mit den Rollen. Bei 1500 Arbeitsplätzen kann man vielleicht starr mit Abteilungen und Dienstbereichen arbeiten, aber es gibt immer mal wen der dann doch noch den Drucker aus der anderen Abteilung braucht und schon braucht es wieder eine andere Rolle. Das der SBS nicht für 1500 Benutzer ausgelegt ist, ist mir an der Stelle klar, wollte es nur etwas verdeutlichen. Das Ziel wäre es ja einen Mitarbeiter der neu kommt mit den Rechten zu versehen die auch sein Arbeitsfeld-Kollege hat, aber mal ehrlich wo ist denn das 100% gleich und zwar immer?! Das wäre dann Abteilungsbezogen. Oder ist es das Ziel wenn ein Mitarbeiter das Haus verlässt und ein anderer seinen Platz einnimmt dessen Konfiguration zu übernehmen? Also Benutzerbezogen. Nur wenn die Rollen benutzerbezogen sind, machen sie wirklich nur noch Sinn um Mitarbeiter aus zu tauschen und nicht um mal schnell nen zusätzlichen Kollegen anzulegen ohne sich durch die eigene (hoffentlich) sehr detaillierten Dokumentationen zu arbeiten. Ich sehe den Hauptnutzen in der Reduzierung von Fehlern, dem vergessen von Details etc. um jemand neues zügig alles zu zuweisen was er/sie für seine/ihre Arbeit braucht. Aber deswegen schreibe ich hier, vielleicht sind meine Vorstellungen in dem Bereich schlicht verkehrt =) danke fürs lesen, der Path
  2. Hallo zusammen, ich wollte mal fragen wie Ihr das mit den Rollen handhabt. (SBS-Konsole) Nutzt ihr dieses eigentlich sehr coole Feature oder sagt Ihr eher ne, sobald es etwas spezieler wird, versagen die Rollen? Ich frage deshalb weil ich es eigentlich sehr gerne nutzen möchte und auch mache, aber vielleicht einfach zuviel von diesem System verlange. Bevor ich jetzt hier meinen Leidenwegs aufzeige, wollte ich halt einfach mal nachhören wie Ihr das so so seht.
  3. Manchmal ist es einfach unfassbar. Wir haben nicht nur diesen Kunden mit SBS2011 und bei ausschließlich JEDEM funktioniert das Remote Web. Ich sitze hinter einem TMG 2010 mit URL Cache .. und ja, wahrscheinlich brauche ich auch schon garnicht weiter schreiben ..... °_O TMG2010: net stop fwsrv URL-Cache Verzeichnis, Cache-Datei löschen net start fwsrv In solchen Fällen ist es von Vorteil wenn man über sich selber lachen kann ... Danke das ich mit jemand darüber sprechen durfte ;P mfg der Path
  4. Hallo zusammen, ich habe hier einen SBS2011 bei dem es ohne Probleme möglich ist per http://remote.domaene.de von INTERN auf den RWA zu zugreifen. Umleitung auf "https://remote.rhp-online.de/Remote/logon?ReturnUrl=%2fremote" erfolgt, alles super. Mache ich das selbe von EXTERN, lande ich immer auf "http://remote.domaene.de/default.aspx" Mit einem Fehler 404 - Die gesuchte Ressource oder eine ihrer Abhängigkeiten wurde möglicherweise entfernt. Ich bin mir sicher das dieser Weg schon funktioniert hat und weiß nicht warum es jetzt Probleme macht. Die remote. ist beim Provider im DNS registriert und zeigt auf die feste IP des Kunden. Port 80, 443 und 987 sind in der Firewall zum SBS2011 weitergeleitet. Rufe ich "https://remote.domaene.de/remote" auf lande ich auf der korrekten Seite. Selbe mit OWA etc. Also die Adresse muss stimmen. Ich denke hier greift der Redirect nicht? Aber warum geht es von intern ohne Schwierigkeiten. Hat jemand eine Idee wie ich das hinbekommen kann? Danke fürs lesen, der Path Ergänzung: Wenn ich "https://remote.domaene.de" aufrufe gelange ich erfolgreich auf "https://remote.domaene.de/Remote/logon?ReturnUrl=%2fremote" Damit steht für mich fest das der redirect von HTTP auf HTTPS nicht will. Nur wo zum Teufel wird das festgelegt? =)
  5. Hallo zusammen, ich habe bei einem SBS2011 das Problem das wenn ich http://remote.domaene.de aufrufe ein Weiterleitung auf https://remote.domaene.de/default.aspx statt findet. Der Fehler lautet dann "Serverfehler in der Anwendung" - "Die Ressource kann nicht gefunden werden." - "Beschreibung: HTTP 404" - "Angeforderter URL: /default.aspx" Meiner Meinung nach findet der redirect der an der Stelle passieren müsste nicht / oder nicht richtig - statt. Gebe ich direkt "https://remote.domaene.de/remote" komme ich ohne Probleme auf den RWA. Ich habe mir einen SBS2011 genommen bei dem alles funktioniert und dort sämtliche IIS Einstellungen verglichen die ich erahnen konnte. Könnte der Fehler in einer web.config zu suchen sein? Das Problem ist von "innen" und von "außen" gleich. Hat jemand eine Idee in welche Richtung ich da noch gehen könnte? Danke fürs lesen, der Path
  6. Sind beides "LSI-Adapter, SAS 3000-Serie, 4-Port mit 1064E" Das sagt der Gerätemanager in Windows. Edit. Welchen ACPI Level nutzt du im BIOS? Edit:Edit Dein System mit der singleHDD ist SATA an einem Standard onBoard Controller?
  7. hm. Lustig ist das zwei von den Servern die ich anspreche ebensfals mit Adaptec 6405ern ausgestatt sind. Die beiden eben angesprochenen 1HE Server sind mit onboard LSI Controllern ausgestatt. Alles SAS Controller Wo liegt bei dir die Systempartion? Auf SAS oder SATA? .... Mal in eine andere Richtung. Hast du dich mal mit den SNP Features auseinandergesetzt? http://www.faq-o-matic.net/2008/03/14/gut-gedacht-schlecht-gemacht-hin-her-scalable-networking-pack/
  8. hi, ich habe das Problem auf voll gepatchten 2008R2 Hostservern. Sprich da ist nichts drauf außer Hyper-V. Erst in den VMs gehts weiter. Der Exchange in den SBS2011-VMs ist noch auf SP1. Ich finde es halt so seltsam das ich hier nicht von Servern mit installierten Rollen spreche, gleichwohl welche. Sondern "nur" von Hyper-V. Ich glaube nicht das ich ein Softwareproblem habe, ich fande die Idee in Richtung Treiber / RAID-Controller sehr gut.
  9. Hallo, ich würde mich hier gerne mal einklicken wo ich das so lese. Erstmal kann ich von meiner Seite beim SBS2011 nicht mehr bestätigen das dieser ungewöhnlich lange herunterfahren würde. Egal ob auf Blech oder als Hyper-V VM. Für 2003 und 2008 kan ich nur heftig nickend beipflichten. Ich habe bei einem Kunden das Phänomen das alle drei HOSTSRV (ein 4HE und zwei 1HE) zuverlässig beim Herunterfahren "hängen bleiben" - Windows wird heruntergefahren - Das "Rädchen" dreht sich nicht mehr und selbst 4 Stunden warten führt zu nichts. HardOff Es macht überings keinen Unterschied ob man vorher die VMs "sauber" herunterfährt oder nicht. Das selbe habe ich nun auch bei einem anderen Kunden. Reiner Hostserver für Hyper-V. Bei vielen, vielen anderen Kunden mit ähnlichen und gleichen Konfigurationen nicht. Ich finde auch nichts was wirklich 100% auf die beiden Problemfälle zutreffen würde und bei den anderen eben nicht. Hat da noch jemand eine Idee zu? danke fürs lesen, der Path
  10. Hallo zusammen, ich möchte vorweg einwerfen das ich das gesamte Internet zu diesem Thema auf den Kopf gestellt habe. Ich habe so viel probiert und habe so viele Lösungswege verfolgt das es mir schwer fällt diese hier alle aufzuzählen. Aber erst mal zur Situation: MAXDATA 1HE "Pizzaschachtel" mit Intelboard, Intel XEON CPUs und Intel OnBoard Netzwerkkarten. 32GB RAM SAS-RAID1 mit Hotspare- damit ist das Teil leider voll (Ist nicht von uns sondern vom Vorgänger) Als wir den Kunden übernommen haben lief das Gerät, je mehr RAM drin war, zusehends schlechter, nach allen nötigen und sinnvollen Updates im Bereich BIOS, Firmware etc. läuft der Server sehr schnell und weitestgehend erwartungsgemäß stabil. Server2008R2 als Hostsystem und zwei Hyper-V VMs. Die eine läuft problemlos und mit wenig Ressourcen die adere ist der TS. Die TS VM hat 4 Kerne zur Verfügung und 20GB RAM. Es arbeiten gleichzeitig 8-10 Benutzer auf dem Server. Ich möchte denken dass er ausreichend dimensioniert ist. Hauptanwendung DATEV Pro (Datenbanken und Dateien liegen auf anderen Hostsystemen in anderen Hyper-V VMs) Und eigentlich ist alles super, wären da nicht diese sporadischen, willkürlichen, mal oft, mal weniger oft, auftretenden "Kompletteinfrierer" der RDP Sessions. Der ständig wechselnde Client der einfriert ist weiter ping-bar und per \\apname\c$ voll zugreifbar! RDP Zugriff nicht möglich im Tenor: Die Verbindung ist ausgelastet. Auf dem Terminal Server ist nicht viel zu merken TermDD ID56 Ereignisse (wie gesagt Internet und alle Lösungen diesbezüglich komplett durchgearbeitet soweit ich das für mich einschätzen kann) Netzwerkkarten Treiber super aktuell SNP Features auf dem Host in VMs per Registry, NETSH und auf den NICs komplett deaktiviert. Patchstand natürlich voll aktuell. Dasselbe gilt für die Clients, ThinClients mit Windows7 Pro (auch hier Patchstand, SNP Features, BIOS, Chipsatz Updates, alles gemacht) Trotzdem immer wieder Einfrierer der RDP Verbindung. Switches sind getauscht (war auch aus anderen Gründen nötig) Netzwerkverkabelung im Serverraum an den Clients ausgetauscht (war teils enorm veraltet) Keine Besserung. Den Server kann ich schlecht austauschen wobei das allein aus Garntie-Gründen (keine mehr) vertretbar wäre aber das ist ein anderes Thema. Am Kunden und dessen Budge liegt es auch nicht. Ich weiß langsam nicht mehr weiter - MS Support Call ist in Arbeit. Eine Sache habe ich gedanklich noch nicht abgehakt und deshalb schreibe ich jetzt hier. Alle Clients(Die natürlich in der Domäne sind) sind mit demselben AD Benutzer angemeldet und das bis zu 10x-12x wenn es hoch kommt. Der Nutzer selber startet dann seine RDP Session aus dieser "allgemeinen" Client-Anmeldung und meldet sich dann natürlich mit seinem Namen am TS an. Kann das ein solches Problem verursachen?! Das ist meine einzige Frage denn niemand von euch hat eine Kristallkugel wie mir bewusst ist. Bitte nicht fragen warum das so ist, das hat verschiedene historischgewachsene Gründe, die wir bisher noch nicht abstellen konnten. Liegt hier meine Wissenslücke? Ich danke für das Lesen dieses Beitrages und für jede konstruktive Information/Kritik der Path
  11. Hallo zusammen, Ich habe bei uns in der Firma eine Serverlandschaft aus unabhängigen System bereitgestellt. Einen Server 2008 R2 der den DC stellt, einen für Exchange, einen für SQL usw. Auch unserer Terminal Server ist ein unabhängiges Gerät Geschützt und veröffentlicht wird mit TMG2010 Wenn ich eine RDP-Verbindung zu unserem TS aufbaue(oder jedem anderen Server/AP) mache ich das über RDGateway. Und nun kommt meine Frage. Bei uns ist es völlig egal ob ich mich über den TS-Gateway per IP-Adresse, FQDN, oder NETBIOS Name auf das Ziel wähle, es geht alles drei ohne Probleme. Beim Kunden setzen wir im Normalfall den SBS2011 ein. Und nun kommt das für mich kuriose, nur eine Verbindung per FQDN und NETBIOS-Name ist möglich! Nutze ich die IP des Ziels bekomme ich über ITapRDP(IPad) im gegensatz zu allen anderne Endgeräten wenigstens eine halbwegs brauchbare Fehlermeldung, finde aber einfach den Hasen im Pfeffer nicht =/ Die App sagt: RPC Error: Your Connection was denied because of a Resource Access Policy (TS_RAP). Please contact your... Diesen Fehler bekomme ich bei jedem Kunden mit einem SBS2011. Egal ob dieser zusätzlich noch einen vollwertigen TS hat oder nicht. Das muss doch etwas SBS spezifisches sein? Grundsätzlich würde ich jetzt sagen, seis drum! nehme ich FQDN oder NETBIOS-Name, aber aus organisatorischen Gründen (RDP-Verwaltungs-Software - intern / extern / HomeOffice / RoadWarrior - bin ich auf die IP-Adresse zwingend angewiesen. Ich habe sowohl die RAP als auch die CAP in den Netzen mehrfach durchgesehen. Hat da jemand eine Idee zu? ich finde einfach nichts brauchbares danke fürs lesen, der Path
  12. Niemand eine Idee? Ein klares Ja oder Nein wäre schon Gold wert =) Ansonsten muss ich wohl den Job neu anlegen? Die Platten die da involviert sind befinden sich zum Teil in Bankschließfächern. Das macht die Sache etwas aufwendiger.
  13. Hallo zusammen, Ich habe eine sehr umfangreich konfigurierte Serversicherung per "Windows Server Sicherung" über sehr viele Festplatten. Es ist nun eine neue Quelle dazugekommen das komplette Laufwerk D:\ (RAID5-SAS) das nun unbedingt in die Sicherung integriert werden muss. Ich dachte per GUI müsste das klappen, Sicherungszeitplan ändern, Laufwerk hinzufügen, bestehende Platten behalten - Meldung: Die Syntax für den Dateinamen, Verzeichnisnamen oder die Datenträgerbezeichnung ist falsch. Wundert mich auch nicht wirklich, wären alle Platten angeschlossen würde es klappen. Also wollte ich die Kommandozeile bemühen aber ich glaube da mache ich etwas falsch. Ist es möglich ein Laufwerk nachträglich zu dem bestehenden Job hinzuzufügen? Wenn ja wäre ich für eine konkrete Anweisung dankbar und nicht für den Link auf das MS Whitepaper wo der wbadmin Befehl auseinander genommen wird, da habe ich schon gesucht =) danke fürs lesen der Path
  14. PathFinder

    SNP Features

    Danke für diesen Link! Das wird mir weiterhelfen, ich werde das jetzt mal Schritt für Schritt studieren. Dennoch kommt mir dieses Thema sehr problematisch vor. Was natürlich ein IT typischer Satz oder Tenor aus dem ganzen ist: "kommt drauf an!" Jetzt frage ich mich wie denn der Profi austariert welche der Funktionen (und das sind ja einige) wie am besten in welcher Konstellation funktionieren. Denn am Ende geht es ja um 5 SNP Features den Client, den Switch, den Server und den Router. In einer flachen Umgebung! Da potenzieren sich ja zwangsläufig eine Menge Möglichkeiten hoch. Wie geht ihr an die Sache rann? So Dinge wie Windows Updates und aktuelle Treiber möchte ich mal vorraussetzen. Ich will von aktueller Hardware ausgehen und von Switches und Routern die die letzte Firmware installiert haben. mfg der Path
  15. PathFinder

    SNP Features

    Hallo zusammen, ich stelle mir schon lange eine grundlegende Frage und habe auch schon viel dazu gelesen, mit anderen gesprochen und getestet. Es geht mir, wie der Titel schon sagt, um die SNP Features (Scalable Networking Pack). Eingeführt mit Windows Server 2003 ich glaube SP1? aber dort wohl deaktiviert. Ab Windows Vista aktiviert. Wenn man mal zu Windows Vista und "Internet / Netzwerk langsam etc." googelt bekommt man dutzende Beiträge die alle sagen "autotuning level aus". Mir ist es das erstemal aufgefallen als ich in einer 2K8R2 Hyper-V VM, Windows Updates durchführen wollte. Egal welchen Knopf ich auf der Updateseite genutzt habe immer Fehler. Bis ich TCP Task Offload abgeschaltet habe. Das zweite mal wollte ich von einem Windows 7 x64 Client ein Autodesk Adminimage installieren das mehrere Gigabyte groß ist. Immer abgebrochen bei ca 10-15%. TCP Task Offload aus und schon schwuppte es. Das dritte mal hatte ich ein Notebook auf dem der Netzlaufwerkzugriff, die Anmeldung (Roaming Profiles), das installieren von Software aus dem LAN, alles extrem langsam war. Ich meine hier wirklich _extrem_ langsam ;P Auch hatte ich schon Fälle wo vom Hyper-V Hostserver auf die VM oder umgekehrt kein Zugriff oder nur sehr sporadisch möglich war (\\servername). Obwohl beide sauber über jeweils eine eigene NIC getrennt waren. SNP aus, alles gut. Dann habe ich mal versucht mich mit der Sache näher zu beschäftigen, leider ermangelt es mir immer wieder an Zeit. Was ich bisher rausfinden konnte steht für mich im Wiederspruch. 1. Wenn man sich mal durchliest wofür SNP gedacht ist klingt das ja erstmal ganz toll, mit einem Wort "booster" 2. Wenn man mal zu dem einen oder anderen Problem googelt findet man immer wieder Teillösungen die sagen dann: "autotuning aus", "taskoffload aus", "Hyper-V macht kein Chimney" etc. 3. Wenn alles aus ist gibt es offensichtlich am wenigstens Probleme Was mich nun interessieren würde, was sagt ihr dazu? wie handhabt ihr diese Sache? Was habt ihr für Erfahrungen gemacht? Ich handle es in meiner Testumgebung zur Zeit so: - Hyper-V Hostserver alles an SNP aus. Bridgekarten sowie Host-NIC - Windows 7 alles aus - Abschalten per netsh (hab mir hier eine Datei zusammengestellt die alles enthält) - Abschalten per Registry (vorgefertigte .reg Datei meinerseits) - Abschalten auf der NIC direkt (Hier ist es stark Hersteller abhängig was wo ist, wie heißt oder überhaupt vorhanden ist) - Wir haben einen Test per Robocopy gemacht wo wir nach und nach abgeschaltet haben (netsh, reg, NIC) immer wieder neugestartet hatten und eine Verbesserung der Geschwindigkeit von mal zu mal festellen konnten. Das legt nahe das alle drei Schritte relevant sind, auch hatte ich schon Fälle wo ich nur auf der NIC abgeschaltet habe und kein Netz mehr hatte trotz Neustart. Also netsh und reg hinterher und lief! Die Frage habe ich auch im letzten MS Kurs gestellt und der Teacher sagte er handhabt es genau sowie gerade von mir beschrieben. Um rege Diskussion wird gebeten =) Wenn es interessiert das hier nutze ich: - NETSH netsh int tcp set global netdma=disabled netsh int tcp set global rss=disabled netsh int tcp set global chimney=disabled netsh interface tcp set global autotuninglevel=disabled netsh interface tcp set global timestamps=disabled netsh interface tcp set global ecncapability=disabled netsh interface tcp set global dca=disabled netsh interface tcp set global congestionprovider=ctcp netsh int tcp set heuristics disabled - REGEDIT Windows Registry Editor Version 5.00 [HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\services\Tcpip\Parameters] "Tcp1323Opts"=dword:00000000 "EnableTCPA"=dword:00000000 "EnableRSS"=dword:00000000 "EnableTCPChimney"=dword:00000000 "DisableTaskOffload"=dword:00000001 - NIC Wie gesagt Hersteller abhänig, am sympatischsten ist mir wie immer Intel :P Mich wundert das man im Internet soweit ich weiß, nichts findet das das Tehma mal umfassend behandelt. danke fürs Lesen, der Path
  16. Hallo zusammen, wir setzen einen TMG 2010 mit aktiviertem Web-PROXY ein. Manche unserer Clients laufen über den TMG Firewall Client und haben bis zu 20 Sekunden verzögerung wenn das erstemal das Internet aufgerufen wird. Über standardmässig angebundene Secure-NAT Clients funktioniert das Internet normal. Hat jemand eine Idee woran das liegen könnte? Danke fürs lesen, der Path
  17. Hallo zusammen, ich habe erfolgreich die Remotedesktop Dienste von einem internen Terminal Server 2008 R2 über einen TMG 2010 ins Internet veröffentlicht. Der Terminal Server nutzt ein von der internen CA ausgestelltes Zertifikat das in seinem CN dem Zugriffsnamen (URL) von aussen entspricht. Der TMG ist Domänenmitglied und hat dieses Zertifikat für seinen Weblistener konfiguriert. Der Listener ist auf HTTP-Authentifizerung gestellt und somit auf AD Abfrage. Die Veröffentlichungsregel nutzt in der Authentifizierungsdelegierung "Eingeschränkte Kerberos-Delegierung". Das scheint laut Regel-Test und erfolgreichem Zugriff von aussen auch alles zu passen. Nur eine Sache stört mich. Greife ich von aussen zu muss ich in einem "kleinen LogIn-Fenster" DOMÄNE\USER und PW angeben. Danach bin auf der RDWeb Anmeldeseite. Ich würde aber gerne direkt auf der RDWeb-Seite landen =) Ich vermute das die erste Anmeldung vom Listener kommt? hier kann auf Grund von KCD nicht auf "keine Auth" umgestellt werden. SSO ist auch nicht verfügbar. Aber ich suche sicher auch nur falsch. Kann mir da jemand auf die Sprünge helfen, ich hätte es gerne "schön" aber auch "sicher". Danke fürs lesen, der Path
  18. Jetzt habe ich das selbe Problem schon wieder, hatte es damals unter ISA 2006 aber nicht mehr weiter verfolgt. Jetzt mit TMG 2010 will ich mal den Firewall Client umfangreich nutzen und siehe da, ein bisschen gegoogelt und mein eigenes Post von 2008 ist gleich der erste Hit bei Google ^^ Problem ist wie gehabt sobal der TMG Firewall Client läuft (Nicht das Tray-Icon der Dienst!!) Ist der Aufbau einer VPN möglich. PING möglich, Dateisystemzugriff auf dem gegenüberligenden System möglich, nur vermeintlich kein RDP! Schalte ich den Firewall Client ab geht es wieder. Der Firewall Client greift TCP und UDP Datenverkehr ab und leitet diesen zum ISA / TMG Server weiter, deshalb geht PING und Dateizugriff aber kein RDP. Unter "C:\ProgramData\Microsoft\Firewall Client 2004" die "LocalLAT.txt" editieren oder anlegen wenn noch nicht vorhanden und hier die Netzwerkbereich ausschließen die vom Firewall Client umgangen werden sollen. Bei mir sieht das jetzt so aus weil 192.168.130.0-255 und 192.168.135.0-255 interne Netze von uns sind. 192.168.1.0 - 192.168.129.255 192.168.131.0 - 192.168.134.255 192.168.136.0 - 192.168.255.255 Dadurch wird Datenverkehr der an diese Netzwerkbereiche gesendet wird nicht durch den Firewall Client in die flasche Richtung geschickt. Dienst neustarten! Konfigurieren der Einstellungen für den Forefront TMG-Client zum Auflösen von lokalen Anforderungen Bypassing the Firewall Client using Locallat.txt File ich hoffe das hilft nochmal jemandem und schließt diesen Thread mit einer Lösung ab. der Path
  19. Hallo Tesso, das hatte ich auch schon gesehen nur zwei Dinge hatten mich abgeschreckt. Importiert werden soll ein .pfx und es braucht ein Passwort. Ich hab jetzt einfach mal mein .crt genommen und irgendein Passwort. Import war möglich und landet unter MMC-Zertifikate-lokaler PC-Eigene. Da nutzt es mir leider nicht viel, wie soll dieser Import zum erneuern des konfigurierten Zertifikates in der EX2010 Konsole beitragen? Ich habe nun das abgelaufene Zertifikat entfernt und ein neue Anforderung per Powershell durchgeführt (so wie beim erstenmal, hatte alles im Detail dokumentiert) Leider lies sich die offene Anforderung mit meinem .crt nicht abschließen. Also habe ich nochmal eine neue Anforderung erstellt, diesmal die SANs etwas angepasst wie es mir nun aus der vergangenen Erfahrung eh besser passt. Mein Zertifikat habe ich "reKeyed" nun lies sich auch die Anforderung abschließen, Dienste zugeordnet fertig. Zwei Dinge fallen mir nun auf: 1. Das Problem in meinem Fall sitzt mit sicherheit vor dem Monitor. 2. Scheint das erneuern eines Zertifikates einer Neuanforderung/Installation gleich zu kommen? Ich habe das jetzt ein Jahr lang nicht gemacht und dachte ich lade mal eben das neue Zertifikat runter und erneuer mein altes. Das war wohl nix. Musste mich jetzt wieder komplett in die Sache reindenken, Doku auspacken, alles ganz furchtbar =) Ich wäre immer noch am "korrekten / eleganten" Weg interessiert. Wenn mich da noch jemand erhellen kann bin ich weiterhin sehr dankbar. Oder ist das tatsächlich jedesmal so in etwa durchzuführen? Danke fürs lesen, der Path
  20. Ich rück das nochmal hoch, hat da niemand einen Tip?
  21. Hallo zusammen, wir haben ein GoDaddy-SAN Zertifikat das nun abgelaufen ist. Ich habe den Erneuerungsprozess finanziell schon durchgeführt und kann das erneurte Zertfikat runterladen. In der EX-Verwaltungskonsole kann ich auf Zertifikat erneuern klicken brauche dann jedoch eine Anforderungsdatei. Ich habe ja "nur" das fertige Zertifikat. Wie gehe ich nun am besten vor? Das Alte löschen und alles neu anlegen? Das muss doch eleganter gehen? Danke fürs lesen, der Path
  22. Ich hatte das ähnlich im Auge. War mir nur unsicher im Bezug auf den SBS. Danke für eure Antworten.
  23. Hallo zusammen, ich beschäftige mich die letzten Tage mit dem SBS2011. Mir ist nun aufgefallen das ... Forest-Betriebsmodus Windows Server 2003 pur (DCs: 2003) Domänen-Betriebsmodus Windows Server 2003 (pur) Schema-Version 47 (Windows Server 2008 R2) Exchange-Schema-Version 14726 (unbekannte Version!) ... der SBS2011 in der Domäne und dem Forest auf 2003 läuft und das Schema schon auf 2008R2 ist. Ich frage mich nun ob ich hochstufen soll. Sorge habe ich im Bezug auf das SBS-System. Nach Google Suche finde ich viel zu Migrationen. Für eine Einschützung danke ich mfg der Path
  24. Ich hatte nun die Möglichkeit es einmal auszuprobieren. Bei zwei virtuellen Server 2008R2 Systemen lies sich das gesamte Pagefile problemlos auf D: verschieben. Neustart, keine negativen Rückmeldungen vom System, Pagefile wird in der Verwaltung und im Dateisystem angezeigt, alles OK. Das selbe beim SBS2011 gemacht. Neustart. System meckert das kein Pagefile vorhanden sei. Hat dann selber eins in der Standardgröße auf C: angelegt. Alles wieder auf Anfang. Neustart. Alles OK. Zickt der SBS oder mach ich was falsch? Er hat nur 8GB RAM. Die anderen beiden virtuellen Maschinen haben 18 und 22GB RAM. Ich würde das gern verstehen. Danke für etwaiges Interesse. der Path
  25. Hallo autowolf, danke für deine Antwort. MS Hyper-V v2 ja. Die Festplatte ist eine vhd an einem SCSI Controller. Hast du eine Idee was ich machen kann? Ich frage mich ja was passiert wenn ich das Pagefile ganz umschiebe. Normal hätte ich mir bei der Sache nicht so viele Gedanken gemacht aber nach dem erlebten Verhalten bin ich vorsichtig geworden. Du hast das also mit einer SBS2011 VM erfolgreich gemacht? komplett verschoben?
×
×
  • Neu erstellen...