Jump to content

PadawanDeluXe

Members
  • Gesamte Inhalte

    499
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von PadawanDeluXe

  1. Hallo zusammen, ich hoffe das es noch nicht zu spät ist mich anzumelden. Bin leider ziemlich abgesoffen auf der Arbeit :( Ich wäre mit Begleitung wieder dabei. - Userle - TheSpawn - MrCocktail - Azharu - Finanzamt - testperson - PadawanDeluXe +1 Ich tendiere dazu an diesem Abend es glaube ich mal mit dem Wein zu wagen. Viele Grüße Carsten
  2. Hi lefg, cooles Projekt. Was ist denn das erklärte Ziel? Davon lese ich hier leider nichts. :( Der Linksys WRT54GL ist ja mittlerweile schon ein Klassiker. Den habe ich mir hier auch extra nochmal hingestellt. Das war der erste Router den ich blind programmieren konnte. Serielle Schnittstelle ect. inklusive. Gegrüßt! Carsten
  3. Ist meiner Meinung nach relativ einfach: Fritzbox. ich tendiere bei VPN privat immer zu dem Gerät, dass 100%ig eingeschaltet ist. Deine anderen 'Clients' können ja auch mal offline sein. Gerade wenn man den Windows/Ubuntu Server mal durchstarten will wirds ja schon eng. Außerdem, wenn denn mal Stromausfall, Weltuntergang oder irgendwas anderes bei dir zu Hause passiert: dein Traffic muss so oder so über die Fritzbox rein. Dann würde ich auch versuchen möglichst wenige Fehlerquellen haben, um mich dort nochmal Norbert anzuschließen. Viele Grüße Carsten
  4. Nein. Gerade nochmal geprüft über: PS C:\Users\Administrator.LAB> (Get-ItemProperty 'HKLM:\SOFTWARE\Microsoft\NET Framework Setup\NDP\v4\Full' -Name R elease).Release 379893 die Releasenummer verrät, dass es sich um .NET 4.5.2 handelt. Grüße Ich habs gelöst. Das Problem war tatsächlich die Einstellung die ich vorgenommen habe. Nachdem ich diese wieder zurück genommen habe und den Wert auf false gesetzt hatte war noch ein Problem mit dem AD Cache im Log. Das habe ich per PowerShell gefixt: Reset-ProvisioningCache -Server exchange.lab.local -Application Powershell -GlobalCache Seitdem funktioniert der IIS fehlerfrei. Viele Grüße Carsten
  5. Hallo zusammen, ich habe ein Problem mit dem IIS meines einzigen Exchange Servers in meiner Demo Umgebung. Zunächst kurzer Überblick über das Szenario: virtuelle Maschine unter HyperV mit folgenden Spec's: vier Kerne 12GB RAM 2x 100GB HDD aktueller Patchstand Ich finde im Log folgende Meldung: WebHost konnte eine Anforderung nicht verarbeiten. Absenderinformationen: System.ServiceModel.ServiceHostingEnvironment+HostingManager/4032828 Ausnahme: System.ServiceModel.ServiceActivationException: Der Dienst '/owa/service.svc' kann aufgrund einer Ausnahme während der Kompilierung nicht aktiviert werden. Die Ausnahmemeldung lautet: Wenn "system.serviceModel/serviceHostingEnvironment/multipleSiteBindingsEnabled" in der Konfiguration auf "true" festgelegt wird, werden die Endpunkte zur Angabe einer relativen Adresse benötigt. Wenn Sie einen relativen Abhör-URI auf dem Endpunkt angeben, kann die Adresse absolut sein. Geben Sie zum Beheben des Problems einen relativen URI für den Endpunkt "https://exchange.lab.local:444/owa/service.svc" an.. ---> System.InvalidOperationException: Wenn "system.serviceModel/serviceHostingEnvironment/multipleSiteBindingsEnabled" in der Konfiguration auf "true" festgelegt wird, werden die Endpunkte zur Angabe einer relativen Adresse benötigt. Wenn Sie einen relativen Abhör-URI auf dem Endpunkt angeben, kann die Adresse absolut sein. Geben Sie zum Beheben des Problems einen relativen URI für den Endpunkt "https://exchange.lab.local:444/owa/service.svc" an. bei System.ServiceModel.Activation.ApplyHostConfigurationBehavior.ThrowIfAbsolute(Uri uri) bei System.ServiceModel.Activation.ApplyHostConfigurationBehavior.FailActivationIfEndpointsHaveAbsoluteAddress(ServiceHostBase service) bei System.ServiceModel.Description.DispatcherBuilder.ValidateDescription(ServiceDescription description, ServiceHostBase serviceHost) bei System.ServiceModel.Description.DispatcherBuilder.InitializeServiceHost(ServiceDescription description, ServiceHostBase serviceHost) bei System.ServiceModel.ServiceHostBase.InitializeRuntime() bei System.ServiceModel.ServiceHostBase.OnOpen(TimeSpan timeout) bei System.ServiceModel.Channels.CommunicationObject.Open(TimeSpan timeout) bei System.ServiceModel.ServiceHostingEnvironment.HostingManager.ActivateService(ServiceActivationInfo serviceActivationInfo, EventTraceActivity eventTraceActivity) bei System.ServiceModel.ServiceHostingEnvironment.HostingManager.EnsureServiceAvailable(String normalizedVirtualPath, EventTraceActivity eventTraceActivity) --- Ende der internen Ausnahmestapelüberwachung --- bei System.ServiceModel.ServiceHostingEnvironment.HostingManager.EnsureServiceAvailable(String normalizedVirtualPath, EventTraceActivity eventTraceActivity) bei System.ServiceModel.ServiceHostingEnvironment.EnsureServiceAvailableFast(String relativeVirtualPath, EventTraceActivity eventTraceActivity) Prozessname: w3wp Prozess-ID: 17892 In der Webconfig des IIS und des Exchange wurde folgender Parameter gesetzt: <system.serviceModel> <serviceHostingEnvironment multipleSiteBindingsEnabled="true" aspNetCompatibilityEnabled="true"/> </system.serviceModel> Meine Frage an euch ist jetzt: Welche relative Delegierung verlangt mein IIS nun, damit ich wieder wie gewohnt an ECP und OWA gelange? Ich verstehe die zuerst genannte Fehlermeldung einfach nicht. Vielen Dank für eure Antworten!
  6. Hallo zusammen, ich habe die VM geprüft: nein die Zeitsynchronisierung war nicht aktiv. ;) (das war auch direkt einer meiner ersten Gedanken) Daraufhin habe ich mir nochmal das Eventlog angeschaut: auch nix. Im Anschluss habe ich die von Gadget vorgeschlagene Lösung mit der Neuregistrierung des Dienstes durchgeführt: funktioniert. Interessant dabei ist jedoch, dass ich das vorher auch probiert habe aber es den eingangs genannten Fehler erzeugt hat. Scheinbar spielt mir hier was anderes einen Streich, vll sogar menschlicher Natur. Ich danke euch trotzdem nochmal für den Lösungsansatz! Viele Grüße Carsten
  7. Hallo zusammen, Vorab das Szenario: Wirt: HyperV Windows 2012 R2 Gast: Windows 2012 R2 DC mit allen FSMO Rollen ich habe heute mal einen dcdiag /E laufen lassen in Vorbereitung auf mein Exchange CU12 Update.... dabei habe ich dann festgestellt, dass mein Domänencontroller leider nicht mehr mit seinen Zeitservern synct. Soweit so gut. Ich habe dann mal diese Befehle laufen lassen: PS C:\> w32tm /config /manualpeerlist:"0.pool.ntp.org 1.pool.ntp.org 2.pool.ntp.org 3.pool.ntp.org" /syncfromflags:manua l /reliable:yes /update Folgender Fehler ist aufgetreten: Das System kann die angegebene Datei nicht finden. (0x80070002) PS C:\> w32tm /query /source Folgender Fehler ist aufgetreten: Der angegebene Dienst ist kein installierter Dienst. (0x80070424) PS C:\> Ich kenne das von Windows 2008 R2. Da gibt es auch ein FixIt zu. Hat vll schonmal jm anderes dieses Problem gehabt und kann mir eine Lösung empfehlen? :) Vielen Dank vorab!
  8. Hi und willkommen an Board! Also eigentlich haben dir alle schon die richtigen Hinweise gegeben das Problem zu lösen. Hast du das denn jetzt mal umgesetzt? Wie schauts mit der Gruppenrichtlinie, einem ausführlichen Virenscan des betroffenen Systems ect? Bzgl. deines Posts: ja das ist richtig. Wenn dann solltest du aber dazu einen neuen Thread aufmachen. Das ist nämlich ein anderes Thema: Kerberos Authentifizierung. Wenn dein AD Controller die Auhtentifizierung ablehnen würde, dann könntest du dich noch nicht mal anmelden. Dazu ließt du einfach mal bei Wikipedia diesen Artikel https://de.wikipedia.org/wiki/Kerberos_(Informatik) m.E. ist damit eigentlich alles gesagt.
  9. Moment mal.... also meines Wissens kann Keepass sehr wohl serverbasiert genutzt werden zB über einen FTP Service, WebDAV ect..... Ebenfalls besitzt Keepass auch eine Passwort Historie die man nutzen kann, damit man den Wechsel auch nachvollziehen kann. Natürlich ist es nicht die Eierlegende Wollmilchsau die wir uns alle wünschen, stellt für mich jedoch mit ein bisschen Arbeit den kleinsten gemeinsamen Nenner dar, den die meisten Kunden haben. Ok. Das war jetzt aber nicht deine Anforderung. Ich fasse mal gerade zusammen: Du hättest gerne: AD Integration Passwort Historie / Diebstahlschutz Benutzergebundene Freigabe von Passwörtern Ändern eines Passworts nur nach "lock" des Passworts Ich sehe das gerade bei dir so, dass du mehrere Autorisierungslevel für bestimmte Passwörter hast und deiner Kollegen eben nicht das Superuser Kennwort für den Rechner des Chefs bekommen sollen. Definiere doch mal was du jetzt gerne hättest. Geht es in die Richtung oder hast du da zB noch andere Gedanken die du gerne umgesetzt hättest?
  10. Ok. Damit hast du die Mindestanforderung. Jezt wäre gut, wenn du zB aus dem Monitoring ableiten könntest wie viel Datenzuwachs ihr pro Tag/Jahr habt und dann auf drei bis fünf Jahre das Storage berechnest.
  11. Eine Frage am Rande: Warum hast du nicht auf Windows 10 geupgradet? Ansonsten arbeite bitte den Fragenkatalog von lefg ab und berichte deine Ergebnisse.
  12. Hi, joa wenn der Hersteller (Kemp) dir das anbieten kann geht das natürlich auch. Am besten ist bei Detailfragen immer ein Anruf beim Hersteller. Die meisten sind da sehr nett und helfen dir gerne weiter. Ich wollte eigentlich auf etwas anderes hinaus: Was kostet eine Appliance in Blech/virtuell und wie sieht denn dein Sizing aus? Also wir wissen ja jetzt schon sehr umfänglich worum es geht, aber eigentlich warte ich hier noch auf Zahlen. Wie viele User sind es denn jetzt? Wie viel GB/TB Storage brauchst du aktuell? Im Bezug auf den Loadbalancer interessieren dich natürlich auch dann entsprechend die Anzahl der Mails, die pro Stunde / Minute darüber fließen sollen. - um NilsK zu zitieren: Anforderung definieren ;) Ich denke auf dein Einsatzszenario bezogen wirst du final auf zwei eigenständige HyperV Server hinaus laufen und darauf dann auch die beiden Loadbalancer packen. Ich drücke dir jedenfalls die Daumen für dein Projekt!
  13. Frank schreibt ja auf seiner Seite, dass man (wenn man gerne einen Hersteller nehmen möchte) auf einen (vll schon bestehenden) TMG zurück greifen kann. Ansonsten wäre aber auch eine OpenSource Variante möglich. Die typischen Einsatzszenarien die mir mit bis jetzt begegnet sind wären Kemp, TMG Forefront/UAG, HAProxy in Kombination mit pfsense. Bis auf den erstgenannten können alle Produkte auch virtuell betrieben werden. Ich würde das davon abhängig machen welches Szenario für euch passt und insbesondere den monetären Aspekt mit einbeziehen. Wenn du zB damit auch einen Mehrwert für bestehende oder vll geplante Webserver Projekte siehst, indem du Hardware kaufst so können Kosten zB anteilig verteilt werden. Viele Grüße Carsten
  14. Gut.... ich greif mir noch nen Pils. ;) gn8 Board. P.S.: Kaffeemaschine steht fertig. ( Kaffeepulver ist nicht drin - wir brauchen das Aroma :D )
  15. Hi, wie aus deinem Eröffnungspost ersichtlich betreibt ihr ja schon eine zentrale SQL Instanz. Sofern ihr diese also geclustert habt ist die Wartung unkritisch. Im nächsten Moment ist es so, dass aus verschiedensten Gründen ich einen Hersteller niemals direkt an meinem produktiven SQL Server lassen würde. Egal wie viele Fehler er gerade produziert. Datenbanken können gesichert werden und nach einem getesteten Fix des Herstellers produktiv gefixt werden. Wenn der Hersteller Wert auf einen exklusiven SQL Server legt so kann es unter Umständen sein, dass dieser lediglich eine exklusive Instanz erwartet. Für alles andere das nunmal einen SQL Express vorraussetzt wirst du natürlich nie die Vorzüge deines Clusters ausspielen können, da es einfach nicht supportet ist. Am Ende des Tages sehe ich hier eigentlich nur eine Kostenentscheidung, da der Aufwand eine aktuelle Datensicherung einer SQL DB zu machen oder einen Snapshot einer Maschine zu erstellen nahezu dergleiche ist. Meiner Meinung nach bin ich auch mit einem zentralen SQL Cluster unabhängig. Ja ok. Es sind zwei Maschinen die dann nicht ausfallen dürfen. Du musst aber auch bedenken, dass bei hoch kritischen Daten der Clusterpartner nicht direkt am selben Standort steht usw. ;-) Um mich meinem Vorredner anzuschließen: zum Spielen und testen ist SQL Express super und ich will ihn nicht missen, aber für die Produktion bitte immer einen SQL Cluster einrichten und dort alle wichtigen Daten ablegen und sichern.
  16. Moin, baue dir eine dreistufige CA auf. Die eigentliche Root CA ist dabei stets offline und niemals online. Danach baust du die eigentliche CA der Firma und darunter die Issuer CA. Die letzten beiden können online sein (mit entsprechender Sicherung durch Firewall ect.) Einige Firmen gehen jedoch dazu über nur die Issuer CA nebst RCL online zu stellen, da bei einem möglichen Einbruch oder Attacke auf diese CA einfach die zweite CA wieder herangezogen werden kann und die PKI somit bestehen bleibt und nur die Issuer CA neu aufgebaut werden muss. Das machen zB GeoSign und OpenTrust so. Das genannte Buch kann ich ebenfalls nur empfehlen. Zum experimentieren muss es jedoch nicht umbedingt direkt ein Windows Server sein. Alle notwendigen Dinge kannst du zB mit xca auf deinem Client testen. Wichtig ist hier, dass du darauf achtest, dass du Zertifikate auch wieder löscht.
  17. So..... ich greif mir mal noch ein Feierabendpils. Kaffee steht fertig. Licht ist aus. *gähn* gn8, Carsten
  18. Hi, also halten wir mal folgendes fest: du hast einzelne Dateien die du gerne einzeln zurück sichern wollen willst du willst nicht in der Lage sein deinen Rechner wiederherstellen zu können (Warum eigentlich? Dafür mach ich doch nen Backup? :schreck: ) die Sicherung soll on Demand laufen ohne Arbeitsunterbrechung. du hast keine Ordnung auf deinem System (....es liegt alles kreuz und quer verstreut) Okay. Bevor du dir Gedanken über ein Backup mit Robocopy machst solltest du mal dringend aufräumen und dir ansehen welche Systemvariablen es denn so gibt. Das würde die Sache vll auch noch einmal einfacher machen..... Ordnung ist das halbe Leben usw. Ich fand das auch nie wirklich gut, aber es hilft. :wink2: Okay. Jetzt hast du aber genau ein großes Problem: so wirklich eigenen Speicherplatz hast du nicht dafür, oder? ;) Also: Robocopy ist nix für deinen Anwendungsfall, weil du immer wieder dein Script reorganisieren musst. Einfach mal zum kennen lernen und wissen wie so ein automatisierter Kopiervorgang auf der cmd abläuft fand ich diesen Thread hier super, aber bitte bitte wenn dir deine Daten was Wert sind und du es einfach haben willst nimm VEEAM oder wbadmin. Um's mal ganz deutlich zu sagen: VEEAM schenkt dir alle Features die du für deine Workstation jemals brauchen wirst. :cool: :thumb1: In deinem Fall heißt der größte Vorteil übrigens Datendeduplikation, weil: Speicher ist teuer. :) Somit nimm bitte VEEAM und alles wird gut.
  19. Ich stelle mal Stullen und Kaffee fertig. Die Frühschicht kommt ja gleich. ;) gn8 Carsten
  20. Moin, erstmal ein kräftiges Willkommen on Board hier. ;-) Wie ich sehe bist du ja schon voll angekommen in der Community! Ich habe auch einige Zeit aufgrund von Budget ect. mit Robocopy Daten gesichert. Du hast im Eröffnungspost ja schon alles genannt was man braucht um eine Sicherung mit Robocopy durchzuführen. Deine Anforderung ist also deine Daten (möglichst schnell) in das Datensilo zu schieben und eine Versionierung über mehrere Tage vorzuhalten. Mich interessieren aber auch noch ein paar andere Dinge an deinem Szenario: Wie ist deine NAS aufgebaut? RAID Level? Kapazität Wie sieht das Backup Szenario aus? Wann soll das Backup ausgeführt werden? (werden zB zu diesem Zeitpunkt Datenverändert) Wie viel Zeit hast du zur Durchführung? Was soll gesichert werden? (nur deine Daten ist eine schlechte Antwort - interessant sind die Formate) Wie sieht das Restore Szenario aus? Wie viel Zeit hast du zur Verfügung? Was soll dir zurück geliefert werden? (nur eine Version, zwei, drei....) So auf den ersten Blick finde ich deinen Plan gut. Die differentiellen würde ich persönlich nicht durchführen und gegen inkrementelle tauschen. Damit ist das Rückspielen deiner Sicherung zeitaufwändiger allerdings sparst du damit (etwas) Platz auf deiner Platte. Ich habe mein Datenbackup mittlerweile etwas anders organisiert. Meine wichtigen Daten liegen mittlerweile alle in einer eigenen (!verschlüsselten!) private Cloud. Diese hat die Möglichkeit mehrere Versionen derselben Datei zu speichern, sodass ich mehrere Arbeitstage zurück springen kann, wenn ich möchte. Ich erstelle jedoch immer noch regelmäßig vor Feierabend ein Tagesbackup über wbadmin von meinem Rechner. (eigentlich paranoid aber ich schlafe so besser ;) ) Damit ist mein System gesichert und ich habe alle wichtigen Dateien über die Cloud plus zusätzliche Sicherheit durch ein Backup in mein Netzwerk. So bin ich schnell wieder einsatzfähig, wenn ich denn muss. Wenn wir über Robocopy und wbadmin sprechen sind das für mich zwei unterschiedliche Tools mit zwei unterschiedlichen Einsatzszenarien. wbadmin und VEEAM Endpoint Protection sind auch Tools zur Systemwiederherstellung und auch für eine Datensicherung im herkömmlichen Sinne. Eine Datensicherung definiert für mich das Sichern von herkömmlichen Nutzdaten (Word, Excel, Powerpoint oder PDFs ...) nicht jedoch die Sicherung eines vollständigen PCs. Bedeutet also, dass Nutzdaten bzw. deren voran gegangene Versionen über mehrere Tage in die Vergangenheit verfügbar sein sollen. wbadmin und die Endpoint Protection natürlich auch das Wiederherstellen einzelner Dateien versioniert an plus einer vollständigen Systemwiederherstellung. Ich halte in der heutigen Zeit jedoch diese Methode des Backups ebenfalls für nicht mehr zeitgemäß. Die üblichen Backuptools können mittlerweile einfach mehr. Wenn es also die Bordmittel deines Windows sein sollen/müssen, dann nimm bitte wbadmin! Ich würde dich dennoch nicht vom robocopy abhalten, wenn du es umbedingt für eine "klassische" Datensicherung verwenden magst. :) Viele Grüße Carsten
  21. Ja TGIF! Ich freue mich schon auf das Wochenende. Ich stelle noch ein paar virtuelle Kekse für gleich hin. ;) Danke für den Kaffee Norbert. Grüße Carsten
  22. Hi, also mein damaliger Server hat immer konstant so um die 150-180W gezogen. Danach hatte ich ein energieoptimiertes Szenario mit einem QuadCore der als ESXi lieg und diverse Maschinen beherbergte. Heute hängen bei mir für alle privaten Anwendungen (Telefonanlage, Hausautomatisierung ect.) ein Raspberry an der Wand. Die Vebrauchen etwa 10W. Ich kann bei Bedarf über eine Webseite meinen Goliath wecken. Dieser ist mittlerweile NAS/Backup und Spielwiese auf Basis eines OpenSUSE (KVM). die entsprechende Anbindung über ESXi und iSCSI war mit für eine Testumgebung zu teuer. Viele Grüße Carsten
  23. Hi, und welche Fehler hast du im Logs gefunden? Dazu hast du leider nichts gesagt. ;)
  24. *Kaffee schnapp* gibt Schnittchen heute morgen! ;) noch zwei Tage bis Wochenende! Allen einen guten Start!
×
×
  • Neu erstellen...