Jump to content

Blase

Members
  • Gesamte Inhalte

    504
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Blase

  1. Hallo Norbert, hab vielen Dank für deine Hilfestellung. Ich habe mich da kurz reingelesen und es erst einmal für dieses Postfach aktiviert. Auch habe ich die Richtlinie bezüglich gelöschte Objekte tatsächlich löschen nach hinten hin verlängert (vom Standard 14 Tage auf 60 Tage). Mir ist zwar noch nicht ganz klar, wie ich dann die vom Benutzer gelöschten Objekte (so er es denn überhaupt tut) wieder im Postfach "normal" zugänglich mache, nachdem er dann nicht mehr da sein sollte, aber das schaue ich mir auch noch an. Nochmals vielen Dank! Gruß Björn
  2. Hallo in die Runde, gegeben ist ein Exchange 2010 mit aktuellem Patchstand in einer 2008 R2 Domäne. Ein Benutzer wird in einigen Wochen das Unternehmen verlassen - bis dahin wird er aber noch weitestgehend "normal" seinem Tagesablauf nachkommen. Speziell wird er also E-Mails bekommen, beantworten und schreiben. Was allerdings nicht (mehr) im konkreten Fall gewünscht ist, ist, dass der Benutzer irgendwelche Mails löschen darf. Kontakte oder Termine wären hier eher sekundär - es geht nur um die Mails. Kann man das umsetzen - für ein "eigenes" Postfach? Was wäre zu tun? Freue mich über Feedback. Gruß Björn
  3. F wird halt automatisch gesetzt, wenn T größer 0 ist.... aber genau das ist ja dann auch der Ansatz. Genau genommen gibt es ja keinen Grund, T überhaupt zu setzen. Warum eine Verzögerung einbauen. Ich werde es dann wohl einfach ausprobieren. Wie handhabt ihr das? Fährst du (bestimmte) Server automatisiert herunter, bzw. startest sie neu?
  4. Hallo Norbert, da habe ich mich vielleicht etwas umständlich ausgedrückt. Dass das die Zeit ist, ab welcher der Shutdown beginnt, ist mir schon klar. Die Frage hätte dann besser formuliert so lauten sollen: Im Zusammenhang mit dem "T" Schalter wird ja auch der "F" Schalter gesetzt - werden trotzdem die VMs sauber herunter gefahren?. Ich bin hier halt unsicher ;-) Wenn du sagst, dass das kein Problem ist und ich es so mit dem Script lösen kann, ist alles gut...
  5. Hallo in die Runde, ich würde gerne unseren Hyper-V Host (Server 2008 R2 Enterprise) am Wochenende automatisch neu starten lassen. Mir geht es hier zwar eher um die VMs, die dann zum Wochenstart hin "frisch" sind und die Ressourcen frei gegeben haben (Exchange zB), als der Host selbst, aber es kann ja nicht schaden, dass dann gleich auf Hostebene zu tun. Zumal er ja die VMs automatisch mit herunter fährt und wieder neu startet. Im Zweifelsfall brauche ich also nur einmal den Host bezüglich des automatischen Neustarts zu konfigurieren - und nicht diverse VMs. So viel zu meinen Gedanken. Ich wollte aber sicher gehen, dass ich mit einem per Aufgabenplanung gestartetem Script á la: shutdown -r -f -t 10 wirklich das erreiche, was ich vorhabe. Wird bei der Zeitangabe "t 10" der Server tatsächlich in 10 Sekunden herunter gefahren, auch wenn die VMs noch gar nicht so weit sind (sprich: ihrerseits herunter gefahren sind)? Ja, oder?! Lasse ich also die Zeitangabe schlicht weg? Oder wähle ich hier eine Zeit aus, bei der ich sicher sein kann, dass dann alle VMs herunter gefahren werden? Freue mich auf Feedback. Mich würde auch interessieren, ob und wie ihr die automatischen Serverneustarts konfiguriert. Auch den Host? Was sind eure Überlegungen hierzu? Vielen Dank! Gruß Björn
  6. Auch der Server braucht eine kleine Weile, bis er die neuen Richtlinien übernommen hat. Sicher, dass das die einzigen Richtlinien sind, die sich mit dieser Thematik beschäftigen? Evtl. weitere "lokale" Sicherheitsrichtlinien diesbezüglich?
  7. Hallo, Ich kann die Werte bezüglich minimales und maximales Kennwortalter nicht "lesen", sind das 40 Tage?Ich vermute hier aber dein Problem. Setzt du das Kennwort ohne Haken bezüglich "Benutzer muss neu vergeben" gilt halt das minimale Kennwortalter. Also so lange muss das gesetzte Kennwort genutzt werden, bevor es geändert werden darf. Setzt du den Haken, greift das mindest-Kennwortalter nicht und muss/kann gleich geändert werden... Gruß Björn
  8. Ich habe zumindest nichts diesbezüglich gesehen. Und ich konnte nun die öffentlichen Bereiche (Kalender / Kontakte) einrichten und konfigurieren. Läuft wunderbar. Danke Dir nochmal für den Zuspruch! :) Gruß Björn
  9. Super! Nachdem ich den "alten" Server inkl der Unterbereiche gelöscht hatte... ◦CN=Configuration,DC=DOMAIN,DC=NAME ◦CN=Services ◦CN=Microsoft Exchange ◦CN=NAME ◦CN=Exchange Administrative Group ◦CN=Servers ... taucht der alte Server und die virtuellen Verzeichnisse in der Konsole nicht mehr auf - und ich kann nun scheinbar die öffentlichen Bereiche (Postfach + Ordner) anlegen. Wüsstest du noch von zusätzlichen Schlüsseln? "Nacharbeiten"? Danke Dir! Gruß Björn
  10. Hallo Norbert, kannst du mir Hilfestellung bezüglich der "Behandlung" des public Folders geben? Dass da was nicht zu Ende migriert worden ist, steht außer Frage :( Gruß Björn
  11. Moin, IST Zustand: - 2012er R2 Domäne auf separatem DC - Windows Server 2012 R2 mit installiertem Exchange 2013 (Build 1178.4) - das ist der EINZIGE Exchange Server im Unternehmen - wurde "seinerzeit" mal alles migriert (AD + Exchange) von einem SBS 2008, welchen es NICHT mehr gibt. Nun sollen ERSTMALIG die öffentlichen Funktionen (Kalender / Adressbücher) gepflegt und genutzt werden - gab es nicht, bzw. wurde vorher nicht genutzt. Bei der Anlage des ersten öffentlichen Postfachs innerhalb des Exchange Admin Centers wird man darauf hingewiesen, dass eine "vorhandene Bereitstellung festgestellt wurde". Man könne die -HoldForMigration" Funktion nutzen. Das habe ich auch versucht und konnte so erfolgreich zwar das Postfach anlegen, allerdings darauf basierend dann keine öffentlichen Ordner, weil eben gesagt wird, dass diese wahrscheinlich mit der "'HildForMigration" Methode angelegt worden sind. Sind sie... Also muss ich wohl die "Leiche" bezüglich des Exchange 2008 hier sauber raus bekommen. Die Frage ist wie. Der Exchange 2013 läuft komplett unauffällig bisher. Wenn ich in der Verwaltungskonsole unter "Server" schaue, sehe ich den alten Exchange, welcher die Rolle "Postfach" inne hat. Der aktuelle Exchange hat die Rollen "Postfach und Clientzugriff". Im Bereich der Datenbanken sehe ich lediglich die aktuelle DB des Kunden, auf dem aktuellen Server und die Kopien auch auf diesem aktuellen Server. Innerhalb der "Virtuellen Verzeichnisse" taucht der alte Exchange auch ein paar Mal auf, mit dem Namen "Public (SBS Web Applications", "Exadmin" und "Exchange" - alle vom Typ "OWA". Dass die seinerzeit durchgeführte Migration vom alten zum neuen Exchange zumindest im Bereich des "public Folders" nicht sauber war, steht wohl außer Frage. Wie ziehe ich das System nun glatt? "Schön" wäre natürlich, die Leiche sauber und komplett zu entfernen. Mindestens möchte ich aber erreichen, dass ich ganz normal nun erstmalig die öffentlichen Strukturen innerhalb des aktuellen Exchange anlegen, verwalten und nutzen kann. Da diese Bereiche hier wie geschrieben erstmalig eingesetzt werden sollen, würde ein "Löschen" der alten Strukturen diesbezüglich jedenfalls keinen Datenverlust bedeutet. Also, wie bekomme ich meine alte Exchange Leiche sauber aus meinem System? Über den ADSI Editor? Mindestens soweit, dass ich hier die öffentlichen Strukturen anlegen kann? Freue mich über Meinungen und Vorschläge. Gruß Björn
  12. Mahlzeit in die Runde. Für einige möglicherweise eine blöde Frage, aber ich bin hier unsicher / vorsichtig. Mir geht es darum, dass wir bisher immer, wenn wir ein Serversystem für einen Kunden installiert haben, dieses beim Kunden direkt vor Ort gemacht haben. Klar soweit, wenn man bedenkt, dass ich ja seine Domain Struktur nicht hier bei uns abbilden kann bzw. mich ja (vorab) in diese integrieren sollte, bevor ich groß weiter installiere. Was aber, wenn ich auch die Domäne inkl. allem "drum und dran" neu abbilden werde? Konkret wird ein Hyper-V Host ausgeliefert, der auch einen virtuellen DC/DNS (den ersten!), einen virtuellen ERP Server und einen virtuellen CRM Server bekommt. Mein "Problem", der Kunde ist ziemlich weit weg - die ganze Woche hin und zurück pendeln ziemlich ätzend und übernachten auch keine Option. Ich würde also schon gerne den kompletten Server soweit als möglich hier in unseren Räumlichkeiten vorbereiten / installieren. Ich bin mir nur nicht sicher, ob das eine "gute Idee" ist, bzw. ob das nicht an Kleinigkeiten scheitert. Der Kunde hat bisher schlicht ein Peer-to-Peer Netz mit einem "Windows 7 Server", diversen Clients, Netzwerkdruckern und Internet. Er hat also "sein" IP Bereich und "seine" Struktur. Sein IP Bereich und Co weicht natürlich von unseren Bereichen ab. Damit ich die einzelnen Server aber ans Internet bekomme (Windows und sonstige Updates, "Aktivierungen" und Co), müsste ich natürlich die Maschinen mit IP Adressen aus unserem Netzwerk versehen. Darauf basieren kann ich doch aber nicht (oder doch?!) dann sein neues AD einrichten und konfigurieren - um dann bei Ihm vor Ort den kompletten IP Bereich zu ändern?! Das geht doch in die Hose, oder? Ich bin einfach verunsichert, wie ich hier am Besten ran gehe - und würde mich über Tipps und Hilfestellung freuen. Wie handhabt ihr das? Freue mich auf Feedback. Gruß Björn
  13. Danke!!!! :jau: Ja, das war es wohl. Nachdem ich im Reiter Delegierung die Authentifizierten Benutzer rein gemacht habe (waren sie nicht) mit "Lesen" Berechtigung und anschließendem gpupdate /force wurde mir beim Client schon angezeigt, dass für die "Folder Redirection" (zentraler Bestandteil der besagten Richtlinie) einmal ab- und wieder anmelden nötig sei. Nachdem auch das vollzogen war, sah man direkt die eigenen Dateien auf dem passenden Server liegen (aus Sicht des Clients). Super! Bleibt jetzt aber grade die Frage, warum das von Anfang an und immer noch bei den ganzen anderen Clients problemlos funktioniert hat...?! Die haben auf jeden Fall - durch diese Gruppenrichtlinie - ihre "Eigenen Dateien" und Co auf dem Server liegen. Nun ja, ich schaue mir das noch mal genauer bei den anderen an, wobei ja spätestens jetzt ohnehin nicht mehr nachzuvollziehen wäre, wenn die auch Probleme mit dieser Gruppenrichtlinie hätten - ich habe es ja nun umgestellt... @NorbertFe - jetzt weiß ich es ;) Hast Recht - hätte ich mir sparen können. In meinem konkreten Fall hat das aber keine Auswirkungen in irgend einer Form. @blub - In der Sicherheitsfilterung der Richtlinie steht eine bestimmte Benutzergruppe (alle "aktiven" AD User in dieser Gruppe) drin - in der Delegierung taucht die Gruppe auf mit "Lesen (durch Sicherheitsfilterung)". Im Bereich der Delegierung sind auch andere (eher "administrative") Gruppen drin - zzgl. der Authentifizierten Benutzer, die ich dank der Frage von duerener nun auch drin habe... Gruß Björn
  14. Mahlzeit in die Runde, *gg* also als jung würde ich mich nun nicht mehr bezeichnen - das wissbegierig lassen wir mal so stehen ;) Vorwegnehmen kann ich, dass sich der Benutzer und auch der Computer in der selben OU befindet, wo auch die restlichen User und Computer sich jeweils befinden - und dass vom Benutzer aus Zugriff auf das Sysvol Verzeichnis inkl. GPO Ordner darunter besteht. Ich habe ab hier dennoch den vorgeschlagenen Weg gewählt und die Maschine einmal komplett aus der Domäne herausgenommen und wieder eingefügt (Computer Konto nach Herausnahme im AD gelöscht). Habe das (zu diesem Zeitpunkt ohnehin "jungfräuliche") AD User Profil vom Client gelöscht. Ein gpresult zeigt nun, dass zumindest die Default Domain Policy angewendet wird - immerhin. Nicht aber meine zusätzliche Richtlinie, wie sie scheinbar von allen anderen Clients aber genutzt wird. U.a. geht es da um eine Ordnerumleitung der eigenen Dateien auf einen Serverpfad. Sie taucht auch nicht unter den "Abgelehnten Gruppenrichtlinienobjekten" auf. Die Richtlinie ist direkt unterhalb der Domäne.local Struktur erstellt und verknüpft (inzwischen auch "Erzwungen") - gleich unterhalb der Default Domain Policy. In der Sicherheitsfilterung ist eine AD Benutzer Gruppe eingetragen, in welcher alle relevanten Benutzer enthalten sind - so natürlich auch der betroffene Benutzer, um den es hier geht. Was auch immer das "allgemeine Problem" vorab war (er hatte sich ja nicht einmal die Default Domain Policy gezogen), das scheint behoben. Nun bin ich allerdings mit meiner eigenen Richtlinie immer noch nicht weiter. Ideen? Gruß Björn
  15. Hallo ihr beiden, @lefg - ein "nslookup" vom Client aus wird normal mit der ip v4 Adresse des Servers zzgl. dessen FQDN beantwortet. Das sollte "reichen", oder? @blub - den Befehl kenne ich überhaupt nicht. Also das sieht so bei mir aus: Aktuelle Anmelde-ID ist 0:0x35e56 Zwischengespeichertes TGT: ServiceName : krbtgt TargetName (SPN) : krbtgt ClientName : Funke DomainName : MeineDomäne.LOCAL TargetDomainName : MeineDomäne.LOCAL AltTargetDomainName: MeineDomäne.LOCAL Ticketkennzeichen : 0x40e10000 -> forwardable renewable initial pre_authent name_canonicalize Sitzungsschlssel : KeyType 0x12 - AES-256-CTS-HMAC-SHA1-96 : KeyLength 32 - 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 StartTime : 7/18/2016 16:00:28 (lokal) EndTime : 7/19/2016 2:00:28 (lokal) RenewUntil : 7/25/2016 16:00:28 (lokal) TimeSkew : + 0:00 Minute(n) EncodedTicket : (Gr”áe: 1136) Anschließend kommt jede menge Hexadezimales Zeugs... "Klingt" gut, oder?!
  16. Hallo in die Runde, gegeben ist ein Server 2012 R2 als alleiniger DC (Funktionsebene noch 2008) und diverse Clients - überwiegend Windows 10. Ein Windows 10 Client scheint sich keine Gruppenrichtlinien zu ziehen - nicht einmal die Default Domain Policy. Die anderen Clients haben damit keine Probleme. Ich kann an diesem speziellen so erst einmal keinen Unterschied zu den anderen Clients erkennen. Ein gpresult sagt mir, dass keine Gruppenrichtlinienobjekte angewendet worden sind - aber eben auch keine abgelehnt. Das Ereignisprotokoll am Clients zeigt keine besonderen Auffälligkeiten in diese Richtung. Ich stehe dann wohl auf dem Schlauch - mag mich mal bitte jemand in die richtige Richtung schubsen?! Danke und viele Grüße Björn
  17. Moin Norbert, ah - entschuldige. Der OWA Aufruf von intern funktioniert ohne Zertifikatsmeldung. Lediglich der OWA Aufruf übers WAN bringt eine entsprechende Zertifikatswarnung mit sich. Das Zertifikat ist vom Exchange Server "beantragt" und wurde dann in der internen CA (auf dem DC) "genehmigt" und dann die Zertifizierungsantwort wiederum im Exchange eingebunden. Ist das so nicht korrekt? Du sprichst hier Outlook 2016 an - wird in dieser Version diesbezüglich etwas anders gehandhabt? Muss mich wohl mal ins Thema Split-DNS richtig einlesen... Danke Dir! Gruß Björn
  18. Hallo Norbert, du meinst die Adresse zur XML Datei? https://meinexchangeserver.meinedomäne.local/Autodiscover/Autodiscover.xml Die kann ich vom Client aus ohne Zertifikatsmeldung aufrufen. Ich muss mich anschließend authentifizieren und bekomme dann folgendes angezeigt: <?xml version="1.0" encoding="UTF-8"?> -<Autodiscover xmlns="http://schemas.microsoft.com/exchange/autodiscover/responseschema/2006"> -<Response> -<Error Id="2051117166" Time="12:08:32.7902766"> <ErrorCode>600</ErrorCode> <Message>Ungültige Anforderung</Message> <DebugData/> </Error> </Response> </Autodiscover> Spielt die Fehlermeldung nach dem Aufruf hier eine Rolle? Grundsätzlich wird hier ein selbst erstelltes Zertifikat (entsprechende Zertifikatsmeldung bei der Nutzung von OWA) genutzt - Split-DNS ist nicht eingerichtet. Müsste doch aber auch so funktionieren, oder? Gruß Björn
  19. Hallo und schon einmal vorab "Sorry", für das wahrscheinlich hundertste Thema hierzu - aber was ich bisher gesehen/gefunden habe, hilft mir scheinbar nicht. Eine Domäne mit einem virtuellen Exchange 2013 - alles auf Server 2012 R2 Basis. Kein Outlook Client (Misch aus Outlook 2010/2013 kann die "Automatische Antworten" Funktion nutzen. Es kommt der Text: "ihre Einstellungen für automatische antworten können nicht angezeigt werden, da der Server zurzeit nicht verfügbar ist" Unter OWA funktioniert das scheinbar problemlos. Die Autodiscover Funktion am Client scheint keine Probleme zu machen - mit Strg + Outlook kann ich die Autodiscover Funktion testen und diese scheint laut Meldung erfolgreich zu sein. (AutoErmittlung für https://MeinExchangeServer.meineDomäne.local/Autodiscover/Autodiscover.xml=> Erfolgreich get-webservicesvirtualdirectory | fl identity => MeinExchangeServer\EWS Es wird kein Proxy genutzt. Kann mich mal bitte jemand in die richtige Richtung schubsen?! Danke und viele Grüße Björn
  20. Danke dir Norbert für Deine Hilfestellung! Jetzt habe auch ich das in Gänze verstanden... Gruß Björn
  21. Hallo Norbert, danke für die schnelle Hilfe. Und wieder schließt sich eine (*räusper* eklatante) Wissenslücke :suspect: Pro Benutzer würde aber ein User CAL bezüglich Server 2012 R2 reichen, auch wenn es letztlich mehrere Server 2012 R2 werden, auf die dieser Benutzer zugreift - ja?! Gruß Björn
  22. Mahlzeit in die Runde, sehr wahrscheinlich eine ziemlich einfache Frage, aber ich stehe grade auf dem Schlauch. Angenommen ich habe eine homogene Server 2008 Umgebung in welcher auch der DC auf 2008 läuft und ausreichend CALs für die Benutzer der 2008er Domäne vorhanden sind. Geplant ist nun dazu einen (den ersten) Server 2012 R2 zu stellen (wird ein SQL Server - mir ist klar, dass seitens SQL hier eigene CALs nötig werden), welcher schlicht Mitglied der Domäne werden soll. Die Frage ist nun, braucht man hier 2012er User CALs für den Zugriff auf den Server und seine Daten? Gruß Björn
  23. Moin, vielen Dank für dein Feedbck. Scheinbar habe ich hier zwei unterschiedliche Quellen/Aussagen, wo das "FormatDatabase" genau hin gehört. Kannst Du hierzu was sagen? REG ADD "HKLM\System\CurrentControlSet\Services\CSC\Parameters" /v FormatDatabase /t REG_DWORD /d 1 /f von hier: https://support.microsoft.com/de-de/kb/942974 oder REG ADD "HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion\NetCache" /v FormatDatabase /t REG_DWORD /d 1 /f von hier: https://support.microsoft.com/de-de/kb/230738 Da der CSC Ordner ja der "passende" ist, würde ich zu oberem Key tendieren, aber der Artikel bezüglich des unteren Keys klingt auch ziemlich "passend" (=> "Cache/Datenbank für Offlinedateien neu initialisieren") EDIT: Ach, das eine ist für Windows 2003/XP und das andere für Vista aufwärts... hätte ich vielleicht auch selber drauf kommen können :) Ich probiere es mal aus und gebe Feedback... Nochmals Danke! Gruß Björn
  24. Hallo Forum, Vor einigen Wochen wurde von SBS2008 zu Windows Server 2012 R2 migriert (Domäne mit allem "drum und dran"). Die Benutzerprofile (Eigene Dateien und Co) lagen auf dem SBS in einem Freigegebenen Verzeichnis (SBS "Standard"). Bei der Übernahme wurden die Gruppenrichtlinien soweit angepasst, dass diese nun auf dem neuen DC liegen. Während der Migrationsphase wurden diese auch von allen Clients hin zur neuen Freigabe automatisch beim Windows Start (Clients übrigens überwiegend Windows 10 pro) kopiert, was bei größeren Datenmengen natürlich ein paar Minuten gedauert hat. Hat schlussendlich auch bei allen Clients funktioniert. Alle, bis auf scheinbar einen.... Und es ist eben jetzt erst aufgefallen... Ich kann leider nicht mehr nachvollziehen, was da wohl schief gegangen ist, aber bei einem Client haben wir jetzt ein Durcheinander. Vergleiche ich die Profildaten des betroffenen Benutzers auf dem Server mit denen, die ich auf dem Client unter "Dokumente" sehe, dann stelle ich fest, dass auf dem Server sehr viel mehr Dokumente und Ordner liegen, als mir lokal angezeigt werden. Wenn man dort lokal in die "Dokumente" (Eigene Dateien) rein geht und oben in die Leiste (Pfad) klickt, sieht man zwar die "\\DC\Profile\%USER%\Eigene Dateien" Freigabe, aber wirklich befinden tut man sich in dieser offensichtlich (ich weiß ja, dass auf dem Server sehr viel mehr liegt) nicht (ich meine zu wissen, dass man dort die "offline Dateien" sieht - das "CSC" Verzeichnis lokal auf dem Client - hier bin ich aber nicht wirklich "im Thema"). Die meisten Dateien, die mir lokal auf dem Client angezeigt werden, sind ausgegraut und lassen sich weder starten, noch ändern oder löschen. => "Konnte leider nicht geöffnet werden" (dabei wird der komplette / korrekte UNC Pfad zur Datei angegeben.) Wirklich editierbar sind nur die Dateien, welche SEIT DER Migration erstellt worden sind (kann ich anhand des Datum sehen). Diese wiederum liegen aber nur lokal... Ich habe also folgende Situation: 1. Ich habe auf dem Server eine Freigabe, wo das ganze Profil des Benutzers "Stand Anfang Juni" drin ist. Hier kann ich auf alle enthaltenen Dateien zugreifen etc. 2. Ich habe auf dem Client des Benutzers nun in seinen eigenen Dateien diverse (aber NICHT alle) Dateien, die es so auch auf dem Server gibt, aber auf dem Client sind sie alle ausgegraut und ich bekomme sie dort nicht weg. Löschen und Co geht nicht 3. Und ich habe auf dem Client auch "neue" Eigene Dateien, welche nach dem scheinbar missglücktem Profilumzug entstanden sind. Diese sind NICHT auf dem Server und können am Client normal editiert werden. Ich habe mit gpupdate /force am Client noch einmal versucht, scheint aber nichts zu ändern. Wie führe ich das zusammen? Wie würdet ihr hier vorgehen? Würde mich über ein paar Meinungen freuen. Gruß Björn
  25. Hallo, ich habe bezüglich "iSCSI" eher auf Microsoft Seite gesucht, als auch den Seiten des NAS Herstellers, weil ich hier eher "den Ball" gesehen haben. Aber Recht hast Du, beim kurzen Überfliegen habe ich diesbezüglich bei Wortmann auch etwas gefunden. Muss ich mir mal näher anschauen. Verstehe, bei der Sicherung also klare Vorteile, aber bei der Wiederherstellung dann so ein paar Stolperfallen. Werde ich mir auch mal genauer anschauen... Danke Dir! Gruß Björn
×
×
  • Neu erstellen...