Jump to content

Blase

Members
  • Gesamte Inhalte

    496
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Blase

  1. Super! Nachdem ich den "alten" Server inkl der Unterbereiche gelöscht hatte... ◦CN=Configuration,DC=DOMAIN,DC=NAME ◦CN=Services ◦CN=Microsoft Exchange ◦CN=NAME ◦CN=Exchange Administrative Group ◦CN=Servers ... taucht der alte Server und die virtuellen Verzeichnisse in der Konsole nicht mehr auf - und ich kann nun scheinbar die öffentlichen Bereiche (Postfach + Ordner) anlegen. Wüsstest du noch von zusätzlichen Schlüsseln? "Nacharbeiten"? Danke Dir! Gruß Björn
  2. Hallo Norbert, kannst du mir Hilfestellung bezüglich der "Behandlung" des public Folders geben? Dass da was nicht zu Ende migriert worden ist, steht außer Frage :( Gruß Björn
  3. Moin, IST Zustand: - 2012er R2 Domäne auf separatem DC - Windows Server 2012 R2 mit installiertem Exchange 2013 (Build 1178.4) - das ist der EINZIGE Exchange Server im Unternehmen - wurde "seinerzeit" mal alles migriert (AD + Exchange) von einem SBS 2008, welchen es NICHT mehr gibt. Nun sollen ERSTMALIG die öffentlichen Funktionen (Kalender / Adressbücher) gepflegt und genutzt werden - gab es nicht, bzw. wurde vorher nicht genutzt. Bei der Anlage des ersten öffentlichen Postfachs innerhalb des Exchange Admin Centers wird man darauf hingewiesen, dass eine "vorhandene Bereitstellung festgestellt wurde". Man könne die -HoldForMigration" Funktion nutzen. Das habe ich auch versucht und konnte so erfolgreich zwar das Postfach anlegen, allerdings darauf basierend dann keine öffentlichen Ordner, weil eben gesagt wird, dass diese wahrscheinlich mit der "'HildForMigration" Methode angelegt worden sind. Sind sie... Also muss ich wohl die "Leiche" bezüglich des Exchange 2008 hier sauber raus bekommen. Die Frage ist wie. Der Exchange 2013 läuft komplett unauffällig bisher. Wenn ich in der Verwaltungskonsole unter "Server" schaue, sehe ich den alten Exchange, welcher die Rolle "Postfach" inne hat. Der aktuelle Exchange hat die Rollen "Postfach und Clientzugriff". Im Bereich der Datenbanken sehe ich lediglich die aktuelle DB des Kunden, auf dem aktuellen Server und die Kopien auch auf diesem aktuellen Server. Innerhalb der "Virtuellen Verzeichnisse" taucht der alte Exchange auch ein paar Mal auf, mit dem Namen "Public (SBS Web Applications", "Exadmin" und "Exchange" - alle vom Typ "OWA". Dass die seinerzeit durchgeführte Migration vom alten zum neuen Exchange zumindest im Bereich des "public Folders" nicht sauber war, steht wohl außer Frage. Wie ziehe ich das System nun glatt? "Schön" wäre natürlich, die Leiche sauber und komplett zu entfernen. Mindestens möchte ich aber erreichen, dass ich ganz normal nun erstmalig die öffentlichen Strukturen innerhalb des aktuellen Exchange anlegen, verwalten und nutzen kann. Da diese Bereiche hier wie geschrieben erstmalig eingesetzt werden sollen, würde ein "Löschen" der alten Strukturen diesbezüglich jedenfalls keinen Datenverlust bedeutet. Also, wie bekomme ich meine alte Exchange Leiche sauber aus meinem System? Über den ADSI Editor? Mindestens soweit, dass ich hier die öffentlichen Strukturen anlegen kann? Freue mich über Meinungen und Vorschläge. Gruß Björn
  4. Mahlzeit in die Runde. Für einige möglicherweise eine blöde Frage, aber ich bin hier unsicher / vorsichtig. Mir geht es darum, dass wir bisher immer, wenn wir ein Serversystem für einen Kunden installiert haben, dieses beim Kunden direkt vor Ort gemacht haben. Klar soweit, wenn man bedenkt, dass ich ja seine Domain Struktur nicht hier bei uns abbilden kann bzw. mich ja (vorab) in diese integrieren sollte, bevor ich groß weiter installiere. Was aber, wenn ich auch die Domäne inkl. allem "drum und dran" neu abbilden werde? Konkret wird ein Hyper-V Host ausgeliefert, der auch einen virtuellen DC/DNS (den ersten!), einen virtuellen ERP Server und einen virtuellen CRM Server bekommt. Mein "Problem", der Kunde ist ziemlich weit weg - die ganze Woche hin und zurück pendeln ziemlich ätzend und übernachten auch keine Option. Ich würde also schon gerne den kompletten Server soweit als möglich hier in unseren Räumlichkeiten vorbereiten / installieren. Ich bin mir nur nicht sicher, ob das eine "gute Idee" ist, bzw. ob das nicht an Kleinigkeiten scheitert. Der Kunde hat bisher schlicht ein Peer-to-Peer Netz mit einem "Windows 7 Server", diversen Clients, Netzwerkdruckern und Internet. Er hat also "sein" IP Bereich und "seine" Struktur. Sein IP Bereich und Co weicht natürlich von unseren Bereichen ab. Damit ich die einzelnen Server aber ans Internet bekomme (Windows und sonstige Updates, "Aktivierungen" und Co), müsste ich natürlich die Maschinen mit IP Adressen aus unserem Netzwerk versehen. Darauf basieren kann ich doch aber nicht (oder doch?!) dann sein neues AD einrichten und konfigurieren - um dann bei Ihm vor Ort den kompletten IP Bereich zu ändern?! Das geht doch in die Hose, oder? Ich bin einfach verunsichert, wie ich hier am Besten ran gehe - und würde mich über Tipps und Hilfestellung freuen. Wie handhabt ihr das? Freue mich auf Feedback. Gruß Björn
  5. Danke!!!! :jau: Ja, das war es wohl. Nachdem ich im Reiter Delegierung die Authentifizierten Benutzer rein gemacht habe (waren sie nicht) mit "Lesen" Berechtigung und anschließendem gpupdate /force wurde mir beim Client schon angezeigt, dass für die "Folder Redirection" (zentraler Bestandteil der besagten Richtlinie) einmal ab- und wieder anmelden nötig sei. Nachdem auch das vollzogen war, sah man direkt die eigenen Dateien auf dem passenden Server liegen (aus Sicht des Clients). Super! Bleibt jetzt aber grade die Frage, warum das von Anfang an und immer noch bei den ganzen anderen Clients problemlos funktioniert hat...?! Die haben auf jeden Fall - durch diese Gruppenrichtlinie - ihre "Eigenen Dateien" und Co auf dem Server liegen. Nun ja, ich schaue mir das noch mal genauer bei den anderen an, wobei ja spätestens jetzt ohnehin nicht mehr nachzuvollziehen wäre, wenn die auch Probleme mit dieser Gruppenrichtlinie hätten - ich habe es ja nun umgestellt... @NorbertFe - jetzt weiß ich es ;) Hast Recht - hätte ich mir sparen können. In meinem konkreten Fall hat das aber keine Auswirkungen in irgend einer Form. @blub - In der Sicherheitsfilterung der Richtlinie steht eine bestimmte Benutzergruppe (alle "aktiven" AD User in dieser Gruppe) drin - in der Delegierung taucht die Gruppe auf mit "Lesen (durch Sicherheitsfilterung)". Im Bereich der Delegierung sind auch andere (eher "administrative") Gruppen drin - zzgl. der Authentifizierten Benutzer, die ich dank der Frage von duerener nun auch drin habe... Gruß Björn
  6. Mahlzeit in die Runde, *gg* also als jung würde ich mich nun nicht mehr bezeichnen - das wissbegierig lassen wir mal so stehen ;) Vorwegnehmen kann ich, dass sich der Benutzer und auch der Computer in der selben OU befindet, wo auch die restlichen User und Computer sich jeweils befinden - und dass vom Benutzer aus Zugriff auf das Sysvol Verzeichnis inkl. GPO Ordner darunter besteht. Ich habe ab hier dennoch den vorgeschlagenen Weg gewählt und die Maschine einmal komplett aus der Domäne herausgenommen und wieder eingefügt (Computer Konto nach Herausnahme im AD gelöscht). Habe das (zu diesem Zeitpunkt ohnehin "jungfräuliche") AD User Profil vom Client gelöscht. Ein gpresult zeigt nun, dass zumindest die Default Domain Policy angewendet wird - immerhin. Nicht aber meine zusätzliche Richtlinie, wie sie scheinbar von allen anderen Clients aber genutzt wird. U.a. geht es da um eine Ordnerumleitung der eigenen Dateien auf einen Serverpfad. Sie taucht auch nicht unter den "Abgelehnten Gruppenrichtlinienobjekten" auf. Die Richtlinie ist direkt unterhalb der Domäne.local Struktur erstellt und verknüpft (inzwischen auch "Erzwungen") - gleich unterhalb der Default Domain Policy. In der Sicherheitsfilterung ist eine AD Benutzer Gruppe eingetragen, in welcher alle relevanten Benutzer enthalten sind - so natürlich auch der betroffene Benutzer, um den es hier geht. Was auch immer das "allgemeine Problem" vorab war (er hatte sich ja nicht einmal die Default Domain Policy gezogen), das scheint behoben. Nun bin ich allerdings mit meiner eigenen Richtlinie immer noch nicht weiter. Ideen? Gruß Björn
  7. Hallo ihr beiden, @lefg - ein "nslookup" vom Client aus wird normal mit der ip v4 Adresse des Servers zzgl. dessen FQDN beantwortet. Das sollte "reichen", oder? @blub - den Befehl kenne ich überhaupt nicht. Also das sieht so bei mir aus: Aktuelle Anmelde-ID ist 0:0x35e56 Zwischengespeichertes TGT: ServiceName : krbtgt TargetName (SPN) : krbtgt ClientName : Funke DomainName : MeineDomäne.LOCAL TargetDomainName : MeineDomäne.LOCAL AltTargetDomainName: MeineDomäne.LOCAL Ticketkennzeichen : 0x40e10000 -> forwardable renewable initial pre_authent name_canonicalize Sitzungsschlssel : KeyType 0x12 - AES-256-CTS-HMAC-SHA1-96 : KeyLength 32 - 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 StartTime : 7/18/2016 16:00:28 (lokal) EndTime : 7/19/2016 2:00:28 (lokal) RenewUntil : 7/25/2016 16:00:28 (lokal) TimeSkew : + 0:00 Minute(n) EncodedTicket : (Gr”áe: 1136) Anschließend kommt jede menge Hexadezimales Zeugs... "Klingt" gut, oder?!
  8. Hallo in die Runde, gegeben ist ein Server 2012 R2 als alleiniger DC (Funktionsebene noch 2008) und diverse Clients - überwiegend Windows 10. Ein Windows 10 Client scheint sich keine Gruppenrichtlinien zu ziehen - nicht einmal die Default Domain Policy. Die anderen Clients haben damit keine Probleme. Ich kann an diesem speziellen so erst einmal keinen Unterschied zu den anderen Clients erkennen. Ein gpresult sagt mir, dass keine Gruppenrichtlinienobjekte angewendet worden sind - aber eben auch keine abgelehnt. Das Ereignisprotokoll am Clients zeigt keine besonderen Auffälligkeiten in diese Richtung. Ich stehe dann wohl auf dem Schlauch - mag mich mal bitte jemand in die richtige Richtung schubsen?! Danke und viele Grüße Björn
  9. Moin Norbert, ah - entschuldige. Der OWA Aufruf von intern funktioniert ohne Zertifikatsmeldung. Lediglich der OWA Aufruf übers WAN bringt eine entsprechende Zertifikatswarnung mit sich. Das Zertifikat ist vom Exchange Server "beantragt" und wurde dann in der internen CA (auf dem DC) "genehmigt" und dann die Zertifizierungsantwort wiederum im Exchange eingebunden. Ist das so nicht korrekt? Du sprichst hier Outlook 2016 an - wird in dieser Version diesbezüglich etwas anders gehandhabt? Muss mich wohl mal ins Thema Split-DNS richtig einlesen... Danke Dir! Gruß Björn
  10. Hallo Norbert, du meinst die Adresse zur XML Datei? https://meinexchangeserver.meinedomäne.local/Autodiscover/Autodiscover.xml Die kann ich vom Client aus ohne Zertifikatsmeldung aufrufen. Ich muss mich anschließend authentifizieren und bekomme dann folgendes angezeigt: <?xml version="1.0" encoding="UTF-8"?> -<Autodiscover xmlns="http://schemas.microsoft.com/exchange/autodiscover/responseschema/2006"> -<Response> -<Error Id="2051117166" Time="12:08:32.7902766"> <ErrorCode>600</ErrorCode> <Message>Ungültige Anforderung</Message> <DebugData/> </Error> </Response> </Autodiscover> Spielt die Fehlermeldung nach dem Aufruf hier eine Rolle? Grundsätzlich wird hier ein selbst erstelltes Zertifikat (entsprechende Zertifikatsmeldung bei der Nutzung von OWA) genutzt - Split-DNS ist nicht eingerichtet. Müsste doch aber auch so funktionieren, oder? Gruß Björn
  11. Hallo und schon einmal vorab "Sorry", für das wahrscheinlich hundertste Thema hierzu - aber was ich bisher gesehen/gefunden habe, hilft mir scheinbar nicht. Eine Domäne mit einem virtuellen Exchange 2013 - alles auf Server 2012 R2 Basis. Kein Outlook Client (Misch aus Outlook 2010/2013 kann die "Automatische Antworten" Funktion nutzen. Es kommt der Text: "ihre Einstellungen für automatische antworten können nicht angezeigt werden, da der Server zurzeit nicht verfügbar ist" Unter OWA funktioniert das scheinbar problemlos. Die Autodiscover Funktion am Client scheint keine Probleme zu machen - mit Strg + Outlook kann ich die Autodiscover Funktion testen und diese scheint laut Meldung erfolgreich zu sein. (AutoErmittlung für https://MeinExchangeServer.meineDomäne.local/Autodiscover/Autodiscover.xml=> Erfolgreich get-webservicesvirtualdirectory | fl identity => MeinExchangeServer\EWS Es wird kein Proxy genutzt. Kann mich mal bitte jemand in die richtige Richtung schubsen?! Danke und viele Grüße Björn
  12. Danke dir Norbert für Deine Hilfestellung! Jetzt habe auch ich das in Gänze verstanden... Gruß Björn
  13. Hallo Norbert, danke für die schnelle Hilfe. Und wieder schließt sich eine (*räusper* eklatante) Wissenslücke :suspect: Pro Benutzer würde aber ein User CAL bezüglich Server 2012 R2 reichen, auch wenn es letztlich mehrere Server 2012 R2 werden, auf die dieser Benutzer zugreift - ja?! Gruß Björn
  14. Mahlzeit in die Runde, sehr wahrscheinlich eine ziemlich einfache Frage, aber ich stehe grade auf dem Schlauch. Angenommen ich habe eine homogene Server 2008 Umgebung in welcher auch der DC auf 2008 läuft und ausreichend CALs für die Benutzer der 2008er Domäne vorhanden sind. Geplant ist nun dazu einen (den ersten) Server 2012 R2 zu stellen (wird ein SQL Server - mir ist klar, dass seitens SQL hier eigene CALs nötig werden), welcher schlicht Mitglied der Domäne werden soll. Die Frage ist nun, braucht man hier 2012er User CALs für den Zugriff auf den Server und seine Daten? Gruß Björn
  15. Moin, vielen Dank für dein Feedbck. Scheinbar habe ich hier zwei unterschiedliche Quellen/Aussagen, wo das "FormatDatabase" genau hin gehört. Kannst Du hierzu was sagen? REG ADD "HKLM\System\CurrentControlSet\Services\CSC\Parameters" /v FormatDatabase /t REG_DWORD /d 1 /f von hier: https://support.microsoft.com/de-de/kb/942974 oder REG ADD "HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion\NetCache" /v FormatDatabase /t REG_DWORD /d 1 /f von hier: https://support.microsoft.com/de-de/kb/230738 Da der CSC Ordner ja der "passende" ist, würde ich zu oberem Key tendieren, aber der Artikel bezüglich des unteren Keys klingt auch ziemlich "passend" (=> "Cache/Datenbank für Offlinedateien neu initialisieren") EDIT: Ach, das eine ist für Windows 2003/XP und das andere für Vista aufwärts... hätte ich vielleicht auch selber drauf kommen können :) Ich probiere es mal aus und gebe Feedback... Nochmals Danke! Gruß Björn
  16. Hallo Forum, Vor einigen Wochen wurde von SBS2008 zu Windows Server 2012 R2 migriert (Domäne mit allem "drum und dran"). Die Benutzerprofile (Eigene Dateien und Co) lagen auf dem SBS in einem Freigegebenen Verzeichnis (SBS "Standard"). Bei der Übernahme wurden die Gruppenrichtlinien soweit angepasst, dass diese nun auf dem neuen DC liegen. Während der Migrationsphase wurden diese auch von allen Clients hin zur neuen Freigabe automatisch beim Windows Start (Clients übrigens überwiegend Windows 10 pro) kopiert, was bei größeren Datenmengen natürlich ein paar Minuten gedauert hat. Hat schlussendlich auch bei allen Clients funktioniert. Alle, bis auf scheinbar einen.... Und es ist eben jetzt erst aufgefallen... Ich kann leider nicht mehr nachvollziehen, was da wohl schief gegangen ist, aber bei einem Client haben wir jetzt ein Durcheinander. Vergleiche ich die Profildaten des betroffenen Benutzers auf dem Server mit denen, die ich auf dem Client unter "Dokumente" sehe, dann stelle ich fest, dass auf dem Server sehr viel mehr Dokumente und Ordner liegen, als mir lokal angezeigt werden. Wenn man dort lokal in die "Dokumente" (Eigene Dateien) rein geht und oben in die Leiste (Pfad) klickt, sieht man zwar die "\\DC\Profile\%USER%\Eigene Dateien" Freigabe, aber wirklich befinden tut man sich in dieser offensichtlich (ich weiß ja, dass auf dem Server sehr viel mehr liegt) nicht (ich meine zu wissen, dass man dort die "offline Dateien" sieht - das "CSC" Verzeichnis lokal auf dem Client - hier bin ich aber nicht wirklich "im Thema"). Die meisten Dateien, die mir lokal auf dem Client angezeigt werden, sind ausgegraut und lassen sich weder starten, noch ändern oder löschen. => "Konnte leider nicht geöffnet werden" (dabei wird der komplette / korrekte UNC Pfad zur Datei angegeben.) Wirklich editierbar sind nur die Dateien, welche SEIT DER Migration erstellt worden sind (kann ich anhand des Datum sehen). Diese wiederum liegen aber nur lokal... Ich habe also folgende Situation: 1. Ich habe auf dem Server eine Freigabe, wo das ganze Profil des Benutzers "Stand Anfang Juni" drin ist. Hier kann ich auf alle enthaltenen Dateien zugreifen etc. 2. Ich habe auf dem Client des Benutzers nun in seinen eigenen Dateien diverse (aber NICHT alle) Dateien, die es so auch auf dem Server gibt, aber auf dem Client sind sie alle ausgegraut und ich bekomme sie dort nicht weg. Löschen und Co geht nicht 3. Und ich habe auf dem Client auch "neue" Eigene Dateien, welche nach dem scheinbar missglücktem Profilumzug entstanden sind. Diese sind NICHT auf dem Server und können am Client normal editiert werden. Ich habe mit gpupdate /force am Client noch einmal versucht, scheint aber nichts zu ändern. Wie führe ich das zusammen? Wie würdet ihr hier vorgehen? Würde mich über ein paar Meinungen freuen. Gruß Björn
  17. Hallo, ich habe bezüglich "iSCSI" eher auf Microsoft Seite gesucht, als auch den Seiten des NAS Herstellers, weil ich hier eher "den Ball" gesehen haben. Aber Recht hast Du, beim kurzen Überfliegen habe ich diesbezüglich bei Wortmann auch etwas gefunden. Muss ich mir mal näher anschauen. Verstehe, bei der Sicherung also klare Vorteile, aber bei der Wiederherstellung dann so ein paar Stolperfallen. Werde ich mir auch mal genauer anschauen... Danke Dir! Gruß Björn
  18. Guten Morgen in die Runde, ich bin grade dabei mich erstmalig intensiver mit iSCSI zu beschäftigen. Aber ich glaube, ich habe gleich am Anfang bereits eine grundsätzliche "Blockade" im Kopf, wie iSCSI überhaupt funktioniert, bzw. aufgebaut ist. Zum kurzen Hintergrund meiner Überlegungen: Weil ich ein aktuelles Serversystem (Hyper-V Host, drei VMs, DC/DNS, Exchange, ERP, alles Server 2012 R2, alle VMs lokal auf Host im RAID 10) mit Windows Boardmitteln sichern möchte - und weil die Standard Windows Server Sicherung auf eine Netzwerkfreigabe ja keine inkrementelle Sicherung hinbekommt - "dachte" ich mir so, ich könne ja iSCSI dafür nutzen, weil damit ja eine "lokale" Platte zur Verfügung steht und ich damit dann doch wieder inkrementell sichern kann. In meinem jugendlichen Leichtsinn - und ohne weitere Kenntnisse im Bereich "iSCSI" - dachte ich mir also, ich würde mein NAS System nehmen (welches ja "iSCSI" auf der Feature Liste stehen hat), es über iSCSI mit dem Host bzw. den virtuellen Windows Maschinen verbinden und darüber dann sichern.. ... Aber je mehr ich über iSCSI lese, desto weniger glaube ich, dass das so funktioniert... In so ziemlich allen "Anleitungen", die ich bisher durchstöbert habe, ist überhaupt nicht die Rede von einem NAS oder SAN System. Es geht dort immer um ein "Windows Storage", also ein Serversystem mit zB Windows Server 2012 R2 drauf, auf welchem dann die Rollen "iSCSI Target Server" + "Target Storage Provider" drauf kommen. Die Konfiguration beschäftigt sich dann mit einer LOKALEN Anlage von VHD Dateien und die Zuweisung beliebiger Server im Netzwerk, die darauf Zugriff haben. Dann soll auf den "Clients" über den "iSCSI Initiator" auf eben dieses Target zugegriffen werden. Dann habe ich in der Datenträgerverwaltung einen neuen Datenträger, den ich dann nutzen kann... Nun ja, an sich ist das schon so verständlich - und mein ursprüngliches Vorhaben damit ad acta gelegt - es bleibt aber die Frage, warum auf der Feature Liste einer terra NASBOX 5 G3 eben "iSCSI" drauf steht und was es dann in diesem Zusammenhang mit der NASBOX meint? Freue mich über jegliche Meinungen und Anmerkungen in diesem Kontext. Gruß Björn
  19. Guten Morgen in die Runde, kleines abschließendes Feedback von mir hierzu - falls es jemanden interessiert ;) Bedingt durch das Feedback hier (vielen Dank hierfür!) habe ich es "einfach" gehalten. Ich habe schlicht die virtuellen Maschinen herunter gefahren und erst einmal so konfiguriert, dass sie weder beim Start des Hosts mit gestartet werden, noch beim Herunterfahren des Hosts ebenfalls sauber herunter gefahren werden. Dann habe ich den kompletten Ordner Hyper-V inkl. Unterordner über Nacht auf zwei verschiedene NAS Systeme kopiert - doppelt zur Sicherheit. Und ich habe - ohne zu wissen, ob nötig oder nicht - die Hyper-V Dienste des Hosts auf deaktiviert gesetzt. Heute Morgen dann habe ich direkt den Hyper-V Host herunter gefahren und die Platten getauscht - OHNE vorab das alte RAID System aus dem Controller zu entfernen. Daraufhin hat der RAID Controller beim booten - noch bevor ich zur Config des RAID Controller kommen konnte - gemeckert, dass das vorhandene RAID 10 nicht mehr in Takt sei und was ich machen möchte. Ich habe schlicht weiter booten lassen und bin dann in den Controller rein. Altes RAID gelöscht, neues aufgebaut und in Windows gebootet. Dort dann die neue Partition erstellt und die komplette Ordnerstruktur vom NAS zurück kopiert. Was NICHT ging, war der sofortige Start der virtuellen Maschinen in der Hyper-V Konsole. Ich musste schlicht die dort vorhandenen Maschinen löschen und sie neu erstellen. Dabei habe ich dann einfach auf die bestehende VHD Datei verwiesen. Klappte bei allen Maschinen problemlos. Insgesamt gab es auch anschließend keinerlei Probleme - bis auf eine einzige Ausnahme: Der virtuelle Exchange Server hatte Probleme mit seiner Netzwerkkarte. Und zwar bekam dieser Server keine Verbindung zum Netzwerk. Tatsächlich sah ich im Geräte Manager des Servers ein "Gelbes Gerät" - die virtuelle Netzwerkkarte. Text hierzu: "Es wurde Treibersoftware für das gerät gefunden aber bei der Installation ist ein Fehler aufgetreten. Dieses gerät ist nicht richtig konfiguriert code 1" Ist schlussendlich die selbe (virtuelle) Netzwerkkarte, welche auch den anderen virtuellen Maschinen zugewiesen worden ist und dort gab es keine Probleme. Unter Windows konnte ich jedenfalls die Treiber scheinbar nicht installieren. Ich hatte versucht, im Hyper-V Manager die Netzwerkkarte neu zuzuweisen - als letzter Versuch wurde sie auf dem virtuellen Computer sogar "entfernt" (also über die Hyper-V Konsole) und anschließend neu "installiert"/zugewiesen. Beim anschließenden Start der VM, kam dann unter Windows auch die "Installation der neu erkannten Geräte", inkl. erfolgreicher Treiberinstallation. Ich konnte nun endlich auf den virtuellen Netzwerkadapter zugreifen und ihm wieder fest seine IP etc zuweisen. Das hat mich ein paar Versuche/Neustarts gekostet und es hat auch stellenweise beim Neustart verhältnismäßig lange gedauert, bis ich die virtuelle Netzwerkkarte endlich im Zugriff hatte. Nun laufen alle Maschinen auf dem neu erstellten RAID 10 - toi toi toi :jau: Gruß Björn
  20. Moin. Gegeben ist ein HP DL 380 G7, welcher als Hyper-V Host seinen Dienst tut. Er hat 8 Festplatteneinschübe - auf zweien davon läuft das Betriebssystem (Win 2008 R2 auf 2 x 150er Platten im RAID 1 und 5 (4 + Hotspare) sind 300er Platten im RAID 10. Hierauf liegen einzig die VMs. Nun wurde der Plattenplatz der VMs zu klein und musste erweitert werden. Wird sind ziemlich günstig an 7 x 600er Platten ran gekommen, welche nun (6 davon) ein neues RAID 10 bilden sollen - eine "Ersatzplatte" kommt in die Schublade. Soviel zum "Drumherum". Ich bin jetzt einfach nicht so sicher, ob die "Vorgehensweise" hier richtig ist, bzw. ob ich etwas übersehe/auslasse. 1. Die VMs herunter fahren 2. Die VHDs (die komplette Ordnerstruktur) woanders zwischenspeichern. 3. Server herunter fahren 4. Platten tauschen 5. ins Bios des RAID Controllers booten (übrigens ein Smart Array P410i) und die 6 Platten zum RAID 10 konfigurieren 6. Windows booten, neue Partition einrichten (selber "Buchstabe" wie vorab) 7. VHDs zurück kopieren, starten, fertig An sich ja, würde ich meinen, ziemlich trivial. Dennoch bin ich bezüglich Hyper-V und des RAID Controllers nicht so ganz sicher. Bezüglich Hyper-V: - Muss da noch mehr "vorbereitet" werden? Wenn ich nach dem Austausch der Festplatten erstmalig in Windows boote, gibt es unter Windows die Partition, unter welcher Hyper-V (VHds + Konfiguration) ja ursprünglich lief, noch nicht. Kann das Probleme machen? Muss ich diesbezüglich vorab Dienste deaktivieren, damit diese nicht beim ersten Start (ohne vorhandene Partition) Probleme verursachen? - Spielt es im Zuge meines Vorhabens eine Rolle, ob die einzelnen VMs so konfiguriert sind, dass sie beim Windows Start des Host Betriebssystems automatisch mit starten? - Wenn die VHDs wieder zurück in die neue Struktur kopiert worden ist (die vom Aufbau her aber der alten entspricht), kann ich diese dann einfach über die Konsole "normal" starten oder muss ich die neu einbinden? - Irgendwelche "Nacharbeiten" in diesem Kontext? Bezüglich des RAID Controllers: - Kann ich dem Controller sein bisheriges RAID 10 einfach unter dem Hintern weg "klauen"? Ich wollte ja den Server herunter fahren und direkt die alten Platten raus und die neuen Platten rein. Passt? Oder muss ich den Server neu starten, in den RAID Controller booten und dort erst das vorhandene RAID 10 auflösen/löschen? Würde mich übe ein kurzes Feedback und Anmerkungen / Meinungen freuen. Gruß Björn
  21. Moin Franz, lustig - eben diese Powerpoint hatte ich auch gefunden. :) Hier wird - meiner Meinung nach - allerdings lediglich von Windows CALs, nicht aber von SQL USER CALs gesprochen. Oder habe ich den Punkt schlicht "überlesen"? So oder so - nicht grade viele Quellen, geschweige denn eine "normale offizielle" Quellenangabe auf irgend einer MS Seite...?! Spricht Microsoft nicht so gerne über das Thema? Die SQL Software wird einmalig bezahlt - und bei Bedarf/auf Wunsch wird auch ein Wartungsvertrag optional angeboten. Gruß Björn
  22. Hallo Franz, ich hatte jetzt die Gelegenheit, einen Kontakt zum besagten ISV herzustellen und dort einmal nachzuhaken. Bestätigt wurde, dass die Lizenzen an das Produkt gebunden sind, mit welchem die Lizenzen ursprünglich vom ISV gekauft worden sind. Wird das ursprüngliche Produkt nicht mehr eingesetzt, verlieren die Lizenzen ihre Gültigkeit. Der ISV sprach von "allen MS Lizenzen" als Antwort auf meine Frage, in welcher ich Server und CALs und Core Versionen ansprach. Er hat explizit nicht auch von CALs gesprochen - und ich habe bisher NICHT explizit nachgefragt - aber der Formulierung nach zu urteilen würde das auch die CALs beinhalten. Du hast selber nicht 100 prozentig klar geschrieben... "diese dürfen sicherlich..." Bevor ich also die explizite Nachfrage an den ISV stelle, wollte ich gerne vorab noch einmal deine Einschätzung dazu. Ich tue mich einigermaßen schwer mit der Suche nach "channel agnostic". Habe bisher nur eine offizielle Microsoft Quelle (ein PDF) dazu gefunden, in welcher das erwähnt wird - aber im Zusammenhang mit (Windows) Server CALs und nicht im Zusammenhang mit SQL. Hättest du einen Link zu einer offiziellen MS Seite? Gruß Björn
  23. Mahlzeit in die Runde, vielen Dank für die Meinungen - das Thema ist für mich jetzt klarer. Werde noch abschließend bei unserem ERP Lieferanten mal Fragen, wie er das Thema so sieht.. @Nils - Dass VDI und Terminal Server die Paradedisziplin bezüglich Dynamic Memory ist, ist verständlich. Aber es hängt ja doch sicherlich trotzdem mit der verwendeten (NICHT Microsoft) Software auf dem (virtuellen) Client / Terminal Server zusammen, oder? Also laut Microsoft ja bei VDI und TS - aber den Software Hersteller der relevanten Systeme sollte man trotzdem fragen...!? Gruß Björn
  24. Moin in die Runde, mangels eigener Erfahrungen wollte ich mal horchen, wie ihr das so handhabt und bewertet. Es geht schlicht um die dynamische Zuweisung des Arbeitsspeichers unter Hyper-V. Ich persönlich weise fest zu, aber ich bin hier an einen Verfechter dynamischer Zuweisung geraten - und mangels eigener Erfahrungen kann ich nur zuhören, aber nichts dazu sagen ;-) Was ist hier "best practice"? Klar, mit einer dynamischen Zuweisung "verschwende" ich keinen fest zugewiesenen RAM, der aber vielleicht (grade) nicht genutzt wird. Andererseits, funktioniert diese "Dynamik" uneingeschränkt? Hat das negative Auswirkungen? Gilt das für virtuelle Server UND Clients? Würde mich über kurzes Feedback freuen Gruß Björn
  25. Guten Morgen Franz, vielen Dank für dein Feedback. Die vorliegende Preisliste ist leider recht... sagen wir "übersichtlich" gehalten. Es steht schlicht, dass "das Nutzungsrecht für den SQL Server endet". Ok, wenn man sich an die Worte heftet, steht dort schon "Server", aber ein Nachsatz von wegen "CALs noch weiter nutzbar" wäre nicht schlecht. Zumal, das betrifft ja auch die Core Version - welche ja nicht extra noch mit CALs zu versorgen ist. Da gibt man also mindestens über 10k Euro aus (Standard, 2 x 2Kerne) und steht am Ende möglicherweise "nackt" da? Das will mir irgendwie nicht in den Kopf. Kostet der SQL Server bei einem NICHT ISV so viel mehr? Ich tue mich grade einigermaßen schwer, mich hier im Abkürzungsjungel zurecht zu finden... :confused: Danke auf jeden Fall für deine Erläuterungen! Gruß Björn
×
×
  • Neu erstellen...