Jump to content

NilsK

Expert Member
  • Gesamte Inhalte

    17.555
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von NilsK

  1. Moin, prima, danke für die Rückmeldung. Ich hatte sowas schon vermutet, war aber aufgrund deiner Aussage: nicht darauf eingegangen. Es zeigt sich mal wieder, dass man mit solchen Aussagen immer sehr vorsichtig sein muss. ;) Gruß, Nils
  2. Moin, korrekt. Nochmal anders ausgedrückt: Das Default-Profil wird nur bei der ersten Anmeldung verwendet, wenn es noch kein servergespeichertes Profil gibt. Für euren Einsatzzweck dürfte aber die Konfiguration per Gruppenrichtlinien und GPP interessanter sein. Gruß, Nils
  3. Moin, dazu kommt, dass die Office-Programme dazu neigen, bei Änderungen eine neue Datei zu erzeugen und dann die alte zu löschen, statt die bestehende Datei zu ändern. Mir wurde mal erklärt, dass das an der (möglichen) Komplexität der Dateien liegt. Ob sich das umgehen lässt, weiß ich nicht. Jedenfalls könnte es deine Idee zum Scheitern bringen. Allgemein sollte man solche Spezialberechtigungen vermeiden. Selbst wenn die Applikationen damit klarkommen (was oft nicht der Fall ist), können diese Spezialfälle aus diversen Gründen für Fehler sorgen. Gruß, Nils
  4. Moin, du hast die Karten der Hosts per Crossoverkabel verbunden? Owei. Sowas hab ich schon ewig nicht gesehen. Ich würde nicht ausschließen, dass das zu seltsamen Fehlern führt, weil es absolut nicht mehr Stand der Technik ist - das ist jetzt aber spekuliert. Wenn du allerdings über diese Netzwerkkarten nichts außer dem anderen Host erreichen kannst, dann darfst du natürlich auch nichts außerhalb konfigurieren. Wie soll der Host denn über das Netz DNS erreichen? Oder das Gateway? Abgesehen davon, benötigen iSCSI und die Cluster-Netzwerke auch kein DNS und sollten auch kein Gateway eingetragen bekommen. Auch sonst dürfen die IP-Segmente der betreffenden Netze nicht geroutet werden. Es gibt noch ein paar weitere Detailempfehlungen zu diesen Netzwerken, aber die hätten mit deiner Fehlersituation nichts zu tun. Gruß, Nils
  5. Moin, ich bin weder Pearson noch Arvato noch Microsoft noch dein Testcenter. Also hilft mir das nichts. Du müsstest dich schon an den Verkäufer wenden um herauszufinden, was du mit dem erworbenen Produkt machen kannst. Siehe dazu auch: http://www.mcseboard.de/topic/205234-voucher-frage-bei-74-409/?p=1284169 Gruß, Nils
  6. Moin, auch die DO selbst ergibt nur bei einer größeren Zahl von Hosts Sinn. Und wenn Anforderungen definiert sind, die das erforderlich machen. Da man eine Normalverteilung von VMs auch recht einfach mit einem PowerShell-Skript erreichen kann, sollte man schon genau beleuchten, ob der Aufwand mit SCVMM und DO überhaupt lohnt. Den angesprochenen Fall "Updates und Wartung" halte ich da schon für grenzwertig, denn dafür braucht man keine Dynamik. Gruß, Nils
  7. Moin, das hängt ganz entscheidend davon ab, was für einen "Voucher" du da gekauft hast. Meist ist es so, dass man eine konkrete Prüfung bucht, damit kann man dann natürlich keine andere Prüfung ablegen. Die Frage solltest du der Stelle stellen, die den Voucher verkauft hat. Niemand sonst wird sie trennscharf beantworten können. Gruß, Nils
  8. Moin, ich stimme Norbert zu. Allenfalls könnte man auf dieser Ebene sagen: Ja, kann man. Aber in der Umgebung braucht man das nicht. In der Umgebung braucht man System Center mit größter SIcherheit überhaupt nicht. Um noch mal zu skizzieren, was wir meinen: Deine Frage ist ungefähr so konkret wie: "Was muss ich beachten, wenn ich ins Ausland fahre?" Gruß, Nils
  9. Moin, worin bestehen denn die Anforderungen? Gruß, Nils
  10. NilsK

    LDAP Abfrage

    Moin Bergesel, bitte hänge dich bei neuen Fragen nicht an bestehende Threads an, sondern eröffne einen neuen. Deine Frage mag zwar ähnlich sein, aber es ist eben eine neue Frage. Es wird sonst schwierig, in einem Thread sinnvoll zu diskurieren. Gruß, Nils
  11. Moin, mit der Frage nach dem Storage-Sizing stellst du eine der Kernfragen des Hardware-Designs überhaupt. Und wenn du dich auf den Kopf stellst: Nein, es gibt keine (sinnvollen) Empfehlungen dieser Art. Es gibt für manche Zwecke Kalkulations- bzw- Schätzungshilfen (z.B. für Exchange). Wenn es drauf ankommt, geht aber an Messungen kein Weg vorbei. Ein letztes Mal noch dazu: Halte dir vor Augen, dass dein RAID-10 mit 4 Platten nur zwei Spindeln zur Verfügung hat. Du addierst also plump gesagt die IOPS zweier Platten, und das ist dann die Leistung deines Storage-Subsystems. Besonders viel wird da einfach nicht rumkommen. Und auch das ein letztes Mal: Die CPUs sind nicht dein Problem (sind sie so gut wie nie in der Virtualisierung). Das Verhältnis von vCPU zu LP ist ein rein rechnerisches, das sich nur in der Gesamtschau ergibt. Abgesehen von einzelnen Supportfragen gibt es auch da kein pauschal günstiges oder ungünstiges Verhältnis. Es gibt auch keine "HT-Kerne". Es gibt Cores. Und es gibt Logische Prozessoren. Letztere sind recht komplex definiert. Dazu gibt es dann noch die Threads. Das ist in der Tiefe beim Sizing aber, wie gesagt, fast nie von Belang. Für das rechnerische Verhältnis nimmt man aber meist vereinfachend die Cores als Basis, nicht die Threads. Dein Host hat zu wenig RAM und sehr wahrscheinlich zu wenigf Storage-IO-Leistung. Und er läuft mit einem veralteten System. Und das Design ist zumindest fragwürdig. Damit sind wir auf dieser Ebene erst mal durch. Alles Weitere geht in den Bereich von Design und Consulting, was in einem Forum nicht zu leisten ist. Gruß, Nils
  12. Moin, bevor man hier irgendwelche Ansätze bespricht, die schnell in die Irre führen, sollten wir erst mal das Problem und die Anforderungen klären. Daher schließe ich mich der Frage an: Gruß, Nils
  13. Moin, es gibt keine "one size fits all"-Empfehlungen für die Virtualisierung. Ohne tatsächlich die genauen Anforderungen (technisch und organisatorisch) zu betrachten, wird man nicht weit kommen. In deinem System gehe ich davon aus, dass vor allem zu wenig RAM da ist. Dass alles toll fliegt, wenn du mehr RAM reintust, kann man natürlich nicht versprechen - dafür gibt es zu viele andere Faktoren, an denen es scheitern kann. Die "2-4 GB" für den Host sind in der Tat eine Daumenregel - aber wenn du dir vor Augen hältst, was der Host tun muss, wirst du schnell nachvollziehen können, dass deine VMs unter Umständen schon einiges an I/O erzeugen, was der Host alles koordinieren muss. Zum Platten-I/O kann man ohne Messungen des realen Bedarfs wirklich nichts Sinnvolles sagen. Natürlich sind SSDs schnell, aber ob Kosten und Nutzen in einem sinnvollen Verhältnis stehen, kann man aus der Ferne nicht beurteilen. Bedenke nur Folgendes: Du hast mehrere Applikationen, die zumindest potenziell viel I/O erzeugen. Das muss alles in seiner Summe von dem einen lokalen Plattensystem geliefert werden. 2008 R2 ist veraltet, und eine Umgebung der genannten Art steht sicher unter einigen Leistungs- und Verfügbarkeitsanforderungen. Daher wäre es da schon sinnvoll, das etwas professioneller anzugehen. Gruß, Nils PS. Der Host hat nicht 24 Kerne, sondern 12. Hyperthreading kann in der Virtualisierung zwar nützlich sein, aber es ist nicht gleichwertig mit Cores. (Auch wenn in deiner Situation die CPUs sicher nicht den Engpass darstellen.)
  14. Moin, grundsätzlich stimme ich monstermania zu - die Beschreibung ist nicht sonderlich fundiert. In deinem System sehe ich mehrere mögliche Bremsen: Jede aktuelle Exchange-Version ist mit 8 GB unterdimensioniert, auch für kleine Umgebungen. Von 36 GB physischem RAM 34 an die VMs zu verteilen, ist bei den gegebenen Applikationen und dem Systemaufbau zu eng. Mit nur 2 GB verbleibendem Speicher wird der Host da immer an seine Grenzen kommen. Natürlich ist ein RAID5 für die VMs alles andere als "schnell". Die vCPUs dürften in dem Szenario eher egal sein, wobei ein Verhältnis von 4 vCPU zu 6 GB RAM bei einem Terminalserver mir nicht besonders ideal erscheint - da wird schon das RAM die Limitierung sein. All das ist jetzt aber ebenso aus dem Bauch wie deine bisherigen Angaben. Gruß, Nils
  15. Moin, wenn ich die Syntaxbeschreibung von RecipientContainer richtig verstehe, entspricht sie dem canonicalName im AD. Das heißt, der Domänenname muss vollqualifiziert mit TLD angegeben werden. Ist das in deinem realen Beispiel der Fall? Gruß, Nils
  16. Moin, vielleicht sollte der Kollege erst mal beschreiben, was er denn in der Zwischenzeit gemacht hat. Ob beispielsweise du Updates eingespielt wurden, die AUflösung mal runter- und wieder hochgedreht wurde usw. Wenn die Wortmeldungen weiter auf dem bisherigen Niveau bleiben, können wir noch so viel raten, es wird nichts bringen. Ich bin hier übrigens mal raus. Gruß, Nils
  17. Moin, um einen SQL Server in einer Virtualisierungsfarm zu betreiben, in der die VM den Host wechseln kann, brauchst du nicht zwei Lizenzen, sondern eine - aber die mit Software Assurance. Wenn mehrere "biologische" User auf einen SQL Server zugreifen, braucht jeder eine CAL. Auch wenn sie nur indirekt zugreifen wie in deinem Szenario. Wenn du einen SQL Server korrekt lizenziert einsetzen willst, solltest du dich nicht bei E-Bay informieren, sondern dich von einem kompetenten Systemhaus beraten lassen und dort auch die Lizenzen kaufen. Gruß, Nils
  18. Moin, na, du bist lustig. Hast du denn das andere schon ausprobiert? Ergebnis? Ein ADMX-Template dient nur dazu, Einstellungen einer Gruppenrichtlinie anzuzeigen. Es verändert aber nichts am System. Gruß, Nils
  19. Moin, keine Ahnung. Vielleicht versehentlich noch ein zusätzliches Fenster geöffnet? Ist die SQL-AUthentifizierung auf Serverebene (gemischte Authentifizierung) aktiviert? Gruß, Nils
  20. Moin, nein. Das wird nirgends mitgezählt oder konfiguriert. Das Verhältnis ist auch ein rein rechnerisches: Du hast eine Zahl von vCPUs, die den laufenden (!) VMs zugewiesen sind. Und du hast eine Zahl von Logischen Prozessoren (LP), vereinfacht gesagt die Cores. Das tatsächliche Scheduling (welche VM ist jetzt dran, welche LPs arbeiten die Aufgaben welcher vCPUs ab) macht der Hypervisor - seine Hauptaufgabe. Das machen alle Hypervisoren unterschiedlich, aber in der Regel sehr gut. Ob das Verhältnis in einer bestimmten Situation passt oder nicht, lässt sich nicht vorhersagen. Daher schränken manche Softwarehersteller ihre Supportaussagen ein, um diesen Faktor sozusagen vorsichtshalber auszuschließen. Technisch ist, wie gesagt, ein Verhältnis von 5:1 oder auch 10:1 in der Praxis meist okay für virtuelle Server. Bei VDI packt man oft sogar noch dichter, weil Clients meist weniger CPU-intensiv arbeiten. Gruß, Nils
  21. Moin, ja selbstverständlich kannst du mehr VMs betreiben als du Cores hast. Dafür ist die Virtualisierung doch da! Es kommt auch nicht auf die VMs an, sondern auf die vCPUs, die du diesen zuweist. EIn Verhältnis zwischen vCPU und "Core" von 5:1 oder 10:1 ist in den meisten Umgebungen technisch kein Problem. Einzelne Anwendungen haben Supporteinschränkungen, wenn das Verhältnis höher ist als 2:1, aber das ist die Ausnahme (und dann auch eine Supportfrage, die Funktion ist nicht eingeschränkt). [Hyper-V-Sizing: Virtuelle und echte CPUs | faq-o-matic.net] http://www.faq-o-matic.net/2011/01/26/hyper-v-sizing-virtuelle-und-echte-cpus/ Gruß, Nils
  22. Moin, darf ich mal nach dem Sinn des Ganzen fragen? Geht es um Exchange 2010? Dafür braucht man doch keine SSD ... Gruß, Nils
  23. Moin, <räusper> siehst du, das meine ich. Schön, dass du noch ein Beispiel lieferst. Ich habe dir oben das gesagt, was aus meiner Sicht zu dem Thema zu bedenken ist. Damit verabschiede ich mich aus dem Thread, anonymes Gepöbel muss ich mir nicht anhören. Gruß, Nils
  24. Moin, 1 und 2 hängt vollständig von dir ab. Zu 3 wird hier niemand was sagen. Aus gutem Grund. Du solltest dir mal Gedanken zu deinem Auftreten machen. Gruß, Nils
  25. Moin, ich würde das über Gruppenrichtlinien mit GPP machen. Gruß, Nils
×
×
  • Neu erstellen...