Jump to content

StefanWe

Members
  • Gesamte Inhalte

    1.466
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von StefanWe

  1. Soltle soweit ja eigentlich korrekt sein. config: parameter
  2. jap, immer nachdem der Dienst startet, steht im Eventlog die Meldung wie oben mit der Eventid 12. Es gibt auch nur eine Domäne im Gesamtforest. Per DNS ist der Zeitserver auch auflösbar.
  3. Nein.. Interesannterweise sagt der FW Admin, dass kein NTP Traffic an der FW ankommt. Obwohl das GW richtig ist und auch der Type in der Registry auf NTP steht... Also scheinbar versucht der Server mit irgendeiner anderen Zeitquelle zu kommunizieren..
  4. Hallo, auf einem unserer DC's erhalten wir die Event ID 12 mit folgendem Fehler: Ich habe bereits einen externen NTP Zeitserver eingestellt, auch bin ich nach dieser Anleitung von MS vorgegangen: Event ID 12 Doch leider, sobald ich den Zeitdienst neustarte, erhalte ich obige Fehlermeldung wieder. Ein w32tm /resync sagt mir, dass die Zeit nicht aktualisiert werden kann. Jemand eine Idee?
  5. Bei einem ordentlichen SAN hast du aber alles innen drin Redundant ausgelegt. Das einzige, wenn dein Chassie kaputt geht, hast du ein Problem, aber ich glaube kaum, dass LKWs durch dein RZ fahren ;) Bei deiner VDI Umgebung musst du die Win 7 Lizenzen + VDA Lizenz oder alternativ die Software Assurance im Preis mitbedenken. Und eben der Administrative Overhead und eben der enorme Storage bedarf bei sovielen VM's. Rechne mit 30GB pro VM * 80 bist du bei 2,4TB allein für deine virtuellen Desktops. Und wenn du die mit,s agen wir mal 5 2TB SATA Festplatten betreiben möchtest, dann wird deine Umgebung sehr sehr langsam laufen.
  6. Das klingt nach einem schönen kleinen Projekt für einen IT Dienstleister. Ohne eigene Erfahrung wirst du sehr viele Stolpersteine bekommen. Hol dir lieber externe Hilfe. Und zu deiner Frage, ja du kannst 80 VMs auf einem Hypervisor betreiben, die Frage ist nur, ob du genügend Geld in die Hand nehmen willst, damit dein Hypervisor und auch Storage die Kapazitäten abfangen kann... Achja, schon mal ans Management der 80 virtuellen Desktops gedacht? :cool: PS: Eine VDI Umgebung ist in der Regel deutlich teurer als eine Terminalserver Umgebung. Du kannst ja deine vorhandenen Clients behalten, vor allem brauchst du in die Clients keine teuren SSD Festplatten bauen, wenn sie eh nur als "Client zum Bildanzeigen dienen sollen"
  7. Bei dem System Center musst du nicht alle Clients und Server lizenzieren. Du musst nur dass lizenzieren, was du auch verwaltest. D.h. wenn du nur 4 Hyper-V Hosts verwalten willst, dann brauchst du nur 4 Server Management Lizenzen(SML). (Darfst dann alle Produkte einsetzen, aber eben nur für die 4 Server). SCVMM kann derzeit aber noch nicht HyperV 2012 verwalten. Hier müssen wir auf das SP1 warten. Bei einem VDI Projekt für 60 Desktops wäre ich vorsichtig. Das ist nicht mal eben so aufgesetzt. Hier können euch zig Probleme über den Weg laufen. Allein schon, dass das Storage auch die benötigte IOPS Leistung schafft. Welche Warenwirtschaft habt ihr denn, dass diese nicht Terminalserver fähig ist? Ob jetzt VMware oder Hyper-V, tja genau genommen ist es wohl eine Preis und auch Geschmackssache. PS: Zur VDI Umgebung kann ich aus Erfahrung sagen, dass 90% meiner Kunden eine Desktop Umgebung haben wollen, eigentlich VDI meinen, aber eine Terminalserver Umgebung brauchen ;) In meinen Augen macht VDI nur in ganz bestimmten Sonderfällen Sinn. Alles andere würde ich mit Terminalservern abfangen.
  8. Für XenServer und VMware könnte ich die backup Software PHD empfehlen. Ist eine virtualle Appliance zum sichern von VM's mit deduplizierung. Und super einfach zu konfigurieren.
  9. Ich bin auch dafür. Außerdem, vielleicht würden die Beiträge zunehmen, wenn das Forum in den google oder Bing Suchergebnissen bei system center Fragen auch öfter auftaucht.
  10. Das einzige was ich als etwas zu mager definieren würde, wären die Festplatten. Du hast 4 SATA Festplatten in einem Raid 10. Ich würde mal schauen, ob du nicht auf SAS umstellen kannst für die virtuellen Maschinen.
  11. Hallo, gibt es eine Möglichkeit, die Metadaten der VM's so zu sichern, dass ich, falls mein Hyper-V Host (KEIN Cluster) abraucht, ich die VM's so wiederherstellen kann, ohne mein Backup Produkt zu benutzen, da die Dateien an sich ja alle noch vorhanden sind. Bis jetzt habe ich nur herausgefunden, dass ich VM's importieren kann, wenn diese zuvor exportiert wurden. Doch falls mein Hyper-V abschmiert, habe ich ja alle VHDs und die Metadaten(Konfigurationen) der VM's. Nur wie bekomm ich diese dann wieder in den Host?
  12. RemoteFX ist ziemlich cool. Allerdings wird bei RemoteFX eine Grafikkarte mehreren VM's zur Verfügung gestellt. Was du suchst ist eher bei XenServer möglich. Hier kannst du einer VM direkt eine Grafikkarte zuweisen. Wird für HDX3D und XenDesktop benötigt, womit du virtuelle CAD Arbeitsplätze betreiben kannst.
  13. Ich habe mich wohl doch nicht geirrt. Das Datenarchiv habe ich über Neue Webseite Hinzufügen implementiert. Das Problem tritt nur mit Elementen auf, die über den Windows Explorer, also per Webdav hochgeladen werden. Ich habe einen Workflow, welcher mir das über Webdav hochgeladene Element eincheckt. Dieses Dokument liegt dann eingecheckt in der Ablagebibliothek. Wird also nicht in das Datensatz Archiv verschoben. Lade ich das Dokument über die Website Upload Funktion hoch, greift die Inhaltsregel sofort und das Dokument wird automatisch und sofort verschoben. Also der Workflow funktioniert und auch die Inhaltsregel. Aber beides Zusammen nicht. Eine Idee?
  14. hab mich komplett geirrt. Da gibt es gar keinen Task für.
  15. Hallo, ich habe ein Sharepoint 2010 Datenarchiv. Kann mir jemand sagen, wo ich den Task konfigurieren kann, zu welcher Uhrzeit die Dokumente von der Abgabe Biblothek ins Datenarchiv verschoben werden. Vielen Dank
  16. ok sorry ;) Aber es funktioniert nun auch. Ich musste wirklich die Management Packs erst importieren. Dachte von Anfang an, dass diese schon da sind. Nachdem ich die importiert habe, werden auch brav die Daten gesammelt.
  17. die englischen habe ich mir durchgesucht. Ok, d.h. sobald ich ein Management Pack habe, ist dieses sofort für alle aktiviert, bzw. SCOM erkennt das automatisch? Aber warum seh ich dann nirgends, wie viel Festplattenspeicher noch frei ist, oder wie meine CPU ausgelastet ist? Oder müssen diese Management Packs auch noch hinzugefügt werden?
  18. Hallo, ich wollte mich mal in den SCOM einarbeiten, aber musste feststellen, dass dieser alles andere als intuitiv gestaltet ist. Ich kenne mich mit Produkten wie Nagios oder PRTG recht gut aus, allerdings im SCOM komme ich überhaupt nicht zurecht. Installiert ist er und ich habe auch Agents verteilt. Soweit so gut. Nun wollte ich gerne mal meine lokalen Festplatten der Server überwachen. D.h. wieviel Speicherplatz wird verbraucht, bzw. ist noch frei. Ich habe die Technet Doku durchgewälzt und auch einige Blogs, aber ich komme überhaupt nicht weiter. Ich weiß, dass sich alles um die Management Packs dreht. Aber wie ordne ich ein MP zu einem Server zu? Bzw. wo definiere ich, was bei welchem Server zu überwachen ist ? Könnte mir vielleicht jemand kurz und knapp den Zusammenhang erklären, bzw. wie ich z.B. die Festplatten monitore? Vielen Dank schon einmal.
  19. Eine Möglichkeit wäre, SCCM von Microsoft einzusetzen. Für die Version 2007 gibt es ein Addon (Embedded Device Manager), damit lässt sich auch der Write Filter steuern. Damit kannst du Software auf die TC's installieren oder updaten. Du kannst auch Windows Updates Machen oder Konfigurationen ändern, oder sogar das ganze OS updaten. Ist natürlich etwas mächtig, SCCM nur für ein paar ThinClients einzusetzen. Für SCCM 2012 wird das Addon derzeit noch entwickelt. Evtl. zum Q1 2013.
  20. Das was du mit der Virtualisierung schreibst, sehe ich auch bei vielen Kunden bzw. von Kollegen. Jemand meint, ab 9 Platten in einem RAID bekommt er nicht mehr Performance, sondern das RAID wird wieder langsamer. Bei einem derzeitigen Kundenprojekt haben wir das Problem, dass RAM und CPU massenweise vorhanden sind, aber eben das Storage langsam ist. Glücklicherweise waren wir nicht der Dienstleister, der dieses Projekt begonnen hat. Pie mal Daumen, 25% beim Schreiben bei RAID 5 ist ne Aussage. Beim Lesen müsste es aber deutlich mehr sein, Pie mal Daumen wie viel? Würdest du denn die virtuellen Maschinen eher auf ein großes RAID mit vielen Disks legen, oder würdest du eher die Maschinen auf viele kleine Raids aufteilen? Ich persönlich würde jetzt eher ein großes RAID machen. Allein weil ich dadurch weniger Overhead an Speicherverlust habe.
  21. Zum VDI Thema gibt es ja diverse White Papers. Wenn man mit 30 IOPS pro Desktop rechnet bin ich bei 100 Desktops schon bei 3000 IOPS. Das sind meiner Meinung nach schon recht viel ;) Hast du irgendwo gute Lektüre, wo man sich all das noch mal in Ruhe nachlesen kann? Gerade auch im Bereich, wie size ich richtig. Woher weiß ich, welche IO Größe ich habe. Ich meine gelesen zu haben, das ESX Server mit 4K IOs von den Platten lesen, und in den RAM schreiben. Kann ich mir allerdings schlecht vorstellen. Die IO Größe wird also, wenn ich das richtig verstehe, von der Software, nicht vom OS bestimmt. Oder? Wie sieht das dann mit virtuellen Maschinen aus? Wer setzt dort die IO Größe?
  22. Pauschal würde ich jetzt behaupten in einem VDI Szenario brauche ich viele IOPS. Da die einzelnen VM's nicht viel Durchsatz benötigen, sondern eher viele kleine IOs haben. Kannst du für beide Szenarien Beispiel Konfigurationen nennen? Also, was brauche ich um mehr Durchsatz (MB) zu erzielen, und was brauche ich um die IOs zu erhöhen? Vielen Dank.
  23. Mh... sehr interessant. Und wenn ich jetzt frage, woher ich short oder Long writes bekomme, wirst du vermutlich sagen, dass es an der Software liegt. Richtig?
  24. Ok, das versteh ich jetzt mal überhaupt nicht. Warum ist bei einem RAID 5 ein Schreibvorgang 4 IOs? Wenn ich nur 3 Datenträger habe? Genaugenommen wird ja nur auf 2 Datenträgern geschrieben und auf dem 3. wird die Parität abgelegt. Wenn ich nun die 600 durch 4 Teile habe ich ja 50 IOs weniger als wenn ich kein Raid einsetzen würde.
  25. Hi, danke für die vielen Antworten. blazilla schreibt. MB lässt sich über die IO Größe berechnen. Wie bekomme ich diese denn eigentlich heraus? Etwas anderes noch. Nehmen wir an, eine Platte schafft 200 IOs. Wir nehmen ein Raid5 mit 3 Platten. D.h. wir würden dann 600 IOPS schaffen? Steht der maximal Wert immer zur Verfügung, oder durch was kann dieser herabgesetzt werden? Z.B. viele kleine Schreibzugriffe usw. Gerade hier weiß ich ja, wenn ich auf einer Platte Lese und Schreibe, dass die Performance stark in den Keller geht. Wie genau kann ich Tools wie IOMeter oder dem Windows Perf Mon trauen, wenn ich einen Test auf einem RAID ausführe und ich dort 240 IOPS angezeigt bekomme? Versucht ein System eigentlich immer die maximale IO Zahl vom Storage zu bekommen? D.h. wenn mein Storage 2000 IOPS zur Verfügung stellt und ich eine 10 GB Große Datei von A nach B kopiere, und nichts anderes auf dem System läuft, würden die 2000 IOPS hierfür genutzt? Vielen dank für die Mühe.
×
×
  • Neu erstellen...