Jump to content

Zebbi

Members
  • Gesamte Inhalte

    94
  • Registriert seit

  • Letzter Besuch

Reputation in der Community

10 Neutral

Über Zebbi

  • Rang
    Newbie
  1. MVA abgekündigt

    Hallo, hast Du schon Erfahrungen sammeln können? Hat für mich den anschein als wären die virtuellen Übungen alle gestrichen worden und nur noch Videos und Text über geblieben. Dann kann ich auch eins der MS-Bücher lesen, da ist zumindest der lerneffekt etwas höher als bei Video schauen. :( Gibts noch eine Möglichkeit an die alten Übungen (70-740 bis 70-743 -MCSA 2016) zu kommen?
  2. Hallo, nach einer kleinen Pause wollte ich mich wieder der Microsoft Virtual Academy widmen und dort die virtuellen Testaufbauten nutzen um mich auf den MCSA vorzubereiten. Nun finde ich aber nur noch Videos, statt selbstmach-Labs und den Hinweis das es eingestellt wird. Hat das Baby nun einen anderen Namen den ich partou nicht finde, oder gibts das jetzt wirklich nicht mehr? Gibts noch einen anderen Weg um an die Übungen aus den MS-Büchern zu kommen? (Da sind teilweise ja Vorarbeiten getroffen die viel Zeitaufwand sparen.)
  3. Danke, das sind durchaus Antworten mit denen ich gut leben kann! Ich hatte nur irgendwie das "Gefühl" ich müsste sowas selbst Dimensionieren können, hab aber schon meine bösen Probleme damit gehabt unsere Ansprüche zusammenzufassen, davon halbwegs realistische Preise für Hardware zu bekommen oder auch nur halbwegs einen Überblick über den Markt zu bekommen mal ganz abgesehen. Mittlerweile haben wir auch einen Termin mit einem Berater von dem ich mir etwas verspreche. Ein vorheriges Angebot von einem Dienstleister mit einer Cloudlösung war exorbitant teuer und an einigen Stellen vermutlich sehr unterdimensioniert. IBM haben wir bisher im Einsatz und unsere Erfahrung mit dem Support sind durchaus durchwachsen (einfaches geht fix, kompliziertes wurde nie gelößt).
  4. Da hier gar niemand antwortet, befürchte ich mal wieder zu oberflächlich gefragt zu haben. :( Ich brauch eine virtuelle Umgebung mit Terminalservern für ca 140 User, hauptsächlich mit Officenutzung. Derzeit ca 3GB-Ram je User (insgesamt ca. 420GB-RAM) und "mittlerer" CPU/IO-Last. Die 2016er-Hyper-V's sollen auf einem zentralen (möglichst redundantem) Storage liegen, das möglichst Ausfallsicher ist. Kann mir irgendjemand eine Einschätzung geben wie viele und welche Server/Storage ich brauche? Gibt's da irgendwelche Tools um sowas zu "messen"?
  5. splwow64.exe auf Terminalserver

    Hallo djmaker, jetzt wirds peinlich. Nein hab ich nicht, weil ich ja keinen Druckerserver nutze sondern die Drucker alle als lokal Drucker auf den Terminalservern eingerichtet sind (gaaanz Old school :( ). Somit hab ich die Druckverwaltung gar nicht! :( Kann ich die Rolle einfach so nachinstallieren um die Druckerverwaltung zu bekommen, oder verändert das etwas an der Art wie die bestehenden Drucker eingebunden sind? Ich hab den Druckerserver noch nie genutzt... :(
  6. splwow64.exe auf Terminalserver

    Hallo, auf einem unserer Terminalserver (Win 2008R2 aktueller Stand) hängt sporadisch die splwow64.exe (also der Wrapper für 32-Bit Druckertreiber) aber immer nur bei einem User zur Zeit bei 5%-CPU-Last (maximum, mehr CPU-Ressourcen bekommen die User nicht). Meldet sich der User ab, hängt die splwow64.exe wenig später beim nächsten User, aber immer nur bei einem zur Zeit! Während die splwow64.exe hängt, kann der User kaum was machen und es ist egal wie lange er nichts macht, die Last geht nicht wieder runter (hab es testweise mal ein langes Wochenende laufen lassen). Wir haben etliche alte (Etiketten-) Drucker als lokale Drucker per TCP eingebunden für die es nur 32Bit-Treiber gibt und die Jahrelang liefen. Die nun Alle auf "gut Glück" neu installieren, damit sich die Version in der vierten Stelle hinterm Komma ändert, wäre sehr zeitaufwändig, da die meisten Drucker dann bei jedem User per Hand neu eingestellt werden müßten (die Std.-Einstellung wird von der Software ignoriert). Im Ereignislog hab ich nichts finden können. :( Habt Ihr eine Idee wie ich den Fehler beheben, oder zumindest näher einkreisen kann?
  7. Ich glaub da mal was von Kompatibilitätsproblemem gelesen zu haben. Ist der auf dem aktuellen Hyper-V Konfiguratuionsstand gehoben?
  8. Hallo, bei uns steht an die gesamte, gnadelos veraltete, physikalische Serverstruktur austauschen. Daher wollte ich mal nach Anregungen und Kritiken fragen. Noch ist nämlich die Entscheidung nicht gefallen, ob es eigene HW oder Cloud wird. Da aber 5 Jahre als Vergleichszeit Herhalten, wird wohl eigene HW die Lösung werden. Derzeit nutzen wir neben einem dutzend kleiner Server mit sehr geringem Ressourcenverbrauch u.A. auch 5 physikalische Windows Server 2008R2 Terminalserver (2 Xeon E5620 mit 96GB-RAM) auf älteren HS22-IBM-Blades die an ein IBM DS3400 SAN angeschlossen sind. Da die Hauptsoftware nur Terminalserver unterstützt kommen wir nicht um die TS herum. Diese verwendete Software ist relativ RAM und IO-Lastig, da sie auf MS-Access aufsetzt, so dass die Server derzeit ab 30 Usern stark in die Knie gehen. Hauptflaschenhals ist derzeit die IO-Last auf den Platten (vernünftige SSDs werden nicht supportet). Die Server nutzen alle lokale SAS-Platten und Ordnerumleitungen um Userordner auf das SAN am Fileservercluster zu lenken und so etwas mehr Perfomance und Plattenkapazität zu erlangen, was uns aber wieder andere Probleme verschafft (PST auf Share, 1GB-LAN...). Derzeit sind der MS-SQL-Server (HW wie die TS) und das SAN unsere einzig relevanten Single Point of Failure, die TS und der SQL sind am Resourcenlimit (IO fast immer auf Anschlag, CPU und RAM sind im Durchschnitt bei 40% Last) und die gesamte Domain ist so verhunst, das ich bei Null starten möchte um endlich alle Altlasten los zu werden (derzeitiger Domänenstand ist 2003, Ursprung wohl NT und wohl gerne als Testsystem mißbraucht, was wohl hier und da auch die DCs unnachvollziehbar verstellt hat). Dabei wollen wir dann am liebsten auch die letzen SPoF gleich mit abschaffen. :) Ein Lösungsansatz war bisher eine Software-Defined-Storage/Tiring Software ("DataCore") zu nutzen, die zwei (oder mehr) "Fileserver" als ein virtuelles SAN anbietet. Deren Vorteil wäre es, das es ihm völlig egal ist, wie das Storage erweitert wird, was uns Hardwareunabhängig macht und auch die Spiegelung des Storages und das Tiering (NVMe2, SSD, SAS-HDD) automatisch steuert. Dafür sind zwei SR650 Systeme von Lenovo im Gespräch, die redundant mit FiberChannel über FC-Switche (Lenovo B300) mit den Nodes verbunden werden. Allerdings würde das Konstukt schon einen Großteil des eigentlich geplanten Bugets auffressen... Hier fehlt mir noch eine vernünftige Alternative. Jedem physikalischen Server soll ein Hypervisor untergeschoben werden um Hardwarearbeiten auch während der regulären Arbeitszeiten durchführen zu können. Hier wurde aus Bugetgründen mit MS-Hyper-V geplant. Dafür sind ebenfalls Lenovos SR650 (4x10Gb-LAN + 4*1GB LAN, 2x16GB FC mit 364GB RAM) im Gespräch. Da die Terminalserver sehr Ressourcenhungrig sind, plan ich die 5 alten onPrimise TS Server durch 5 neue Nodes zu ersetzen. In dem Zuge werde ich die Anzahl der User pro TS von derzeit bis zu 45 Usern je Server auf ca 20 verringern, in dem ich mehre TS pro Node bereitstelle, damit der Absturz/Wartung einer TS-VM nicht gleich so viele User trifft und es zusätzlich besser skaliert. Der MS-SQL-Server soll am liebsten geclustert werden, ob/wie das genau funktioniert weiß ich noch nicht. Der "primäre" SQL-Server (sofern es das beim SQL-Cluster 2016 gibt) wird wohl einen eigenen Node bekommen. Den "Kleinkram" an Servern (welcher Leistungsmäßig zusammen problemlos auf einem Node laufen sollte), möchte ich über die "TS"-Nodes verteilen und dafür einen Node zusätzlich einplanen. Angedacht ist außerdem ein Node im Leerlauf als Reserve bereitzuhalten, damit wir ohne Performanceverlust auch die TS verschieben können. Ein physikalischen DC werden wir vor Ort nutzen (ohne Hyper-V), evtl. einen weiteren bereits vorhandenen in einem externen Rechenzentrum und/oder einen als VM in der neuen Umgebung. Das Backup läuft derzeit auf einem eigenstädigen Server mit "großen" lokalen Platten und einem LTO-7 über zwei verschiedene Produkte (was viele Probleme mit sich bringt). Hier wird sich wohl eine Ablöung auf Volumenberechnung durchsetzen, welches die VMs zentral auf Backup2Disk und anschließend als Backup2Tape sichern wird, ohne das wir die HW ändern müssen (außer evtl. 10GB-LAN-Erweiterung). Ja, so ganz ausgereift ist es noch nicht, zumal hier meißt die die Anforderungen gegen das Buget (noch 5-Stellig) prallen. Seht ihr große Denkfehler, Probleme oder Einsparpotenzial?
  9. Storage Spaces Direct - mehrstufig?

    So ganz weiß ich noch nicht wo es hingehen soll. :) Das ich ein SAN/RAID nicht mit anhängen können soll wundert mich gerade sehr, hätte schwören können das das geht... :( Ich muss mehrere Terminalserver und zwei SQL hochverfügbar bekommen und bei der Gelegenheit den "Kleinkram" (ca. 15 Server ohne nennenswerte Last) gleich mit umziehen. Dafür darf alles Neu. :) Ich möchte eine HA-Serverfarm unter Hyper-V hochziehen. Mindestens 4, eher 6 Nodes. Dazu alle Daten, inklusive der VMs, im CSV ablegen und fürs CSV zwei seperate Maschienen als Cluster am Fiber-SAN (ja ich weiß, das kann der HYper-V "eigentlich" mitmachen). Bedingung ist, das es skalierbar ist und OHNE MS-Abo auskommt, also nur mit Gebrauchtlizenzen (2016) - ja, ist nicht schön, aber meine Vorgabe. :( Mit Hyper-V hab ich bisher fast nur theoretische Erfahrung, die Praktischen beginnen erst, aber bisher klappts ganz gut.
  10. Storage Spaces Direct - mehrstufig?

    Schade, dann werde ich das Ding doch aussondern, dan halt ohne die letzte Stufe. :) Ich hab ein Angebot für eine neue Infrastruktur bekommen in der auch eine Tiering-Software enthalten ist die aber eigentlich überflüssig ist wenn SSD das auch mehrstufig kann.
  11. Hallo, Storage Spaces Direct unterscheidet doch eigentlich nur zwischen "schenellen" NVE/SSD-Speicher und "langsamen" HDDs. Kann man da mehrere Stufen definieren? Ich finde nur Beispiele für zweistufige Aufbauten bei denen die NVMe/SSDs immer als reiner Cache genutzt werden. Ich möchte NVMe, SSDs, zwei unterschiedlich schnelle HDD-Typen und sehr großen, aber langsamen iSCSi-Storage nutzen.
  12. Ich wills ja gar nicht deaktivieren sondern dynamisch! Bei uns ist ist fix auf 6%. Disk Fair Share wäre genial! Das brauch ich auf jeden Fall, darauf freu ich mich schon! :)
  13. Der Typ ist nicht mehr hier, aber ich habs noch an der Backe. :) Glaub aber gerade die Erklärung gefunden zu haben... Bei der Installation der TS-Rolle wird automatisch ein Registry-Wert gesetzt der Fair-Use garantieren soll, den man aber wohl an verschiedenen Stellen setzen kann. Nun muss ich nur noch rausfinden wo der bei uns fehlt und wieso. :) Gleichmäßige CPU-Zeitplanung und ausführlich...
  14. Hallo, auf Terminalservern unter Server 2008R2 scheint es eine feste Resourcenobergrenze für Remote-User von 6% CPU-Leistung zu geben. Zumindest bekommt bei uns kein User mehr als 6% CPU-Last, egal was er macht, selbst der Admin nicht. Das ist auch unabhängig davon, wie viele Remoteuser den Server gerade nutzen. Weiß jemand wie ich das verändern kann und wie es damit unter Server 2016 verhält? Eine dynamische Aufteilung ((100% - X%Für Hintergrundaktivitäten)/Anzahl_User) würde doch viel mehr Sinn machen...
  15. Hallo, gibt es die Möglichkeit ein Eventlogeintrag auszulösen wenn ein bestimmtest Programm gestartet wird? Ich möchte zu einem wissen wie oft und wann das Programm am Tag gestartet wird und zum anderen ein Script starten wenn es öfter als X-Mal gleichzeitig gestartet wurde. Klar, ich könnte nun alle paar Sekunden die tasklist aufrufen lassen, aber das dürfte ganz gut auf die Performance gehen und die EXE einfach durch ein Script austauschen möchte ich auch nicht, da dort unzählige User-Verknüpfungen drauf verweisen.
×