Jump to content

Zebbi

Members
  • Gesamte Inhalte

    136
  • Registriert seit

  • Letzter Besuch

Beiträge erstellt von Zebbi

  1. vor 27 Minuten schrieb Dukel:

    Was für Daten willst du "tieren"?

    So ganz weiß ich noch nicht wo es hingehen soll. :)

    Das ich ein SAN/RAID nicht mit anhängen können soll wundert mich gerade sehr, hätte schwören können das das geht... :(


    Ich muss mehrere Terminalserver und zwei SQL hochverfügbar bekommen und bei der Gelegenheit den "Kleinkram" (ca. 15 Server ohne nennenswerte Last) gleich mit umziehen.  Dafür darf alles Neu. :)

    Ich möchte eine HA-Serverfarm unter Hyper-V hochziehen. Mindestens 4, eher 6 Nodes. Dazu alle Daten, inklusive der VMs, im CSV ablegen und fürs CSV zwei seperate Maschienen als Cluster am Fiber-SAN (ja ich weiß, das kann der HYper-V "eigentlich" mitmachen). Bedingung ist, das es skalierbar ist und OHNE MS-Abo auskommt, also nur mit Gebrauchtlizenzen (2016) - ja, ist nicht schön, aber meine Vorgabe. :(
    Mit Hyper-V hab ich bisher fast nur theoretische Erfahrung, die Praktischen beginnen erst, aber bisher klappts ganz gut.
     

  2. vor 56 Minuten schrieb Dukel:

    Was ist denn dein Ziel?

     

    iSCSI wird nicht mit Storage Spaces Direct funktionieren.

    Schade, dann werde ich das Ding doch aussondern, dan halt ohne die letzte Stufe. :)

     

    Ich hab ein Angebot für eine neue Infrastruktur bekommen in der auch eine Tiering-Software enthalten ist die aber eigentlich überflüssig ist wenn SSD das auch mehrstufig kann.

  3. Hallo,

     

    Storage Spaces Direct unterscheidet doch eigentlich nur zwischen "schenellen" NVE/SSD-Speicher und "langsamen" HDDs.
    Kann man da mehrere Stufen definieren? Ich finde nur Beispiele für zweistufige Aufbauten bei denen die NVMe/SSDs immer als reiner Cache genutzt werden.
     

    Ich möchte NVMe, SSDs, zwei unterschiedlich schnelle HDD-Typen und sehr großen, aber langsamen iSCSi-Storage nutzen.
     

     

  4. Gerade eben schrieb testperson:

    du könntest durch aktivieren dieser Policy CPU Fair Share deaktivieren: https://gpsearch.azurewebsites.net/#4966

    Ich wills ja gar nicht deaktivieren sondern dynamisch! Bei uns ist ist fix auf 6%.

    Gerade eben schrieb testperson:

    Gilt auch für 2016 RDSHs. Dort gibt es aber auch noch Net Fair Share und Disk Fair Share was sich aber nur per Registry Key abschalten lässt.

    Disk Fair Share wäre genial! Das brauch ich auf jeden Fall, darauf freu ich mich schon! :)

  5. Der Typ ist nicht mehr hier, aber ich habs noch an  der Backe. :)

    Glaub aber gerade die Erklärung gefunden zu haben...
    Bei der Installation der TS-Rolle wird automatisch ein Registry-Wert gesetzt der Fair-Use garantieren soll, den man aber wohl an verschiedenen Stellen setzen kann. Nun muss ich nur noch rausfinden wo der bei uns fehlt und wieso. :)

    Gleichmäßige CPU-Zeitplanung

     

    und ausführlich...

  6. Hallo,

     

    auf Terminalservern unter Server 2008R2 scheint es eine feste Resourcenobergrenze für Remote-User von 6% CPU-Leistung zu geben. Zumindest bekommt bei uns kein User mehr als 6% CPU-Last, egal was er macht, selbst der Admin nicht. Das ist auch unabhängig davon, wie viele Remoteuser den Server gerade nutzen.
    Weiß jemand wie ich das verändern kann und wie es damit unter Server 2016 verhält? Eine dynamische Aufteilung ((100% - X%Für Hintergrundaktivitäten)/Anzahl_User) würde doch viel mehr Sinn machen...
     

  7. Hallo,

     

    gibt es die Möglichkeit ein Eventlogeintrag auszulösen wenn ein bestimmtest Programm gestartet wird?
    Ich möchte zu einem wissen wie oft und wann das Programm am Tag gestartet wird und zum anderen ein Script starten wenn es öfter als X-Mal gleichzeitig gestartet wurde.

    Klar, ich könnte nun alle paar Sekunden die tasklist aufrufen lassen, aber das dürfte ganz gut auf die Performance gehen und die EXE einfach durch ein Script austauschen möchte ich auch nicht, da dort unzählige User-Verknüpfungen drauf verweisen.

     

     

     

  8. Gerade eben schrieb Nobbyaushb:

    Archivierung-Soft (Hardware) brauchst du trotzdem, denn Archivierungs-Pflichtig seid ihr sowieso...

    Dachte ich auch, bis sich die Führungsetage mit einer hochrangiogen Anwaltskanzlei zusammengesetzt hat. Alle Verkaufsgeschichten sind im zertifzierten Warenwirtschaftssystem festgehalten, alles was die GF angeht und relevant wäre, geht letzendlich den Papierweg. Zahlungsgeschichten sind Outgesourced.

    Ja, sauberer wäre es, rechtlich wohl aber akzeptabler Graubereich... Kommen wirds wohl trotzdem, alleine um auf Nr. Sicher zu gehen.

  9. Hallo MrCocktail,

     

    ja, wir hatten den Lizenzgeber sogar hier und haben Ihn gebeten es sich genau anzuschauen und von Ihm eine Absegnung und letzendlich ein Tool bekommen um den live Lizenzstand zu sehen. Ist also alles Ok und keine krumme Sache. :)

    Der Exchange ist aktuell, die Officeversion ist NOCH fest an das Warenwirtschaftssystem gebunden und somit im Moment noch eine uralte Version.
    Da müssen erst noch die Programmier bei und hardcodierte Pfade usw. entfernen. Ja, wird lustig und bestimmt "total günstig", aber leider billiger als komplett Neu. :(

     

    OWA scheint mir aber auch die einizge praktikable Lösung sofern es sich mit dem Warenwitschaftssystem und den "das haben wir schon immer so gemacht"-Usern vereinen läßt. Da gibts noch noch ein paar Outlook-Addins von 3.-Anbietern, die zwar wenig, aber leider von den Entscheidungsträgern genutzt werden... Mal schauen was ich damit natstelle... ;)

     

    --> Also OWA, statt Outlook --> keine OST/PST (erspart dann ggf. auch die Archivierungs-SW)
    --->Normale Ordnerumleitung statt UPDs da doppelte Anmeldung bei UPDs nicht geht
    ----> TS-Farm

     

     

     

  10. Die Multimonitorlösung funktioniert auch Serverseitig, nur das Warenwirtschaftssystem kommt damit nicht wirklich klar und stellt Dialoge dann gerne mal Mittig der beiden Monitore da. Lizenzvorteile haben wir dadurch, das wir je RDP-User zahlen müssen, nicht je Session oder realem User. Praktisch ist es aber wieder auf drei Instanzen je Session begrenzt, also sechs Instanzen bei zwei gleichzeitigen Sessions und das kurioseste daran ist, das die User es so sogar nutzen...
    Außerdem sind viele Dialoge mit fester Pixelgröße codiert, macht also keinen Sinn das zu maximieren und Fenster nebeneinander zu legen oder dergleichen, ist halt grundliegend ein versautes System. ;) Lohnt also nicht sich darüber Gedanken zu machen. :D

     

    Also scheiden UPDs auch aus, schade... Ist halt eine scheiß knauserei... :(

     

  11. Die lokalen Anbieter müssen alle erst buddeln und wollen im Schnitt 30k€ allein fürs Kabel haben, dafür bekomme ich kein Ok von der GF, da noch nicht klar ist wie lange wir noch am Standort bleiben. :(
    Die Cloud fällt weg, weil die GF den Preis nicht auf 2-3 Jahre, sondern eher auf 5-7 (gefühlt 10) Jahre rechnet, da kommt preislich kein Cloudanbieter gegen die on-Primes-Lösung an.

    Eine Archivierungslösung steht noch aus, ist aber (theoretisch) geplant. Die entschärft das Problem zwar, lößt es aber nicht komplett, da einige Freigaben unmengen an Mails empfangen und bei sehr vielen Usern eingehängt sind.

     

    Bei uns sind derzeit viele User doppelt mit einen Account am Terminalserver angemeldet, da so die Arbeit an Doppelmonitorplätzen praktikabler ist (Outlook läuft dann nur auf einer Anmeldung) und für uns gewaltige Lizenzvorteile hat. Hat jemand Erfahrung wie sich so eine Doppelanmeldung mit UPDs verträgt, also doppelter Zugriff auf eine VHDx? Geht das überhaupt?

     



     

  12. Hallo,

     

    nach etlichen Jahren Flisckschusterrei hat die Geschäftsführung uns eine komplette Neuausstattung an HW&SW in Aussicht gestellt. :) Juhuu. :)

     

    Nun hab ich aber noch immer ein großes Gesamtproblem:

    1. Das Warenwirtschaftssystem bleibt und ist auf Terminalserver angewiesen, also brauche ich Terminalserver (gibts nur hier lokal als HW, keine Cloud). --> Soweit OK.
    2. Will die Geschäftsführung den Mailserver weiterhin nur extern hosten lassen (zum Teil aus Rechtsgründen). Mir Recht, ein komplexes Aufgabengebiet weniger.
    3. Gibts hier kein schnelles Internet (20MBit für 200User), also muss ich die Mails in PST-Dateien umleiten und freigegebene Postfächer in OST-Dateien cachen, sonst bricht die Performance total zusammen (haben wir getestet). -> Da kommt das Problem...

     

    Habt Ihr einen Tipp wie ich das nun am sinnvollsten handhabe? Ich möchte die User ungerne an einen Server festbinden (das haben wir jetzt und ist schei...), sondern eine TS-Farm aufsetzen, aber bei jeder Anmeldung jedes Users dessen OSTs komplett neu erstellen geht nicht, dann wäre die Leitung dicht. Die PST kann ich ebensowenig auf ein Share legen (ist von MS nicht supportet und führt hier jetzt ständig zu Problemen) und per An-/Abmeldescript hin und her kopieren dauert viel zu lange... Das Webinterface für Mails kommt auch nicht in Frage, da das Warenwitschaftssystem Outlook nutzt.

     

    Früher konnte man einen Mailserver mal als Readonly/Cache einrichten, aber das geht wohl nicht mehr... :(

     

    Irgendeine Idee?

     

    --> Bin gerade über "User Profile Disk" gestolpert. Die scheinen mein Problem zu lösen, oder wenn ich an die Fragmentierung denke zu verlagern. ;)

     

  13. vor 40 Minuten schrieb NilsK:

    Moin,

     

    Outlookdateien?! Ihr habt aber keine PSTs auf Netzlaufwerken, oder? Das ist nicht nur nicht supported, sondern auch ein prima Mittel, um Datenverluste zu erzeugen.

     

    Gruß, Nils

     

    Wie gesagt, tolle Altlastlasten... ;) Das Thema hatten wir aber schon mal, damals hatten alle die Hände über Kopf zusammengeschlagen und Mitleid ausgesprochen... ;)

  14. Danke,

    das erklärts. War davon ausgegenagen das die "nachgereicht" werden. Dann muss ich das lokal machen.

     

    Geht nur darum, dass wir immer zu einer bestimmten Uhrzeit sehr viel Plattenlast haben und der erste Gedanke war, dass sich ein User mit SEHR großen und defekten Outlookdateien anmeldet, die dann selbstständig "repariert" werden. Andere Plattenlastverursacher haben wir hier nämlich bisher nicht und die Outlookdatein sind eine fehlkonfigurierte Altlast mit der wir noch kämpfen.
    Eine wirklich Lösung um NACHTRÄGLICH zu sehen wer gerade wie Plattenlast erzeugt hat, hab ich bisher noch nicht gefunden.

  15. Hallo,

     

    ich frag das ActiveDirectory per Powershellbefehl nach dem letzten Login der User, aber da sind definitiv veraltete Einträge, z.B. von meinem Testuser den ich direkt davor eingelogt hab, aber auch von Usern die sich mehrfach angemeldet haben oder solchen die sich definitiv schon vor ca. zwei Stunden angemeldet haben...

    Hängt das an der Synchronisation im AD, oder was mach ich da falsch? 

    Get-ADUser -Filter {name -like "*"} -Properties LastLogOnDate |FT -Property Name, LastLogonDate -A

    Hintergrund ist das wir zum Troubelshooting feststellen müssen welche User sich zu einer bestimmten Zeit anmelden.

  16. vor 31 Minuten schrieb lefg:

     

    VLAN ist Layer 2, IP ist Layer 3

     

    Falls das Netzwerkinterface des Rechners, der Treiber, für mehrere VLAN-Stapel(L2) konfiguriert werden kann, jedem Stapel auf L3 eine IP verpasst. Das A&O ist, das Netzwerkinterface des Rechners, dessen Treiber muss mitspielen.

    Ahh, alle Treiber die ich bisher gesehen hab können nur einen Tag anhängen, Stapel hab ich bisher noch nicht gesehen. Klar das würde Sinn machen. :)

    Wenn ich aber, mangels guten Treibers, statt dessen den Port am Netgear Untagged in mehrere VLANs hänge (was ja bei Netgear erlaubt ist), dann landen meine Pakete doch in all den VLANs, oder nicht? Sicherheitsaspekte mal komplett außer Acht gelassen, hätte ich so doch einen ganz simplen Admin-Port der in mehren Netzen wäre, oder nicht?

    Doofe Frage, aber ist da noch ein anderer Unterschied zwischen Taged und Untagged als vereinfacht gesagt festzulegen ob
    1. Untagged: ) der Switchport den Tag anhängt, oder ob
    2. Tagged: ) das Paket schon getagged kommen muss um nicht im default VLAN zu landen?
     

  17. Eben das (Set-VMFirmware "Test-VM" -EnableSecureBoot Off) klappt bei mir nicht. :(
    Schalte ich SecureBoot so ab und will installieren, hängt sich die Installation beim Booten auf. :(

    Installiere ich unter unter Win10 (8.3er Konfig-Stand) vom gleichen Image, läuft es, sowohl mit als auch ohne SecureBoot und das Problem hab ich auf zwei frischen Servern die beide nur auf Version 8.0 sind...

  18. vor 9 Minuten schrieb NorbertFe:

    Wahrscheinlich gar nicht. :) Denn dafür müßtest du dann Windows Server 2016 mit SA besitzen afaik und selbst dann ist die 1803 eben kein "vollwertiger" WIndows Server 2016.

    Na Danke Microsoft,  dann ist der letzt mögliche Updatestand also seit Monaten unnutzbar. :(

    Dann begebe ich mich mal auf die Suche nach dem "Update" das den Bug mitbrachte und hoffe es deinstallieren zu können.

     

  19. vor 22 Stunden schrieb testperson:

    Danke,

    die Liste kenne ich schon, dann frag ich anders herum. :)
    Wie komme ich von Windows Server 2016 Version 10.0.14393 auf Version 1803? Updates findet er ja keine mehr. :(
     

  20. Hallo,

     

    ich hab hier zwei der kostenlosen Hyper-V 2016, also ohne GUI. Obwohl ich alle Updates installiert hab, ist bei Virtuellen Maschienen bei Konfigurationsversion 8.0 Schluß, auf meiner Win10 Maschiene gibts aber Version 8.3. Ist da irgendein Update an mir vorbei gegangen, oder ist das "richtig" so?

     

    Eigentlich will ich nur den Bug bei der 8.0er Version ("Ladefehler" beim Punkt "Sicherheit" im Hyper-V Manager der VMs) loswerden.

×
×
  • Neu erstellen...