Jump to content

Knorkator

Members
  • Gesamte Inhalte

    438
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Knorkator

  1. Hallo, ich vermute, dass wir ein Problem mit dem KB3097877 Update von letzter Woche haben. http://www.administrator.de/wissen/windows-10-threshold-2-update-legt-eset-sicherheitsl%C3%B6sung-lahm-288474.html https://support.microsoft.com/en-us/kb/3097877 Einige Notebooks bzw. Notebookuser können sich nicht mehr anmelden bzw. bleibt der Desktop Schwarz.. man sieht nur den Mauszeiger. Zusätzlich ist auch ein Desktop-Arbeitsplatz betroffen. Ein Login mit einem lokalen Administratorkonto ist möglich, es ist scheinbar nur das zuletzt angemeldete Domänenbenutzerkonto betroffen. Über das Adminkonto kann ich das Update auch entsprechend deinstallieren. Leider kann sich der User danach immer noch nicht anmelden! Nach Löschung des lokalen Benutzerprofils ist ein Login wieder möglich.. allerdings nur 1x. Eine 2. Anmeldung führt wieder zu o.a. Problem... Nur Mauszeiger, kein Task-Manager etc. Eine Systemwiederherstellung hat auch nicht weitergeholfen.. erstes Login funktioniert, weitere nicht. Wir verwenden übrigens lokale Profile mit Desktopumleitung. Hat jemand eine Idee? Vielen Dank! edit: Habe die Frage noch im TechNet Forum gestellt. https://social.technet.microsoft.com/Forums/windowsserver/de-DE/c12387cb-3518-4459-999c-b848143fcab8/kb3097877-fehler-trotz-systemwiederherstellungdeinstallation-installation-von-neuer-version?forum=w7itprogeneralde
  2. Hallo willy, erstmal Danke!! Die Doppelklick-Installation läuft jetzt zumindest ohne Fehler durch! Eine Installation per User-Anmeldescript will irgendwie nicht... evtl. fehlerhafte Startparameter oder Admin-Berechtigungen weil die Datei "aus dem Internet ist". Im Vergleich zur Estos Software ist Myportal murks, da stimme ich Dir zu! Schönes Wochenende!
  3. Hallo, ich verteile eine angepasste Java 32bit Version per Script auf unsere Windows7 Systeme. Wir hatten bisher keine Probleme mit lokalen Java Applikationen. Gemäß https://pointlessparody.wordpress.com/2015/03/20/tutorial-java-runtime-per-gpo-verteilen-inklusive-deinstallation-aller-alten-java-runtime-updates/ wurde die .mst Datei wie folgt angepasst. AUTOUPDATECHECK 0 ENDDIALOG 0 IEXPLORER 0 -> Per Default deaktiviert. JAVAUPDATE 0 JU 0 MOZILLA 0 -> N.v. RebootYesNo 0 Nun möchte ich die Myportal / Communicationsclients Software von Unify installieren. Dieses schlägt fehl mit der Info das ich bitte Java installieren soll. Ersetze ich die gescriptete Java Installation durch eine normale Doppelklickinstallation von Java (incl. Updategedöns), läuft die Installation fehlerfrei durch. Anhand der beiden .msi Lodgdateien kann ich leider keinen schuldigen finden. Hier mal die Auszüge: Per Script installierte Java Version => Abbruch der Installation Action start 08:11:05: InstallInitialize. MSI (s) (E4:D4) [08:11:08:161]: Doing action: AllocateRegistrySpace Action ended 08:11:08: InstallInitialize. Return value 1. Action start 08:11:08: AllocateRegistrySpace. MSI (s) (E4:D4) [08:11:08:177]: Doing action: NoJava64Found Action ended 08:11:08: AllocateRegistrySpace. Return value 1. MSI (s) (E4:D4) [08:11:08:177]: Note: 1: 2235 2: 3: ExtendedType 4: SELECT `Action`,`Type`,`Source`,`Target`, NULL, `ExtendedType` FROM `CustomAction` WHERE `Action` = 'NoJava64Found' Action start 08:11:08: NoJava64Found. MSI (s) (E4:D4) [08:11:08:177]: Product: CommunicationsClients -- Please ensure that you have the Java Runtime Environment already installed before installing this setup. The Java setup can be downloaded from http://www.java.com The installation will terminate now. Please ensure that you have the Java Runtime Environment already installed before installing this setup. The Java setup can be downloaded from http://www.java.com The installation will terminate now. Manuell installiere Java Version => Installation läuft durch Action start 08:22:55: InstallInitialize. MSI (s) (7C:B0) [08:22:59:460]: Doing action: AllocateRegistrySpace Action ended 08:22:59: InstallInitialize. Return value 1. Action start 08:22:59: AllocateRegistrySpace. MSI (s) (7C:B0) [08:22:59:460]: Skipping action: NoJava64Found (condition is false) MSI (s) (7C:B0) [08:22:59:460]: Skipping action: NoJava32Found (condition is false) MSI (s) (7C:B0) [08:22:59:460]: Doing action: ProcessComponents Action ended 08:22:59: AllocateRegistrySpace. Return value 1. Hat jemand eine Idee? Vielen Dank!
  4. Hallo, if (($display -eq 21) -or ($display -eq 14) -or ($display -eq 7) -and ($_.MemberOf -like "*Gruppe_die_Informiert_wird*")
  5. Hast Du 2 USV Einheiten an getrennten Stromkreisen? Falls Dir mal eine USV daherfliegt nützten die 2 Netzteil auch nicht. Stimme Dukel zu. Das Geld für eine BBU sollte vorhanden sein!
  6. Teamviewer bietet doch 2 ID´s an. Einmal für die Console und einmal für RDP.
  7. Hallo zahni, danke für den Link. Da hab ich wohl falsch gesucht... Average Pressure – Pressure is synonymous with availability. This is a calculation of how much memory the VM wants divided by the amount of memory the VM currently has and then multiplied by 100 [ie; (Mem Wanted/Mem allocated)*100 ] Average pressure at this level is the average pressure of all VM’s at any given time. As long as this number stays under 100, you have enough available memory to service all virtual machines. If you go over 100, then you have VM’s that are doing paging operations with the VM itself and you will see performance degradation. For best performance with less risk of paging operations, this number should consistently be below 100 with no spikes above. Ideally around 80, though highly tuned systems that are very dense may run higher.
  8. Hallo, ich möchte gerne die Speicherbelastung/Auslastung unserer Hyper-V Systeme mit Zabbix Monitoren. Lt. http://tinyurl.com/bjx7dvm ist u.a. dieser Counter relevant (Deutsch: Hyper-V-Ausgleichsmodul für dynamischen Arbeitsspeicher(System Balancer)\Durchschnittliche Auslastung ) Hyper-V Dynamic Memory Balancer –> Average Pressure – This will allow you to see what the average available memory is at the host level over a period of time. This is great for establishing a baseline and continued monitoring over time to determine if workloads need to be s hifted or more memory should be added to the host. Zu Testzwecken habe ich mir den Counter auf einem Testsystem mit 48GB Ram und einer VM angesehen. Die VM hat 4GB RAM (Dynamisch zugewiesen) und einen momentanen Speicherbedarf von 3465MB. Per Perfmon habe ich einen konstanten Wert von 83. Was sind diese 83? Prozent oder Bytes oder Eier pro Tonne?! Falls ich mir dem Counter auf dem Holzweg bin.... bitte um Info und ggf. um andere Counter. Vielen Dank
  9. Hallo, hier mal ein Vorschlag ohne Robocopy sondern mit der Powershell. Die beiden oberen Zeilen musst Du noch anpassen. Teste das ganze bitte vorher mit einem Testordner. $QuellOrdner="D:\Download\Testordner\Quellordner" $Script:ZielOrdner="D:\Download\Testordner\Ziel" $mkv=Get-ChildItem $QuellOrdner -Include *.mkv -Recurse foreach ($File in $mkv) { # Dieser Ordner wird später gelöscht $Quelle=split-path $file.FullName # .mkv Datei $Datei=split-path $file -leaf # Zielordner X gemäß Deiner Beschreibung $Projektordner=split-path (Split-Path $quelle -Parent) -leaf # Kombination aus e:\Videos und X $Zielpfad="$ZielOrdner\$Projektordner" # Kombination aus Zielpfad und Datei $ZieldateiFullname="$Zielpfad\$Datei" # Erstellung von Ordner X new-item $Zielpfad -ItemType directory -ea 0 # Verschieben der Date in e:\videos\X move-item $file $zieldateifullname Remove-item $Quelle }
  10. Klar hat der eine.. nennt sich bei den neuen Geräten übrigens FBU. Aber der Controller puffert ja nicht den Cache in den Festplatten sondern nur seinen eigenen Cache. Steh ich auf´m Schlauch?
  11. Gemeint war der Schreibcache der Festplatten, nicht der des Controllers. Die Systeme sind zwar mit einer USV Einheiten durch Ausfall geschützt.. aber trotzdem... Ist der Performancegewinn mit aktivierten Festplattencache spürbar?
  12. Hallo Nils, ich habe mich dann interessehalber mal mit SQLIO beschäftigt um zu schauen, wie die unterschiede bei den verschiedenen Raid/NTFS Modi sind. Verbaut ist ein EP420i Controller mit 2GB Ram sowie 6x300GB SAS 15K. DB1 -> Raid-1 mit Raid Stripe-Size 64Kbit sowie NTFS 64KB DB2 -> Raid-1 mit Raid Stripe-Size 256Kbit sowie NTFS 64KB DB3 -> Raid-1 mit Raid Stripe-Size 256Kbit sowie NTFS Default Wert. DB1-DB3 mussten verschiedene SQLIO Parameter durchlaufen (verschiedene Threads (1,2,4,8), IO´s (4,8), 8 und 64KB Blöcke durchlaufen. DB1 hatte die schlechtesten Ergebnisse, DB2 lieferte die besten Werte obwohl der Unterschied zu DB3 nur minimal war. Ob meine Testparameter überhaupt die richtigen waren kann ich mangels SQL Kenntnisse nur bedingt beurteilen. Nach Rücksprache mit Fujitsu ist man bei den neuen Controllern aus Performancegründen auf einen Default Stripe-Wert von 256KB übergegangen. Die bestätigen auch meine Testsläufe. Die Raid-Verbünde wurden dann jetzt mit 256KB Stripe-Size und 64KB NFTS Formatierung installiert. PS: Fujitsu scheint bei den neuen Controllern den Schreibcache der Festplatten zu aktivieren wenn die Cache Voreinstellung des Raid-Verbundes auf Leistung gestellt wird. Sollte man also besser nachprüfen und ggf. abschalten. Die Faktoren die die Datenbank / das ERP System betreffen überlasse ich den anderen Kollegen. :) Danke nochmal für Deine Hinweise.
  13. Hallo Nils, Vielen Dank für Deinen Ratschlag. Aber verkehrt kann es doch nicht sein, oder? Die Platten (Log,DB1-DB3) werden nur vom SQL genutzt. Gruß
  14. Welche Benchmarks meinst Du? Der neue Server orientiert sich am bisherigen System mit gleicher Plattenkonfiguration (nur halt 5 Jahre neuer und dadurch etwas flotter). Die Kombination der Hardware (15k SAS) sowie die Raid 1,10 Kombination sowie SQL2014 scheint mir jetzt nicht so unüblich. Danke
  15. Hallo MDD, 1) Die Datenbank ist für ein ERP System (MS Navision 2015). 2) Es handelt sich nur um eine einzelne Datenbank. Thx
  16. Hallo, ich muss einen neuen Server (Fujitsu RX2540Mi) Server für unseren DB Admin einrichten und hoffe, dass Ihr mir einen Ratschlag für die Raid / NTFS Konfiguration geben könnt. Wir haben: 1x Fujitsu EP420i SAS Controller incl. FBU 1x Raid1 - 10K für OS und als Ablage 3x Raid1 -15K (Speichergruppe: DB1,DB2,DB3) - Die Datenbank umfasst ca. 80GB. 1x Raid10 - 15K (Logfile) Die Empfehlungen im Netz für die Raid Konfiguration der Datenbank liegen bei 64KB für die Raid und NTFS Konfiguration. Bzgl. des Raid 10 für die Logdatei bin ich etwas unschlüssig welche Einstellung im Raid Setup gewählt werden soll. Die Default Stripe-Größe die der Controller vorschlägt liegt bei 256KB. Gleiches gilt für die NTFS Formatierung des Log-Laufwerkes.. da bin ich ebenfalls unschlüssig. Vielen Dank für jeden Tipp.
  17. Hallo magicpeter... wie schaut es aus? Problem gelöst?
  18. Funktioniert der Email-Versand an andere Domänen? Wenn ja... warte einfach ein wenig.. vielleicht liegt es nicht an Dir/Euch/Eurem Server. Kannst Du Emails an andere Empfänger in der Domain senden?
  19. So.. 2 Tage nach dem löschen bleibt der freie Speicherplatz konstant. Vielen Dank nochmal!
  20. Ob Video2Brain taugt oder besser ist.... das hängt u.a. vom Trainer ab glaube ich. Bei den Trainings gibt es doch immer kurze Ausschnitte, vielleicht kannst Du daran ja schon beurteilen ob das was für Dich ist. Weiterhin habe ich das Gefühl das die Themen (bzw. Inhaltsverzeichnisse) teilweise oberflächlich behandelt werden.... vielleicht kann ja noch jemand was zu Video2Brain schreiben. Bei CBT ist es hingegen so, dass die Trainings gezielt für die Zertifizierungen sind... Die Powershell Trainings von Don Jones sind übrigens sehr gut.
  21. Hallo Ihr beiden und Danke für die Ratschläge. DISKSHADOW> list shadows all Alle Schattenkopien auf dem Computer werden abgefragt... * Schattenkopiekennung = {d83c17d3-a65e-44a5-b711-eb675310e541} <No Alias> - Schattenkopiesatz: {9bec7cff-342c-464a-888a-5dfa0e55a189} <No Alias> - Ursprüngliche Anzahl von Schattenkopien = 1 - Ursprünglicher Volumename: \\?\Volume{f667426f-2a4b-11e2-b1c8-806e6f6e6963}\ [D:\] - Erstellungszeit: 20.06.2015 16:03:25 - Gerätename für Schattenkopien: \\?\GLOBALROOT\Device\HarddiskVolumeShadowCopy1 - Ursprungscomputer: HVS01.Domain.com - Dienstcomputer: HVS01.Domain.com - Nicht verfügbar gemacht - Anbieter-ID: {b5946137-7b9f-4925-af80-51abd60b20d5} - Attribute: No_Auto_Release Persistent Differential Anzahl der aufgeführten Schattenkopien: 1 Die Erstellungszeit des Snapshot entspricht der des letzten Neustarts. Ein delete shadows hat den Speicherplatz wie erhofft freigegeben. Ich werde mal schauen ob der freie Speicherplatz morgen wieder abnimmt. Vielen Danke
  22. Bzgl. Testumgebung... Wenn Dein Arbeitgeber die Zertifizierungen von Dir erwartet, sollte er Dir eine performante Umgebung zur Verfügung stellen. Und damit meine ich nicht das Dein Arbeitsplatzrechner 16GB Ram hat und eine 1TB Platte... Das "herumspielen" in einer Testumgebung ist extrem wichtig und mit 4-5 VM´s auf einer Platte wirst Du keine Freude haben! Ein gebrauchter Server mit 4-5 gebrauchten Platten und ordentlichem Raid Controller wirst Dein Chef Dir wohl bereitstellen können. Kosten: 700-800 Brutto. Beispiel ohne Platten: Ebay Nr: 261983182705 @Chateau: Video2brain und CBT stellen die Inhalte mitnichten kostenfrei zur Verfügung... Dein Chef sollte Dir dann auch gleich ein Video2Brain Abonnement spendieren.. preislich auch überschaubar! Viel Erfolg!
  23. Hallo, wir haben hier einen 2012er Hyper-V Server der auf seiner Datenpartition nur noch knapp 20GB freien Speicherplatz hat. Die Partition ist 817GB groß und enthält nur die VM´s sowie ein paar GB an .iso Dateien. Snapshots, Replikation oder Live Migration wird übrigens nicht genutzt. Per Windirstat wird eine Belegung von ca. 360GB angezeigt was auch der Summe der fixen .vhd Dateien zzgl. .iso entspricht. Ich habe hier also eine Differenz von mehreren hundert GB die ich nicht im Dateisystem sehe. Anhand der Verlaufsdaten im Monitoringsystem (zabbix) sieht man, dass der Server jeden Tag ab 16:00 freien Speicherplatz verliert. Um 16:00 wird ein Powershell Task gestartet welcher unsere VM´s mittels wbadmin auf ein Netzlaufwerk sichert. Auszug aus dem Script: wbadmin start backup -Backuptarget:$targetfolder -hyperv:$_ -vssfull -quiet Die Abnahme des freien Speicherplatzes hat mit der Windows Sicherung zu tun, dass kann man gut anhand des Verlauf (freier Speicherplatz auf D: im Monitoringsystem) erkennen. Während der Sicherung (ca. 2h) nimmt der Speicherplatz ab und bis zum nächsten Tag ist erstmal Ruhe. Der Server wurde vor 45 Tagen aufgrund von Wartungsarbeiten neu gestartet und hat dadurch scheinbar Speicherplatz freigegeben da der Wert "freier Speicherplatz auf D:" danach realistische 460GB anzeigte. Wie erwähnt.. seitdem kann man eine tägliche Abnahme des freien Speicherplatzes sehen. Hat jemand eine Idee was da schief läuft? Vielen Dank
  24. Wenn man den letzten Artikel liest, macht es ja sogar Sinn, einen Backup MX einzusetzen.. aber einen der gemäß http://nolisting.org/ ins leere führt... :) U.a. weil wir Greylisting einsetzen, haben wir den Backup MX Eintrag beim Provider abgeschaltet.
  25. Ich probiere es trotzdem.. http://www.msxfaq.de/internet/backupmx.htm Entferne den Backup-MX Eintrag.. so hast Du zukünfig auch bessere Analysemöglichkeiten.. Viel Erfolg
×
×
  • Neu erstellen...