Jump to content

Weingeist

Members
  • Gesamte Inhalte

    1.638
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Weingeist

  1. Hallo Leute, Hab mal wieder den Workaround auf dem Tablet. Kann man diesen in normalen Umgebungen eigentlich mittlerweile entfernen oder braucht es ihn bei Type3 Treibern noch? Oder ist das gar nicht Type-Abhängig und der Ball liegt bei den Herstellern welche "einfach" die Treiber oder sogar die Firmware der Drucker entsprechend anpassen müssen? Oder ist das MS intern gelöst und alle OS müssen einfach auf aktuellem Stand sein? So ganz verstanden habe ich das ehrlich gesagt nicht wer nun hier im Zugzwang ist Bevor ich jetzt eine Test-Orgie in einer produktiven Umgebungen starte und Zeit investiere, würde mich mal eure Erfahrungen interessieren. Gerade bei den grossen Herstellern wie Canon, HP, Brother. Gruss und Danke
  2. Ich verwende seit Jahren die Teile von APC. Zusammen mit Online-USV. Eaton dürfte vergleichbar sein. Von Billigprodukten würde ich auf alle Fälle abraten, ohne zu wissen ob nun UTE ein Billigprodukt ist oder nicht. Sieht auf alle Fälle billig aus. Die APC schalten auf alle Fälle so schnell, dass ich noch mit keiner Hardware probleme hatte. PS: Ich würde auf alle Fälle zwei Online-USV nehmen und nicht nur eine. Insbesondere wenn die Dahinterhängende Elektronik etwas heikel ist. Habe da schon einiges an Lehrgeld bezahlt wegen Netzsauereien aller Art. Insbesondere die Wiedereinschalt und Ausschaltvorgänge nach Kurzschlüssen in einer Zuleitung bringen brutale Spannungsspitzen für Elektronik. Online-USV bringen da doch einiges an Schutz mit. Wenn die Elektronik heikel ist, nicht so einfach ersetzt werden kann und ein entsprechendes Alter hat, dann würde ich auch über ein "Auffrischen" bzw. Ersatz der ganzen Kondis, evtl. Spannungsteiler etc. nachdenken. Das macht die Platine wieder robuster und weniger anfällig. Kostet bei einem Elektronik-Freak nicht alle Welt.
  3. Klingt jetzt fies, aaaaaaber: Wenn eine Spezialanwendung zu lange für die Reinstallation/Konfiguration braucht, dann wurde schlecht dokumentiert wie sie aufzubauen ist. Dann ist es eigentlich eh höchste Zeit und eine excellente Gelegenheit das nachzuholen. Ich persönlich würde gleich 2022 nehmen, wegen der längeren Support-Zeit. Ist ultrastabil, das erste OS was quasi schon Out-of-the-Box keinen Ärger gemacht hat. 2016/2019 habe ich allgemein übersprungen. Nur die ressourcenintensive Telemetrie-Abschaltung war etwas aufwändiger als bei 2012R2. Wenn die Installation allerdings durch den Hersteller geschehen muss die z.Bsp. 10k für einen halben Tag Installation via Fernwartung nimmt (habe so einen "Fall" im Programm), dann würde ich das Inplace auch versuchen und ein bis zwei Tage in Tests investieren! Allerdings vorher einen Cold-Clone der VM ziehen.
  4. Wirklich einfach so laufen muss es nicht zwingend. Aber man bekommt es zum laufen und Sicherheits-Updates sind - wenn man es mit Standard-Windows-Mitteln macht - auch kein Problem. Sprich wie gesagt LTSC/IoT. Lizenzthemen, Neuinstallationen sind alles auch lösbare Probleme. Insbesondere Neuinstallation ist mit Doku sicher das kleinste Problem. Bevorzuge sofern möglich eh VM's für solche Übungen. Da ist dann auch der Hardware-Wechsel kein Thema (sehr erschwert mit Parallelport-Dongle und erschwert mit Graka-Software) Aber eben, manchmal ist man da 1-2 Tage oder sogar mehr drann wenn man nicht so die Erfahrung hat. Da kommts dann halt darauf an wie sehr man die alte Software noch möchte oder darauf angewiesen ist.
  5. Schaue ich mir auch an, Danke! Teuer finde ich immer relativ. Wenn ich das erste mal hinrennen/hinfahren muss, dann ist ein hochwertigeres Teil tedenziell schon bezahlt und ich habe weniger Ärger. Zumindest wenn die Preise nicht uferlos werden und es auch besser und nicht nur teurer ist. =)
  6. @tesso Richtig galvanisch getrennt ist das aber noch nicht. Aber durchaus besser als nix denke ich. @testperson PoE Medienkoverter.... Yep das müsste das erfüllen was ich am liebsten hätte. Die richtigen Stichwörter und schon findet man was man braucht. Relativ kostspielig aber das sollte wenigstens zuverlässig sein. Im Industriebereich habe ich noch was gefunden für die Hutschiene. Wäre dann noch etwas einfacher zentral zu halten (Stromspeisung). Mal schauen was es so gibt am Markt! Edit: Un wenn es etwas geben sollte, das intern einen Optokoppler hat, dann gerne her damit. --> Sprich die Verkablung mit LWL entfällt und normale Switches eingesetz werden können. Danke euch beiden!
  7. Hallo Leute, Gibt es Optokoppler für LAN-Verbindungen? Sprich LAN-Kabel - Optik - LAN-Kabel ohne jedoch wirklich ein LWL Kabel dazwischen zu haben sondern eine kleine Box welche das erledigt. Falls ja, wie heissen solche Dinger? Optimalerweise gleich mit PoE-Einspeisung auf der einen Seite. Ich möchte Switches vor Kurzschlüssen schützen welche Signale insbesondere aus Aussenbereichen bekommen. In diesem speziellen Fall von PoE Kameras. Sprich der Switch soll nicht gebraten werden, wenn jemand z.Bsp. eine Kamera kappt und somit auch die anderen Kameras nichts mehr aufzeichnen können oder gar alles was dahinter liegt hops geht. Klar ich könnte jeweils einen separaten PoE Switch pro Kamera verbauen und mit LWL an einen zentralen Switch anbinden. Scheint mir aber doch etwas Overkill zu sein. Zwei unabhängige, grössere Alarm-Anlagen-Buden in der Region haben sich damit noch nie befasst und wollen das Problem auch nicht wirklich verstehen. Die verbauen einfach einen PoE-Switch und gut ist. Das sei üblich. Naja, mich befriedigt das nicht, muss ja nichtmal sein, dass jemand bewusst eine Kamera kappt, kann ja auch sein, dass Wasser eindringt und einen Kurzschluss verursacht. Das ist übrigens nichts hypothetisches: Ich hatte das schonmal in einer Umgebung, dass ein PoE Switch (Markenware, Managed, teuer) hops ging weil ein Maschinenelektriker bei der Demontage einer Maschine ohne vorherige Absprache die LAN-Leitung mit dem Seitenschneider gekappt hat. Der Switch ging über den Jordan. Keinerlei Kommunikation mehr im Haus. Alles nach dem Switch glücklicherweise nicht. Seither bin ich mit PoE etwas vorsichtig geworden und es bekommt nur einen PoE-Port, wer wirklich einen braucht. Grüsse und Danke
  8. Protokollieren weiss ich jezt nicht direkt, aber mit Perfmon kriegst auch ne menge raus. Heftige Dateitransfers schiessen natürlich die CPU-Auslastung auch hoch.
  9. Wenn an der GUI etwas geändert wurde, dann tippe ich auf neumodische Animationen welche über die Graka laufen. Das wird dann auf RDS oder VDI zäh und lokal läufts wie ne 1. Habe ich auch grad so einen Fall. Mit einer CPU über 3GHZ kann mans teilweise per Brute-Force erschlagen, Auslastung ist dann mitunter aber auch hoch. =) IPv6 deaktiviere ich in meinen kleinen Umgebungen immer komplett und priorisiere IPv4. Einfach weil ich kein Bock auf Fehlersuche und Konfiguration an zwei Ecken habe. Ganz wichtig, die Priorisierung von IPv4 gegenüber IPv6, sonst wird viels von Windows selbst brutal lahm. --> Kannst auch mal Testweise machen. Einfach in der Routingtabelle umkehren ohne Deaktivierung. Hatte ich aber durchaus auch schon, dass die Kommunikation einer alten Software nur via IPv4 funktioniert hat und die Performance gesteigert wurde, als ich auf IPv4 gewechselt habe. Manche Software wird auch lahm wenn sie mit DNS statt direkt der IPv4 Adresse arbeitet. Insbesondere wenn sie IPv4 haben möchte und zuerst 3x hin und her geht, Teredo auch noch reinpfuscht usw. Daher alles aus, wenigstens Teredo/ISATAP oder mal Testweise im Client fix die IPv4 Adresse hinterlegen für die DB-Verbindung.
  10. Aber die Idee von testperson mit der Ordnerumleitung wäre doch eh tendenziell besser oder? Dann werden sie automatisch nicht so gross. Oder sollten sie zumindest nicht.
  11. Das kommt mir bekannt vor... Die wissen nie was bei Performance-Problemen Anbei mal ein paar Gründe die ich schon hatte: teilweise zerschossene Index in der DB nach Update, geänderte Zugriffsart nach Update --> falsche Index, Änderung an der GUI auf mehr Blin Bling mit Graka-Animation, tiefer CPU Takt, Ärger mit Druckeranbindung nach Windows-Updates (längere Ladezeiten der Druckereigenschaften und somit längere Ladezeiten bei Drucker abhängigen Formularen wie Auftrag, Lieferschein etc.). Der Karm mit Index fällt bei Dir wohl raus.
  12. Interessante Lösung, hatte ich so noch nicht... Immer wieder mal was neues mit den Zeitzonen
  13. Die ganze User-Profil-Verwaltung ist in Windows mittlerweile enorm mühsam geworden. Klassisch kaputt modernisiert aufgrund mangelnder Qualitätskontrolle. Back to the Roots bei MS an dieser Stelle. Wie mit den Updates. Hauptsache ständig neue Features raushauen welche die wenigsten tatsächlich zum arbeiten brauchen. Schon gar nicht um effizienter zu arbeiten. Ein paar Vorschläge: - Notebook-User arbeiten für internes per VPN auf einer Arbeits-VM innerhalb der eigentlichen Umgebung - User erhalten eine Verknüpfung auf "ihr" Fileshare auf dem Server statt Umleitungen (z.Bsp. vie Gruppenrichtlinien oder Script) - Wichtige Programme, Ordnerverknüpfungen wie anno domini - aus Windows-Sicht - auf den Desktop, der ist glücklicherweise noch Oldschool und lässt sich entsprechend pflegen - Für persönliche Einstellungen in z.Bsp. Office-Programmen kann man mit Reg-Hives/GPO's arbeiten - Je nach Sync-Wünschen ein paar Scripts mit der ein User evtl. ein Abgleich seiner temporären Local-Files für die Remote-User ohne Internet mit seinem Home-Ordner auf dem Filer machen kann. Ich mache das fast nur noch ausschliesslich so. Einfach weil der Wartungsaufwand dafür im kleinen Umfeld um ein vielfaches kleiner ist als alle anderen mir bekannten Varianten. Startmenü etc. lasse ich einfach links liegen und pflege nur noch den Desktop. Kann ich auch einfach ein Profil löschen. Dazu eine kleine Anleitung für die User auf dem Desktop wie sie z.Bsp. selber Links in den Quick-Links machen können. Mit dem Hinweis, das es möglicherweise schneller wieder weg ist, als Ihnen möglicherweise lieb ist. ;) Wenn z.Bsp. viel "Lokal" gearbeitet werden muss, schiebe ich die eigentlichen User-Daten auf ein separates Laufwerk oder auf einen neuen Unterordner auf C:. Das bleibt dann beim Profil löschen unangetastet. Wenn Arbeitsplatz häufig gewechselt wird, bietet sich generell eine VDI Lösung mit einer "persönlichen" VM an. Erfahrungsgemäss wird das ziemlich geschätzt. Tendenziell User-Freundlicher als Linked Clones die immer zerstört werden. Oder klassisch RDS. Auf die verbindet man sich dann mit entsprechenden Remote-Tools/Möglichkeiten. Wenn man etwas Zeit und Lust hat und unbedingt zentrale Profile möchte, wäre vermutlich FS Logix das von MS gekauft wurde noch eine Option. Das reduziert die Zeit und Zuverlässigkeit des Synchronisieres unter Umständen gewaltig, da nur noch ein grosses statt viele kleine Files synchronisiert werden. Ob es am Ende des Tages aber auch nur wieder eine ungepflegte Leiche mehr im Fundus von MS ist, kann man heute aber noch nicht buerteilen. Zu guter Letzt bietet MS natürlich immer mehr Cloud-Services an... Wer das mag...
  14. RAID 1 ist halt die einfachste Form von Redundanz. Redundanz betreibt man immer auf dem Level das man finanzieren bzw. Ausfälle verkraften kann. Die Redundanz auf Disc-Ebene ist neben jener der Netzteilredundanz hat vergleichsweise billig. Anschaffung wie Wartung. Die Magnetdisc ist halt immer noch das Bauteil eines Servers, was am häufigsten ausfällt. SSD sind je nach Modell ausfallsicherer und natürlich auch schneller. Aber für die Kosten bekommst einen ganzen Stapel Magnet-Discs ;)
  15. Meine erste Wahl für einen Mail-Client ist fast immer Thunderbird. Da gibts doch sicher ein Plugin dafür. Ansonsten: Passwort-System wie für Google-Mail ist keine Alternative? Da muss man einmal authentifizieren und anschliessend ist ein Token im System abgelegt das nicht systemübergreifend funktioniert. Weiss aber nicht ob es das mit Exchange auch gibt. (oAuth2 nennt es sich) EDIT: Office 365 kans meines wissens auch, also sollte das auch Exchange können. Theoretisch.
  16. Da war mal was mit den Zeitzonen. Es kann sein, dass die im BIOS nicht mittel-europäisch definiert ist oder Sommer/Winterzeit nicht aktiv oder... Anschliessend ist direkt nach dem Start die Uhrzeit entsprechend verschoben. Nach dem anmelden ist aber spätestens die AD-Zeit relevant und somit wieder korrekt. Beim ESXi ist das teilweise nervig, da funktioniert das mit Sommer/Winter auch nicht immer korrekt.
  17. Ich mache das für mich so: - Ein paar SSDs, zusammenlegen mit Storage Spaces zu einem RAID-Verbund (mind. 2-wege Mirror, 1 Column) - Dedupe aktivieren auf dem Volume (würde ich tunlichst vermeiden ohne RAID) - und schon frisst die VM bzw. die VM's nicht viel Platz - RAM jeweils fix zuteilen wegen der Auslagerungsdatei des Hosts --> Platz - Auslagerungsdatei der VM auf eine separate vDisc auf einem separaten Volume von Storage Spaces, kann man für solche VM's auch ohne RAID machen (hat den Vorteil, dass der Kram nicht ständig dedupliziert wird, was komplett für die Füchse ist und Backups unnötig aufbläht, des weiteren kann mit Windows per VSS regelmässig ein Snapshot des OS geschossen werden und durch die wenigen Änderungen bleibt die History auch erhalten) --> Ich benutze dafür ESXi und stelle die Storages per NFS dem Host zu Verfügung. So kann ich auch direkt die Backup-Möglichkeiten von Windows benutzen und die VM's einfach schnell kopieren. Bei laufender VM nicht ganz konsistent bei DB's aber dürfte hier keine Rolel spielen bzw. kann man sie ausschalten. Evtl. geht das aber auch direkt mit HyperV, habe mich aber schon länger nicht mehr damit beschäftigt. Dazu pflege ich auch eine Basis-VM die ich jeweils kopiere und update. Sprich die VM wird aktuell gehalten, bei Notwendigkeit einer Kopie fahre ich sie runter, kopiere sie, lasse über die Kopie sysprep drüber und benutze die Kopie weiter. Ich persönlich finde das ziemlich easy und für solche Szenarien gut geeignet. Für professionelles wo man das sehr oft machen muss, dürfte es besseres geben. ;) EDIT: Und für die Graka gibt es mit PCI-Passtrough schon auch Möglichkeiten. Erfordert aber eine gewisse mitunter hohe Leidensbereitschaft wenn man nicht die sündhaftteuren Lösungen von NVIDIA nehmen möchte. AMD Grakas gehen hier mit ESXi am besten. Eine Garantie das es tut, hat man aber nicht wirklich. Und ist auch etwas Gefrickel und für wechselnde VM's nicht geeigne, also gleiche VM nehmen, ist schon schön wenn man eine hinkriegt. Ich habe das auf meiner Spielmaschine so gelöst, dass ich Graka + eine PCoIP-HostKarte an eine VM durchreiche und mich dann per PCoIP auf die Host-Karte verbinde. Bei HyperV sind da wohl auch bestrebungen im Gange das deutlich einfacher zu machen, wie weit fortgeschritten diese unter 2022 sind, kann ich nicht beurteilen, habe ich noch nicht verfolgt.
  18. Das wäre etwas das in den ersten Post gehört, was wurde seither geändert =-P Bin fast sicher das es ein Berechtigungs-Problem ist. Solange Du die Backup-Konsole nicht explizit als Admin ausgeführt hast, wird auch das Fenster nicht im Admin-Kontext ausgeführt ;) Die Festplatte ist schon in Ordnung. Es ist nur keine gute Wahl Single-Platten als Storage zu nehmen. Also ohne RAID. Alleine die Rückspiel-Zeit zu einer Magnetplatte ist schon Grund es nicht zu tun. So neben der Ausfallswahrscheinlichkeit. ;)
  19. Klingt irgendwie nach Berechtigungsproblemen oder einem Lock. Die einfachste Windows-Lösung mal versucht - ein Neustart? Möglicherweise hast auch D mal als Backupziel ausgewählt und der Datenträger wurde als "Sicherungsziel" markiert. Aber erstmal neustart... Vielleicht sortiert er sich wieder =) Ansonsten: Sind die Daten nicht so wichtig wenn du von einer WD Ultrastar sprichst?
  20. ... und das man die IoT-Enterprise nicht ohne weiteres bekommt. Die Beschaffung ist als normales Unternehmen obermühsam sollte man wirklich Features brauch die nur in IoT verfügbar sind. Weiss abe grad nicht die aktuelle Feature-Lage.
  21. Fileserver RAM-Bedarf kann man pauschal nicht beantworten. Mit Spielereien wie Dedupe, Kompression, Read Cache etc. kann der Bedarf doch auch etwas grösser ausfallen als man annehmen würde. Bzw. hilft es der Performance ungemein wenn mehr vorhanden ist. Im Grunde gebe ich abe Recht, normal sind 8GB mehr als genug. Bezüglich CPU ist es beim Fileserver vor allem eine Frage des darunterliegenden Storage. Ist das Storage potent genug und die Netzwerkanbindung ebenfalls in Richtung 10Gbit, dann wird auch eine vCPU von 3.5GHZ problemlos ausgelastet wenn man die User die Performance abrufen lässt. Die Performance skaliert dann 1:1 mit der CPU-Leistung. Gleiches gilt bei Dedupe und anderen Storage-Funktionen. Ansonsten muss man mittlerweile schon ziemlich viel Telemetrie abdrehen wenn man möchte, dass das OS easy durchgängig bedienbar bleit mir nur einer vCPU. Trifft bei Core-Versionen möglicherweise nicht gleichermassen zu, aber bei der Mitinstallation der GUI tut man sich bei >2012R2 eigentlich keinen Gefallen mehr. Spätestens wenn Updates eingespielt werden *schulterzuck* Aber eben, ist alles Geschmacksache. Ich persönlich teile bei jedem OS über 2012R2 zwei zu. Auch mit grosszügig abgedrehter Telemetrie. Insbesondere wegen der Updaterei die viel schneller abläuft. Aber meine Hosts sind CPU technisch meistens auch nicht wirklich ausgelastet. Hach und das mit dem PDC, eigentlich ist der DC mit der PDC-Emulator Rolle doch immer noch PDC. Zwar nicht auf die Datenbank bezogen, sondern nur auf seine Funktion, aber ohne ihn läuft doch eine beachtliche Menge wichtiger Kram einfach mal nicht oder nicht mehr korrekt bevor die Rolle nicht manuell weitergegeben wird bei einem Ausfall. Insofern ist er funktionell gesehen immer noch PDC und nur im Sinne der DB nicht mehr. Aber ist nur meine Meinung... Genau das Denken, dass PDC doch heute nicht mehr relevant ist bzw. er nicht mehr existiert (en soll), ist der Konfigurations-Fehler Nummer 1 für z.Bsp. DFS-Ziele. Also der DC mit PDC-Emulator Rolle auf dem gleichen physischen Host wie der Filer mit dem ersten, zwecks möglichen Replikationsproblemen möglicherweise einzigen aktiven DFS-Ordner-Ziel. Die Änderungen an DFS laufen auch heute noch ausschliesslich über den PDC oder von mir aus den DC mit der aktiven PDC-Emulator-rolle. Sprich ein simples Wechsel eines aktiven Ordnerziels ist essig. Das vorhandensein mehrere DC's und mehrere DFS-Ziele bringt dann nix, weil das DFS-Ziel nicht mit ein paar Mausklicks umgeschaltet werden kann. Es braucht einen User mit sehr hohen Berechtigungen um erstmal die DC-Rolle zu verschieben. Was man möglicherweise auch nicht unbedingt möchte bevor nicht sicher ist, ob der erste zurück kommt.
  22. Aber dann bitte wirklich erst HyperV testen. Das ist Overall sicher das günstigste in der Windows-Welt. Leider nach wie vor nicht ganz so Straight wie VmWare in der Konfiguration, insbesondere auf Netzwerkebene, aber so oft wirft man das ja nicht über den Haufen wenn die Planung +- OK war. Mit KVM und Proxmox sehe ich dass etwas wie mit XenServer. Coole Sache, teilweise auch coole Features (Xen + Marathon war ziemlich das coolste was ich punkto Ausfallsicherheit schon ausgetestet habe) aber absolut grässlich im Hersteller-Fremden Support. Und der Hersteller-Support ist heute bei fast allen grösseren IT-Buden nicht über jeden Zweifel erhaben wenn man nicht gerade eine Grossbude ist. Schnelle Reaktion heisst nicht gleichzeitig schnelle Behebung. Sehr oft ist der Weg über die Community deutlich schneller für den Workaround. Das ist was im Endeffekt wirklich kosten spart. Edit: Und viel wichtiger, Nerven! Daher: Lieber auf die Branchenführer setzen und Nischenprodukte da einsetzen wos nicht gleichermassen Weh tut, im Applikationsbereich. Zumindest wenn man keine masochistischen Neigungen hat.
  23. Mal von allem genannten abgesehen, was sind überhaupt die Beweggründe für den Wechsel? Soviel billiger für das gleiche? Die Community bei ESXi ist riesig gross. Die allfällige Fehlersuche, Workarounds etc. daher unglaublich viel einfacher als vermutlich in jedem anderen HyperVisor. Ob man da am Ende Kosten spart? Einen anderen Grund sehe ich grad nicht um vom Rolls Royce zum VW zu wechseln. Um Kosten zu sparen wäre dann eher HyperV mit seinen anderen Vorzügen ein oder sogar zwei Gedanken wert. Nur so als Anregung *schulterzuck*
  24. Kann mich Vorredner nur anschliessen. ;) Unabhängig davon, mir ist keine Software bekannt, die auf 2000 läuft, nicht jedoch auf XP 32bit. Und ich habe schon mit allerlei Proprietärem Kram zu tun gehabt. Von Windows 3.11 raufportiert bis auf teilweise W10. Erst ab Vista wurde es mitunter mühsam wenn zwingend direkter Hardware-Zugriff ohne Umweg übers OS erforderlich war. Das sind aber in der Regel hochspezifische Geräte/Parallel Dongles etc. Ich persönlich sehe daher ausser dem Spieltrieb keinerlei Sinn im Unterfangen. Daher meine Empfehlung, herausfinden des Warum und wenn die Erklärung gut ist, dann wird da evtl auch etwas mehr Effort reingesteckt. Und auch nur dann solltest Du auch Effort reinstecken. ;) Wobei das Teil immer noch nicht online sein muss/darf/sollte. Warum das Update daher via online kommen soll, keine Ahnung.
  25. @testperson Super Links! Sind die Profile mit FSLogix eigentlich Build-übergreifend "Stabil" oder eher nur für Server und Client als LTSC zu empfehlen?
×
×
  • Neu erstellen...