Jump to content

Weingeist

Members
  • Gesamte Inhalte

    1.566
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Weingeist

  1. ... und das man die IoT-Enterprise nicht ohne weiteres bekommt. Die Beschaffung ist als normales Unternehmen obermühsam sollte man wirklich Features brauch die nur in IoT verfügbar sind. Weiss abe grad nicht die aktuelle Feature-Lage.
  2. Fileserver RAM-Bedarf kann man pauschal nicht beantworten. Mit Spielereien wie Dedupe, Kompression, Read Cache etc. kann der Bedarf doch auch etwas grösser ausfallen als man annehmen würde. Bzw. hilft es der Performance ungemein wenn mehr vorhanden ist. Im Grunde gebe ich abe Recht, normal sind 8GB mehr als genug. Bezüglich CPU ist es beim Fileserver vor allem eine Frage des darunterliegenden Storage. Ist das Storage potent genug und die Netzwerkanbindung ebenfalls in Richtung 10Gbit, dann wird auch eine vCPU von 3.5GHZ problemlos ausgelastet wenn man die User die Performance abrufen lässt. Die Performance skaliert dann 1:1 mit der CPU-Leistung. Gleiches gilt bei Dedupe und anderen Storage-Funktionen. Ansonsten muss man mittlerweile schon ziemlich viel Telemetrie abdrehen wenn man möchte, dass das OS easy durchgängig bedienbar bleit mir nur einer vCPU. Trifft bei Core-Versionen möglicherweise nicht gleichermassen zu, aber bei der Mitinstallation der GUI tut man sich bei >2012R2 eigentlich keinen Gefallen mehr. Spätestens wenn Updates eingespielt werden *schulterzuck* Aber eben, ist alles Geschmacksache. Ich persönlich teile bei jedem OS über 2012R2 zwei zu. Auch mit grosszügig abgedrehter Telemetrie. Insbesondere wegen der Updaterei die viel schneller abläuft. Aber meine Hosts sind CPU technisch meistens auch nicht wirklich ausgelastet. Hach und das mit dem PDC, eigentlich ist der DC mit der PDC-Emulator Rolle doch immer noch PDC. Zwar nicht auf die Datenbank bezogen, sondern nur auf seine Funktion, aber ohne ihn läuft doch eine beachtliche Menge wichtiger Kram einfach mal nicht oder nicht mehr korrekt bevor die Rolle nicht manuell weitergegeben wird bei einem Ausfall. Insofern ist er funktionell gesehen immer noch PDC und nur im Sinne der DB nicht mehr. Aber ist nur meine Meinung... Genau das Denken, dass PDC doch heute nicht mehr relevant ist bzw. er nicht mehr existiert (en soll), ist der Konfigurations-Fehler Nummer 1 für z.Bsp. DFS-Ziele. Also der DC mit PDC-Emulator Rolle auf dem gleichen physischen Host wie der Filer mit dem ersten, zwecks möglichen Replikationsproblemen möglicherweise einzigen aktiven DFS-Ordner-Ziel. Die Änderungen an DFS laufen auch heute noch ausschliesslich über den PDC oder von mir aus den DC mit der aktiven PDC-Emulator-rolle. Sprich ein simples Wechsel eines aktiven Ordnerziels ist essig. Das vorhandensein mehrere DC's und mehrere DFS-Ziele bringt dann nix, weil das DFS-Ziel nicht mit ein paar Mausklicks umgeschaltet werden kann. Es braucht einen User mit sehr hohen Berechtigungen um erstmal die DC-Rolle zu verschieben. Was man möglicherweise auch nicht unbedingt möchte bevor nicht sicher ist, ob der erste zurück kommt.
  3. Aber dann bitte wirklich erst HyperV testen. Das ist Overall sicher das günstigste in der Windows-Welt. Leider nach wie vor nicht ganz so Straight wie VmWare in der Konfiguration, insbesondere auf Netzwerkebene, aber so oft wirft man das ja nicht über den Haufen wenn die Planung +- OK war. Mit KVM und Proxmox sehe ich dass etwas wie mit XenServer. Coole Sache, teilweise auch coole Features (Xen + Marathon war ziemlich das coolste was ich punkto Ausfallsicherheit schon ausgetestet habe) aber absolut grässlich im Hersteller-Fremden Support. Und der Hersteller-Support ist heute bei fast allen grösseren IT-Buden nicht über jeden Zweifel erhaben wenn man nicht gerade eine Grossbude ist. Schnelle Reaktion heisst nicht gleichzeitig schnelle Behebung. Sehr oft ist der Weg über die Community deutlich schneller für den Workaround. Das ist was im Endeffekt wirklich kosten spart. Edit: Und viel wichtiger, Nerven! Daher: Lieber auf die Branchenführer setzen und Nischenprodukte da einsetzen wos nicht gleichermassen Weh tut, im Applikationsbereich. Zumindest wenn man keine masochistischen Neigungen hat.
  4. Mal von allem genannten abgesehen, was sind überhaupt die Beweggründe für den Wechsel? Soviel billiger für das gleiche? Die Community bei ESXi ist riesig gross. Die allfällige Fehlersuche, Workarounds etc. daher unglaublich viel einfacher als vermutlich in jedem anderen HyperVisor. Ob man da am Ende Kosten spart? Einen anderen Grund sehe ich grad nicht um vom Rolls Royce zum VW zu wechseln. Um Kosten zu sparen wäre dann eher HyperV mit seinen anderen Vorzügen ein oder sogar zwei Gedanken wert. Nur so als Anregung *schulterzuck*
  5. Kann mich Vorredner nur anschliessen. ;) Unabhängig davon, mir ist keine Software bekannt, die auf 2000 läuft, nicht jedoch auf XP 32bit. Und ich habe schon mit allerlei Proprietärem Kram zu tun gehabt. Von Windows 3.11 raufportiert bis auf teilweise W10. Erst ab Vista wurde es mitunter mühsam wenn zwingend direkter Hardware-Zugriff ohne Umweg übers OS erforderlich war. Das sind aber in der Regel hochspezifische Geräte/Parallel Dongles etc. Ich persönlich sehe daher ausser dem Spieltrieb keinerlei Sinn im Unterfangen. Daher meine Empfehlung, herausfinden des Warum und wenn die Erklärung gut ist, dann wird da evtl auch etwas mehr Effort reingesteckt. Und auch nur dann solltest Du auch Effort reinstecken. ;) Wobei das Teil immer noch nicht online sein muss/darf/sollte. Warum das Update daher via online kommen soll, keine Ahnung.
  6. @testperson Super Links! Sind die Profile mit FSLogix eigentlich Build-übergreifend "Stabil" oder eher nur für Server und Client als LTSC zu empfehlen?
  7. Und wenn es sich um sehr viele Dateien handelt, würde ich unter Umständen zu VB/VBA statt Powershell greife. Powershell ist generell eher langsam. Auch ältere Office-Versionen würde ich in Betracht ziehen. Der Programmstart ist signifikant schneller je älter die Version ist. Nur Dateien öffnen und wieder schliessen kann ich nur beschränkt empfehlen. Kann funktionieren, ist aber mitunter auch fehlerbehaftet und kann in Speicherlecks enden. Tut man sich oft keinen Gefallen. Versuchen kann mans. Dazu eher 32bit Office und evtl auch 32bit OS. Ist fast immer ebenfalls schneller. ;)
  8. Normal passiert das, wenn das Ziel nicht mehr verfügbar ist. Sprich Netzlaufwerk getrennt wurde - wenn auch nur ganz kurz, Wechseldatenträger entfernt, Verbindungsprobleme etc.
  9. Ist ja nicht gesagt, das es hier wirklich das Problem ist. Aber ausschliessen oder bestätigen kannst es mit dem Monitoring des effektiv freien Arbeitsspeichers. Das ist es ja gerade, die Maschinen an sich werden kaum abstürzen, aber alles wird grottenlahm und Prozesse welche auf eine gewisse Antwortzeiten angewiesen sind, verweigern den Dienst sobald das swapping exzessiv wird. Manchmal hiflt es nur die entsprechenden Prozesse abzuschiessen, manchmal nicht. Manchmal hilfts den Arbeitsspeicher zu erhöhen und den Zeitpunkt hinauszuzögern und die Chance steigt, das freigeschauftelt wird, manchmal nicht. Halt oft sehr mühsam dem Problem richtig beizukommen. Insbesondere wenn eben Code in verschiedenen Software genutzt wird, wie Office-Funktionialität in anderen Programmen. Da wird das vollständige entladen gerne mal verhindert weil Office selbst halt auch meistens irgendwie offen ist.
  10. Und hier siehst ziemlich gut was ich meine, es ist sehr viel Speicher im Standby. Effektiv frei ist rund 1500 MB. Das ist nicht sehr viel auf 32GB gerechnet. Wenn Du nun eine Anwendung hast, welche das saubere Freiräumen ihres Standby-Speichers verhindert, dann beginnt das Theater sobald mehr angefordert wird. Die Maschine beginnt zu swappen und alles bricht zusammen. Vielleicht kannst Du versuchen den effektiv freien Arbeitsspeicher zu protokollieren oder regelmässig selber für eine Maschine prüfen. Wenn dieser immer kleiner wird bis es zum Absturz führt, dann weisst, dass es dieses Problem ist. Dann beginnt die Suche nach dem Verursacher des Speicherlecks. Habe auch schon gehört, dass die Nutzung von Remote-Apps hier Besserung bringen kann. Weil dann nur die Remote-App-Maschine neugestartet werden muss, nicht jedoch der RDSH auf welchen sich die User verbinden. Fragt sich dann, was insgesamt einfacher ist. ;)
  11. Mal unabhängig zu bereits genanntem Punkten: Du nimmst für eine kleine Anzahl Computer mit einem simplen Fileserver eine sehr hohe Komplexität mit verschiedenen Herstellern/Konzepte in Kauf. Die Komplexität welche die IT schützen sollte wird am Tag X möglicherweise eher zum Stillstand als zur schnellen Wiederherstellung führen. Zumal das KnowHow für das alles permanent verfügbar sein muss. Das ganze will zudem gepflegt und gewartet werden. Der Tag X kann bei dieser Komplexität zudem sehr viel einfacher eintreffen als wenn ein simpler Fileserver der direkt auf Blech ausgeführt wird mal der Strom wegbricht und er "abstürzt". Die Chance das man ihn einfach wieder einschaltet und alles wie gewohnt weiterläuft ist sehr hoch. Auch AD wird in einer solchen Umgebung kaum einen Schaden davontragen, schlicht weil die Wahrscheinlichkeit, dass in so einem Moment Änderungen in DB geschrieben werden, eher klein ist. Weil es nunmal selten Änderungen gibt. Einem Konstrukt wie Du es vorhast tut ein simpler Stromausfall, Bluescreen etc. selten gut. Jeder zusätzliche Layer reduziert für ein solches Szenario eher die Gesamtverfügbarkeit als das sie erhöht wird. Nur schon die Updaterei wird viel aufwändiger und anfälliger. Mein Fazit: Insgesamt bringen sehr hochwertige Bauteile wie richtige Enterprise SSD's, Ersatzteile vor Ort/Verträge, stabile Stromversorgung, schnelle Recovery-Zeiten, möglichst tiefe Komplexität etc. sehr viel mehr als Hochverfügbarkeit bzw. sind Voraussetzung bevor man überhaupt an Hochverfügbarkeit denkt. Auch gibts nicht viel was sich mehr mit Hochverfügbarkeit beisst, als alte Hardware ohne Ersatzteil-Verträge
  12. Wenn Du jetzt gesagt hättest Software von Windows 3.11/95/98, OK. Aber das etwas auf 7 läuft und auf 10 nicht, das hatte ich persönlich noch nicht. Und ich habe (hatte) recht viel mit "unüblicher" Software zu tun die wieder irgendwie auf neueren Systemen laufen musste. Industrie halt. Ausser sieverwendet irgenwelche ganz komischen, hochspezifischen OpenGL Befehle die neuere Grakas nicht mehr können (gibts das überhaupt?) =) Wenn sie nur 32bit dafür aber mit 16bit "Erweiterungen" läuft, dann zusehen, dass man auch ein W10 in 32bit nimmt und die 16bit Erweiterung installiert. Oder eben eine VM. Am besten LTSC bzw. jetzt IoT, dann ist 10 Jahre Ruhe im Karton inkl. Sicherheitsupdates (Normale OS sind nicht zu empfehlen). An dieser Stelle mal Ausnahmsweise ein grosses Kränzchen an MS. Irgendwie bekommt man die alte Maschine/Analysegeräte/hochspezifische Drucker etc. immer zum laufen auf neuer Hardware. Auch wenn es manchmal etwas mehr Zeit in Anspruch nimmt als man möchte. Nur uralte Parallelport-Dongles sind extrem anspruchsvoll. Habe sogar mal was von einem Ansatz mit einem 16bit Emulator aufgeschnappt der unter W10 64bit laufen soll. Da noch problemlos 32bit verfügbar ist, habe ich das aber noch nicht weiter verfolgt. Mal Google anwerfen. ;)
  13. Und ich würde mal die erweiterten Firewall-Logs aktivieren. Dann siehst nämlich oft sehr schnell von welchem Prozess, an welche Adresse etc. möglicherweise fehlerhafte Anfragen laufen. Gleichzeitig würdest sehen, wenn Anfragen z.Bsp. an alte IP's gehen. Ob sie via IPv4 oder IPv6 passieren usw. Englisches OS: auditpol.exe /set /category:"Object Access" /subcategory:"Filtering Platform packet drop" /success:enable /failure:enable Deutsches OS: auditpol.exe /set /category:"Objektzugriff" /subcategory:"Filterplattform: verworfene Pakete" /success:enable /failure:enable Sprachübergreifend: auditpol.exe /set /category:"{6997984A-797A-11D9-BED3-505054503030}" /subcategory:"{0CCE9225-69AE-11D9-BED3-505054503030}" /success:enable /failure:enable Eventuell musst noch das Log etwas grösser als Standard machen. Füllt sich so relativ rasch. (Sicherheitsprotokoll) Ich gehe da jeweils so vor, dass ich das Ereignisfenster öffne. Mir die Zeit merke (inkl. Sekunden). Den Befehl ausführe und dann ab diesem Zeitpunkt schaue was in den Logs passiert (aktualisieren mit F5 sobald Befehl abgeschlossen). Ansonsten: Bezüglich IPv6 hast Du nichts deaktiviert? Keine Firewallregeln welche IPv6 behindern? Keine Protokolle auf Adaptern deaktiviert? Weil das reine deaktivieren ohne Anpassung der Routing-Prioritäten kann mitunter solche Probleme verursachen. Insbesondere beim ersten Anmeldevorgang wenn keine Cached Credentials vorliegen. Der "normale" User der sich immer anmeldet macht dann keinen Ärger, alle anderen und insbesondere Admins welche frisch authentifiziert werden, schon. Da wird dann wild hin und herprobiert, läuft in Timeouts rein etc. bis dann endlich die Kommunikation via IPv4 geschieht. Den ganzen IP 6to4-Kram würde ich übrigens so oder so deaktivieren, egal ob nun IPv4 oder IPv6 bevorzugst. Der hilft bei der Problemsuche manchmal auch nicht wirklich weiter. Ich persönlich fahre meist das volle Deaktivierungs-Programm, weil A noch nicht alles auf IPv6 läuft und B ich mir IPv4 Adressen bei der Durchsicht der Logs besser merken kann als IPv6 und C ich dann nur etwas konfigurieren und pflegen muss. ;) IP 6to4 deaktivieren inklusive tunnel netsh interface ipv6 6to4 set state state=disabled undoonstop=disabled netsh interface ipv6 isatap set state state=disabled netsh interface teredo set state disabled Ab Windows 8 / Server 2012 würden auch folgende Powershell-Befehle gehen, obige funktionieren überall Set-Net6to4configuration -state disabled Set-Netisatapconfiguration -state disabled Set-NetTeredoConfiguration -type disabled Zusätzlich kannst noch den IP Helper Dienst auf deaktiviert setzen.
  14. Also ich persönlich sehe kein Problem im Verhalten sondern sehe es als Komfort-Funktion. Zumal der Cursor sich nicht von selbst in einen Unterordner verschiebt. Da musst Du schon selber hin. Die Zeitspanne bis sich die Unterordner öffnen ist zudem meiner Meinung nach ziemlich hoch gewählt, also mehr als genug Zeit um zum nächsten Ordner zu "wandern". Mir persönlich dauer es sogar fast schon zu lange. Möglicherweise - beziehungsweise sogar ziemlich sicher - gibt es dafür sogar eine Einstellung, dann könntest einfach das Limit hochstellen. Ich persönlich nehme sogar ausschlisslich Ctrl-X und Ctrl-V. In zwei Fenstern oder einem. Schlicht weil es für mich schneller, sicherer und vor allem bequemer ist als Drag and Drop wo ich mit geedrückter Maustaste irgendwo einen Unterordner suchen muss. Nicht selten führt Drag&Drop zu kopieren statt verschieben, was mich dann wirklich nervt.. Aber ich nehme auch die Maus als Hilfsmittel für die Tastaturbedienung und nicht anders rum.
  15. Da es zeitlich eingrenzbar ist, kann es sein, dass ein Update oder eine GPO irgendwas verpfuscht? Ansonsten: Weiss gar nicht mehr ob DirectAccess zwingend 6to4 braucht. Zu TMG Zeiten war das noch so. Ging gar nicht mit reinem IPv6 oder IPv4. Weiss nur nicht mehr ob es an DA oder dem TMG lag Wenn es mit reinem IPv4 oder IPv6 theoretisch gehen müsste, könntest mal das ganze 6to4 Zeugs ganz deaktivieren und je nach dem IPv4 oder IPv6 priorisieren/erzwingen (Protokolle, Dienste, Priorisierung in Routing-Tabelle etc.)
  16. Energietechnisch hast Du natürlich vollkommen recht. Eingeschaltet lassen ist quatsch. Auf neueren OS/Systemen habe ich auch schon länger keine Probleme mehr mit dem Ruhezustand/Schnellstart mehr gehabt und lasse ihn somit ebenfalls aktiviert. Vor Jahren - Zeit vergeht - machten Standby, Ruhezustand, Schnellstart, Ready Boost etc. bei manchen Systemen gerne mal Ärger oder der Vorgang dauerte einfach sehr viel länger als ein Neustart worauf ich das jeweils abgeschaltet habe. Nicht weil die Funktionen an sich schlecht waren sondern weil die Implementierung seitens der Hersteller teilweise grauselig war. Geräte die nicht richtig ruhten, nicht sauber aufgeweckt werden konnten, Batterie die leergezogen wurde, lausige Hardware, frühzeitiger Tod der SSD, Bluescreens usw.
  17. Die ganzen Energiespar-Massnahmen oder allgemein gutes Produkt-Design steht und fällt leider mit der Masse. Bei Notebooks kommt das recht stark zum tragen. Ist genügend Masse in der Produktion vorhanden, können (müssen nicht) die Hersteller Zeit und Geld in die Testungen investieren und hochwertigere Teilkomponenten verwenden. Bei den grösseren Herstellern ist das bei den Business-Geräten gegeben, da im entsprechenden Leistungssegment der Produktpreis etwas höher ist. Daher die Chance ein gutes Stück grösser, dass die Geräte besser funktionieren oder Probleme zeitnah gefixt werden. Eine Garantie hat man aber nirgends, liegt das Problem im Hardware-Design, wird es schwierig es mit Software zuverlässig zu "reparieren". Mit einem deutschen Rugged-Spezialist hatte ich über Jahre fast ein General-Abonnement für den Tausch eines Tablets. Alle ~6 Monate ging das Motherboard über den Jordan. Militärstandard. Kostenpunkt des Tablets war über 6'000 Euro, also alles andere als Billigkram. Da die Grösse gebraucht wurde, gab es keine Alternativen. Vielleicht schmeckte es ihm einfach nicht, dass es nicht bestimmungsgemäss rumgeworfen und regelmässig auf Tauchstation geschickt wurde. Wie gesagt, das Problem sind manchmal nicht nur die externen Geräte sondern eben auch die internen die per USB angeschlossen sind. Integrierte Card-Reader zum Beispiel sind selten hochwertig. Intern die Kabel trennen sofern nicht fix verlötet, hat auch schon geholfen. Aber wie bei allem ist die Frage wie viel Zeit man überhaupt investieren will... Ab einem gewissen Alter/Erfahrung nimmt man gewisse Probleme hin oder tauscht ein Gerät eben aus, wenn das Problem zu sehr nervt. Investiere ich zwei oder drei Tage mit Suchen und mässiger Erfolgsaussicht, dann hätte ich auch ein neueres Gerät finanziert und das alte verkauft. Manchmal hat man aber auch einfach keine Wahl. Hast Du das echt schon erlebt, dass der Ruhezustand zu einer Problemlösung geführt hat? Ich sah ihn bis jetzt nur als Mitverursacher. Aber ausprobieren kann mans ja. Auf die Idee kam ich ehrlich gesagt noch nie.
  18. Besser mittels Switch. Gibt ja mittlerweile auch kleinere brauchbare/+-bezahlbare Switches mit SFP. Oder einem Konverter aus dem Industriebereich. Aber eben, wenn man es anders lösen kann, dann logischerweise lieber anders. Aufputz-Kanten für die Ecken sind zum Beispiel optisch ganz OK um Kabel ausserhalb der Rohre zu verlegen. Fiber sehe ich trotzdem als besser als per WLAN zu kommunizieren wenn es nicht anders geht. Die Fiber-Kabel für den Aussenbereich vertragen ordentliche Zugkräfte, insofern für suboptimale Einzugsbedingungen ganz gut geeignet. Aber Diskussion ist eh abgedriftet. Ob die schlechte Netzqualität hier überhaupt ein oder das Problem ist / geprüft wurde wissen wir ja nicht. Möglicherweise gibt es ja noch andere mögliche Ursachen für dieses Problem.
  19. Fast immer hat das mit den Energiespareinstellungen zu tun. Sehr oft mit USB-Geräten die gerade angesteckt sind. Bei Notebooks eben gerne auch interne Dinge die per USB angeschlossen sind wie Card-Reader. Da die Tastatur auch per USB angesteckt ist, kommen die Befehle dann manchmal gar nicht bis zum OS. Abhilfe schafft dann meist nur ein Hersteller-Update oder eben die Ausschaltung der Energiesparmassnahmen. Bei Notebooks halt unschön. Oft reicht der USB-Part aus. Billig-Geräte sind öfter betroffen als Business-Geräte nahmhafter Hersteller. Ansonsten funktioniert das "holen" übrigens oft mit RDP. Sprich Du verbindest dich von einem anderen Rechner auf den Rechner mit dem schwarzen Bild und Schwupps, ist der Bildschirm wieder da.
  20. Das macht im Grunde auch Windows. Wens zu viele male fehlschlägt, dann wird die Arbeitsstation eben rausgeschmissen. Welche Prozesse genau in die Hose gehen weiss ich nicht. Die Lösung mit aus der Domäne raus und wieder rein ist einfach zu easy. Ist ja auch nicht so, dass man keine Verbindung mehr hat. Die Verbindung ist einfach zu lausig. Die Leitung muss nichtmal zu alt sein oder ein Telefonstrippe. Es reicht wenn die Leitungen beim einziehen überstreckt oder schlecht angeschlossen werden. Selbst ein Cat 7 kann so problemlos zum 100mbit degradiert werden. Deshalb neu verlegte Leitungen nur mit Abnahmeprotokoll eines entsprechenden Messgerätes. Der Schnelltest für unerklärliche Probleme die auf Netzwerkprobleme hinweisen, ist eben die Reduzierung auf 100Mbit. Wird die Übertragung schneller, dann ist auch ohne Messgerät oder Analyse von Traffic klar wo der Hund begraben ist. Bleibt die Station nachher drin, ebenso. Halt so Dinge die jeder machen kann ohne zwingend den Elektriker mit den ziemlich teuren Messgeräten aufzubieten. Wens nicht sinnvoll gelöst werden kann, ist es besser ein Glasfaser einzuziehen. An einem Kabel für den Aussenbereich kann man ohne Schäden ordentlich ziehen und ist nicht wesentlich dicker als ein Cat Kabel. Für RDP reicht auch 100Mbit meistens aus =)
  21. Da hast Du ja durchaus recht, bis jetzt hat mich schlicht der Zusatzaufwand davon abgehalten. Sprich allfällige zusätzliche Infrastruktur-Server + deren Pflege, Sicherung der Up-Time etc.
  22. Nö, weil bei der 1Gbit Frequenz zu viele Pakete verloren gehen und der DC dann eben die Sicherheitsfreigabe nicht mehr erteilt. Dann wird der Arbeitstation nicht mehr vertraut und man kann sich nicht mehr an der Domäne anmelden. Bei 100Mbit funktioniert es aber oft, weil die Frequenz toleranter ist und somit weniger Paketverluste auftreten. Oft genug erlebt bei alten Installationen wo der 100Mbit Switch durch 1 Gbit ersetzt wurde ohne die Kabel zu ersetzen. ;)
  23. Also ich kenne das bis jetzt nur von PC's mit Netzwerkproblemen. Sprich einer zu schlechten Leitung mit zu vielen Paketverlusten. Auch wenn das heute nicht mehr vorkommen sollte, es gibt noch einge LAN-Leitungen da draussen, die gar kein 1Gbit können, sondern nur 100Mbit. Die fliegen dann zwar nicht richtig raus in dem Sinne, dass das AD-Konto entfernt wird, sondern sie können einfach nicht mehr im AD verwendet werden weil der ganze Sicherheitskrempel nicht sauber ausgehandelt werden kann. Ich würde z.Bsp: - Traffic auf Paketverluste analysieren oder Leitung prüfen durch Elektriker mit entsprechendem Gerät (vorzugsweise beides) - Funktionierenden mit fehlerhaftem PC tauschen - 100 Mbit Switch in betreffende Leitung hängen oder sofern möglich den Port am Switch limitieren So kannst die vermutlich wahrscheinlichste Variante ausschliessen.
  24. Also slmgr tut eigentlich immer... sonst ist es wirklich der falsche Key. Bei Problemen am besten die Internetverbindung kappen und das ganze telefonisch aktivieren. So ein Drama wie bei den ersten LTSC wird es ja hoffentlich nicht sein. Telefon-Nummer und die richtigen Durchgangs-Ziffern ist je nach dem etwas mühselig. Nicht unbedingt entspricht die korrekte Durchgangs-Ziffer auch dem was die nette Dame am Telefon sagt Wens bei einer Durchwahl also nicht klappt, einfach die nächste nehmen, eine wird funktionieren bei einem korrekten Key. Und wenn es das Office-Kürzel statt Windows ist... Ahja, slmgr muss mit erhöhten Rechten ausgeführt werden, sonst wird das nix.
  25. Jo, so mache ichs normal im kleinen. 802.1x wäre logischerweise sinnvoller/zusätzlich besser. Bin da auch schon länger am überlegen ob ich das standardisiert einführen könnte. Bis dato hat mich der Aufwand aber abgeschreckt. Also nicht Initial sondern Wartung, Pflege, Fehlerfall etc. WLAN würde ich mich nicht getrauen ohne zu betreiben, aber WLAN setze ich aufgrund der Risiken wie Parkplatztäter, Kiddies mit Spieltrieb, Mitarbeiter mit ihren Privat-Geräten, Monteure mit Laptops etc. sowie dem Absicherungs- und Wartungs- und Monitoring-Aufwandes bis dato nie ein. Schwatze ich immer allen aus. Aber auch da kommen mit Tablets in der Produktionsumgebungen so langsam Anforderungen aufs Tapet, wo eine komplette WLAN-Verweigerung immer schwieriger zu halten ist. Bis jetzt konnte ich immer Kabel-Alternativen aufzeigen. =) Ist immer die Frage wo und wie man die Kompromisse macht. Am Ende des Tages verhindert meines Wissen auch ein 802.1.X keine Kommunikation mit einem anderen Client. Hat er ein Zertifikat, darf er sich im Netz tummeln. So richtig in verschiedene VLANs stecken kann man die Abteilungen ja auch nicht, sonst brauchts wieder Router zwischen den Segmenten und den Servern. Im kleinen wieder too much. Allgemeine Komplexität wird halt massiv hochgeschraubt. Am Ende muss man ein System auch noch "leben" können, sonst bringt alles nix. Ein Einstöpseln vor Ort eines fremden Gerätes erfordert zudem eine gewisse lokale Kriminialität und dieses Risiko ist im kleinen - sofern man nicht in der Rüstung oder sonstigem Unternehmen von Belang tätig ist - doch eher gering. Vielleicht eine Fehlseinschätzung, vielleicht auch nicht. *schulterzuck*
×
×
  • Neu erstellen...