Jump to content

Weingeist

Members
  • Gesamte Inhalte

    1.639
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Weingeist

  1. Naja, mit der richtigen darauf spezialisierten Software klappte das in der Vergangenheit astrein. Da war der Support dann via dem Hersteller der Replikat-Software gegeben. Insbesonder für den SBS war das früher sehr interessant. Ob HyperV Replika dafür das richtige Instrument ist, will ich nicht beurteilen. Ansonsten: Bei den Preisen von extrem schnellen lokalen Speichern und den normalerweise üblichen Speichermengen die man im SBS Umfeld braucht, sehe ich den Sinn von Replikaten nicht mehr so wirklich bzw. überwiegen die Nachteile von Replikaten deutlich gegenüber der zusätzlichen Investion in ein potenteres Backupsystem. Bei grösseren Datenmengen einfach den Fileserver separat halten und mit DFS-Repliakten arbeiten wenn schnelles Recovery bzw. Back-ToWork-Zeit gefordert wird. Der SBS selbst ist dann in kurzer Zeit wiederhergestellt sofern er überhaupt noch eingesetzt werden soll.
  2. Sicherung ist schon eingerichtet ja, wurde schon vor meiner Zeit gemacht. Sieht soweit gut aus. Auch das "Aufräum-Script" war schon da. Insofern eigentlich schon in Ordnung wie das ganze aufgebaut und gemacht war. Nur die vielen Auto-Genehmigungen waren extrem auch wenn immer wieder gelöscht wurde. Das Aufräumscript hat hier zwar ganze Arbeit geleistet für den Content, die DB selber wurde auch immer reindexiert etc. die XML Tabelle ist aber komplett zugemüllt. Vermutlich ist das schnellste den WSUS einfach neu aufzusetzen.
  3. Hmm wäre in der Tat eine Idee. Ich mache nie automatische Genehmigungen und begrenze die Produkte wos irgendwie geht sonst läuft der Content als auch die DB eh Ratzfatz aus dem Ruder wenn mehr als ein Client und Server OS verwendet wird. Auch wenn mir manchmal schleierhaft ist, wozu dermassen viel Daten gespeichert werden für die handvoll Updates. =)
  4. Hi, 10'000MB und ein paar verquetschte. Läuft leider schon auf nem 2012 Express. Waren halt viel zu viele Genehmigungen und Produkte aktiviert, anders kann ich es mir nicht erklären wie man in so einer kleinen Umgebung eine so riesige DB hinkriegt.
  5. Also nach kurzer Recherche müsste es - wohl das erste mal überhaupt in der Geschichte von DPM - möglich sein mit der aktuellen DPM 2016 Version auch die brandaktuelle Server 2016 zu sichern. Scheint gaaaaaaanz neue Info zu sein ;) Zumindest sind die DPM-Agents auf der MS-Seite gelistet. Das heisst normal das sichern möglich ist
  6. Hallo Leute, Habe ne kleine relativ heterogene Umgebung übernommen und wollte da mal etwas aufräumen heute. ;) Nun habe ich mühe mit dem WSUS. Problem ist, es gab eine Säuberungsscript (das was eh fast alle verwenden) nur werden Updates die obsolet sind, nicht gelöscht. Das heisst die XML-Tabelle ist riesig und füllt die komplette DB. Die SyncTabelle oder die Event-Tabelle wurde dagegen regelmässig gelöscht. Auch die Indexe neu aufgebaut. Das heisst keinerlei Spielraum mehr auf der DB. Sie ist komplett voll. Ein SPDeleteUpdate schlägt direkt fehl in Ermangelung von Speicherplatz der dafür benötigt wird. Also nicht der übliche Befehl wo via TempTbl alle ID's rausgeschrieben werden um sie anschliessend abzuarbeiten, sondern bereits wenn man nur ein einzelnes Update so löeschen möchte. Die GUI-Variante funktioniert logischerweise ebensowenig. Jemand ne Idee wie ich etwas Speicher freischaufeln kann ohne den WSUS neu aufsetzen zu müssen? Die Internetleitung ist zudem recht lahm, da ist es schon noch ein Wort den kompletten Content wieder herunterladen zu müssen. Mir fällt leider grad nur noch ein die DB auf nen richtigen SQL-Server mit zu transferieren, zu säubern und wieder einzuspielen. Ist aber auch ziemlich mühsam. Vielen Dank für Inputs
  7. Na die entwickeln sicher parallel aber die Testphase dürfte deutlich länger sein beim Backup-Produkt. Bei manch anderen Produkten sind ja mittlerweile die Kunden die Betatester. Zumindest kommts mir seit ungefähr 2 Jahren bei manchen Produkten von MS so vor. Daran wird sich wohl auch nix mehr so schnell ändern wenn sogar die Abteilung die extra fürs Update-Testen ins Leben gerufen wurde aus Kostengründen aufgelöst wurde... Da ist dann die langfristige Strategie schon erkennbar. ;)
  8. Die DPM-Abteilung hinkt in aller Regel etwas hinterher. Ist ja auch logisch, eine Backup-Lösung sollte defninitiv Hand und Fuss haben. Irgendwie zum laufen bekommt man ja fast immer alles, ob es dann sinnvoll ist, steht auf einem anderen Blatt. Bin jedenfalls froh wenn es noch Abteilungen gibt, wo zumindest versucht werden darf die Updates durchzutesten. Bevor ein Produkt wirklich freigegeben ist, ist das ja nicht möglich. ;)
  9. Mir gefällt vor allem folgender Satz: "Every Windows update is extensively tested with our OEMs and ISVs, and by customers – all before these updates are released to the general population." Auch wenn der Anhang - wies mir in letzter Zeit vorkommt - eher nicht zutrifft und das fettgedruckte überwiegt.
  10. @testperson: Das kommt ganz auf die Übertragungsrate an. Die virtuelle Netzwerkkarte ist immer direkt abhängig von der CPU solange nicht Direct Path I/O genutzt wird. Nur fällt das normalerweise gar nicht auf, weil man in einer einzelnen VM meistens eh ned soviel Leistung abruft bzw. abrufen kann. Ich erreiche die CPU-Limitierung auch nur Hostintern auf den SSD-Primär- und Sekundärspeichern, da läuft nichts via externer Netzwerkkarte ab sondern nur hostinern im Netzwerk-Stack. Da muss aber ohne Direct IO alles drüber. Extern habe ich kein Storage welches diese IO-Leistung auch nur Ansatzweise verarbeiten könnte geschweige denn die entsprechende FC oder oder sonstige Lösung ;) Habe das auch nur Testweise gemacht zum sehen wo tatsächlich ende ist, wollte produktiv ned so viele Kerne der Storage App "opfern"
  11. Ich meine das war ziemlich Host abhängig. Andere Leute berichteten es genau anders rum. Auf manchen lief das eine besser auf dem anderen jenes. Auf meinen Hosts (Fujitsu und Supermicro) hatte ich mit E1000 nie wirkliche Probleme unter 5.1, nur ne Menge Log-Einträge. Tat aber der Performance oder Stabilität der Verbindung keinen Abbruch. Wie auch immer, VMXNET3 kann und sollte aktuell wohl generell verwendet werden. Funzt am besten. @magheinz: Die Übertragungsrate ist vor allem auch CPU-abhängig. Die Rate skaliert mit VMXNET3 linear hoch wenn mehr CPU-Kerne verfügbar sind. Höhere Takrate bringt dagegen mehr als nur linear etwas. Immer vorausgesetzt, dass das Storage auch die notwendigen IOPS bereitstellt. Davon bin ich auf meiner SAN weit entfernt aber auf meinen hostinternen Storages komme ich bei Recovery oder Backup bis fast an die Herstellerspezifischen Angaben der SSD's in RAID10 ran. Skaliert dann ebenso nahtlos wenn mehr SSD's im selben Stripe sind. Braucht dann aber auch ein paar 3GHZ Kerne in der Quelle und im Ziel. @Ulupus: Vorher vergessen, Treiber für VMXNET3 sind Bestandteil der VmWare Tools
  12. Das Problem sehe ich jeweils im im Automatismus der gerne mal fehlschlägt. Vielleicht bin ich ja zu doof aber ich hatte das öfter, dass die VM's irgendwas gerödelt haben und einfach viel zu lange zum runterfahren hatten. Vor allem der SBS war da grässlich. Liess sich zwar verschnellern mit manuellem Shutdown-Script war aber immer noch super mühsam. Auch SAN Shutdown ist irgendwie uncool. Wenn die HDD's vielleicht nach Jahren nimmer hochfahren wollen auch. Gabs wohl auch schon. =) Ich habs am liebsten wenn ich möglichst nie runterfahren muss. Hab ich keine Arbeit damit und muss ned nervös werden wenn ich mal ned da bin. Wo wir grad bei den sinnvollen Dingen sind: Eigentlich wäre auch ein UMTS-Gateway für Fernwartungszugriff gut. Internet ist dann in der Regel auch essig wen es grössere Stromausfälle sind, die Handymasten haben oft ne recht lange zeit Notstrom oder sind eigens versorgt weil mittlerweile Katastrophen oft darüber laufen. Die Batterien halten problemlos 10 Jahre wenn die Bedingungen stimmen. Also Überkapazität damit sie im normalfall gar nie tief entladen werden sondern max. bis ca. 30%. Dazu am besten klimatisiert. Die einzelnen Batterien sollten auch mindestens 40Ah haben, ab da ist ca. die physische Qualität um einiges besser weil die auch in Fahrzeugen und Baumaschinen verwendet werden. Die guten müssen da viel aushalten können. Sowas kriegt man aber leider ned für die kleinen USV's sondern nur bei den grossen Brummern oder solche die auf Bestellung gefertigt werden. Oder eben Batterie-Pack Marke Eigenbau, dann aber vorzugsweise mit Abnahme wegen Versicherung und so.
  13. @Zahni: Naja, hab ja alles auf Intel gewechselt und nix mehr auf VMXNET3, von daher wäre mir das nicht aufgefallen, dass VMXNET3 wieder geht auf 5.1 ;) @Ulupus: VMXNET3 hängte sich unter 5.1 gerne mal auf. Performance war urplözlich und ohne Vorwarnung im Keller. Half nur ein Ausschalten und Reboot der VM. Angeblich gefixt wurde es öfter mal. Irgendwann hatte ich genug von den angeblichen Fixes und hab alles auf E1000 gewechselt und auch nichts anderes mehr konfiguriert. Probleme waren komplett weg. Daher ists/wäre es mir nicht aufgefallen wens mal tatsächlich richtig gefixt wurde. Nach dem Wechsel auf 5.5 wars dann gleich anders rum, alle VM's machten mit der Zeit Probleme. Auf dem gleichen Host. Ob aktuell E1000(E) unter 6 oder 5.5 sauber läuft weiss ich nicht, habe da nach den ersten Problemen nur noch VMXNET3 genommen und alles wieder zurück gewechselt.
  14. Der E1QEXPRESS ist ein Standardfehler. Meiner Erfahrung nach ist es meistens sogar total egal wenn der kommt, ist nur super nervig weil er alles zumüllt und wichtiges übersehen wird (wegfiltern). Manchmal kommt er auch weil er irgendwelche Updates fahren will bzw. keine Treiberdownloads machen darf wegen Policy-Beschränkungen. Kommt manchmal auch wenn alles wunderbar funktioniert und sämtliche Energiesparfunktionen abgeschaltet sind. Abstellen lässt er sich nur zuverlässig indem man den Gerätesammeldienst inklusive zugehörigem Task deaktiviert der eh total für die Katz ist. Dann ist Ruhe im Karton. =) Je nach ESXi Host ist aber der Wechsel auf VMXNET 3 tatsächlich sinnvoll, das äussert sich dann aber mit richtigen Unterbrüchen und spürbaren Performance-Einbussen. Auf meinen 5.1 Hosts war die Intel-Karte deutlich stabiler, auf 5.5 wiederum VMXNET3. Auf dem gleichen Host wohlverstanden. Verstehe das wers will.
  15. Dem kann ich nur beifplichten. Stromversorung ist das A und O. In meinem Bekanntenkreis haben sich in den letzten 5-10 Jahren die Stromausfälle massivst erhöht. Einfach weil Netzausbau eben teuer ist. Von daher: bevor ich irgendwelche Hochverfügbarkeitsdinger in Erwägung ziehe, erstmal Grundlagen für eine stabile Stromversorgung schaffen. 2 USV's mit viel Batteriekapazität damits auch ein paar Stunden autonom läuft wenn z.B. Shutdown aus welchen Gründen auch immer in die Hose geht. Die Batterien dankens einem auch wenn sie ned jedes mal auf 0-20% entladen werden --> sehr schnell doppelte bis dreifache Lebensdauer. Dazu ein einigermassen schnelles Recovery.
  16. C&C, da wird mir gleich warm ums herz =) Mods programmieren und unverfügbare Einheiten irgendwie zum laufen zu bekommen, Gegenerische Einheiten stärker machen usw. hat mächtig Spass gemacht und viiiiiiiiiiiiele Nächte gekostet. Ist ja leider heute jeweils alles verschlüsselt :( Zum Thema: Windows 98 läuft eigentlich nur auf VmWare wirklich gscheit. Ich kann die Version Workstation 6.5 (neuest Build) mit einem XP Host empfehlen, ist zwar schon älter, läuft dafür aber extrem stabil, schnell und ohne Mäzchen. LSI-Treiber gibts im Netz (mit etwas suchen) der Graka-Treiber kommt von VmWare. Simple 3D-Grafik funktioniert recht gut. Halt auf die Befehle beschränkt, die unterstützt werden. Mit XP oder Server 2003 als Unterbau läufts zudem flüssig. Mitunter muss etwas an den Parameter der VM geschraubt werden für ein optimales Ergebnis.
  17. Wenn der Standarddrucker mit Rundll32 als letztes gesetzt wird, bleibt er auch der Standardrucker. Ausser man pfuscht mit was anderem rum. :)
  18. Wie gesagt, nimm die uralten rundll32 Befehle mit nem Batch-File oder die gleichen mit nem VBS. Solange man keine anderen Scrips und GPO's rumpfuschen lässt, funktionierts auch. Ich habe die Probleme in keiner einzigen Umgebung und sind auch ein paar davon mit aktuellem 2012R2. Ob die Dinger nun in der Geräteliste auftauchen oder nicht ist doch total egal solange sie in den Programmen sowie der effektiven Druckerliste erscheinen (auch wenn diese nur über einen Umweg - siehe unten - erreichbar ist) Diese Geräte-Liste ist dermassen Buggy, dass man darauf eh keinen Cent geben sollte. Wenns nur um die geht, verstehe ich das Problem daher eh nicht =) Kenne bist jetzt jedenfalls kein Programm, dass sich die Liste darüber holt. Wenn du eine funktionierende Liste willst, die "richtige" Auflistung hernehmen: Ordner erstellen mit: "Druckerliste.{2227A280-3AEA-1069-A2DE-08002B30309D}" Darauf dann ne Verknüpfung und diese ab ins Starmenü oder Desktop. Der Name vor der GUID ist irrelevant. Ist erst noch viel bequemer um Einstellungen zu erreichen oder Drucker zu löschen.
  19. Nimm doch einfach ein gutes altes Login-Script für die Printer. Normalerweise sind die Probleme dann gelöst. Ich habe jedenfalls keinerlei Sorgen mit verschiedensten Drucker. Set PrintingServer=\\SV-Printer-2012 rundll32 printui.dll,PrintUIEntry /in /n %PrintingServer%\PrinterName1 rundll32 printui.dll,PrintUIEntry /in /n %PrintingServer%\PrinterName2 REM Standardrucker setzen rundll32 printui.dll,PrintUIEntry /y /n %PrintingServer%\StandardruckerName1 REM alte löschen (ich aktualisiere die Liste bzw. entferne nach einiger Zeit die Einträge wenn mehr oder weniger alle mal wieder angemeldet waren, gleichzeitig pro Umgebung eine Liste mit allen alten Druckern wenn sich mal wieder einer ne Ewigkeit nicht angemeldet hat und jammert er habe inaktive Drucker) rundll32 printui.dll,PrintUIEntry /q /gd /n \\%PrintingServer%\PrinterNameZuLoeschen1 rundll32 printui.dll,PrintUIEntry /q /gd /n \\%PrintingServer%\PrinterNameZuLoeschen2 Ist auch für einige Arbeitsplätze gut geeignet, meistens pro Abteilung nen Script.
  20. Kein Grund dauernd abschätzig über Klein- oder Kleinstfirmen zu sprechen. Es spielt keine Rolle ob 3, 10 oder 100 Mann Bude. Die Bloatware und Auspioniererei gehört einfach nicht auf die Arbeitsmaschinen. Die Pro-Version war eine Business-Version und davon gehen die meisten noch aus. Die Pro-Version wird bewusst grottig gemacht um sie den Business-Benutzer möglichst madig zu machen. Quasi der gleiche Plan wie bei VM's, Office und Application-Servern. Langsam einen um den anderen in die Miete drängen. Erst mit kleinen lästigen Dingen wie dem Lock-Screen, Bloatware die sich nur schwer entfernen lässt etc. Später werden dann noch mehr Einschränkungen hinzukommen. Auch bei den Enterprise und sogar der Enterprise LTSB Versionen hat es noch ne Menge Datensammlungskrempel mit an Bord wer da - wie ihr so schön sagt - nicht "rumfrickelt" gibt eine sehr grosse Menge an Daten bekannt. MS darf mit den Windows 10 Bestimmungen so gut wie alles, auch wenn sie die Möglichkeiten noch nicht ausschöpfen, es wird bestimmt noch gemacht. Erst mal möglichst viele umsatteln und dann langsam die Schraube anziehen. Ist nicht mehr weit weg von vertraglich zugesicherter Werksspionage. Wie gesagt, dank immer sauberer Kapselung seitens MS kann man heute den unerwünschten Krempel meist auch problemlos löschen ohne Systeminstabiltät befürchten zu müssen. Das war früher teilweise eine mühsamere Angelegenheit. Macht man die Änderungen sauber per Script, kann man sie auch auf Knopfdruck wieder rückgängig machen. Alle die das als Frickelei ansehen, ignoriert doch die Thread's dazu einfach und hebt die Energie für andere in euren Augen sinnvolle Threads auf. ;)
  21. Kommt doch darauf an wo man dran rumschraubt oder? - Apps lassen sich ohne Einschränkungen bzw. Auswirkungen aufs System entfernen. Die sind gekapselt. Bestenfalls haben die Massnahmen positive Auswirkungen. --> Massive Einsparung an IO's und CPU-Zyklen. Vor allem in VDI - Privatsphäre/Firmendaten werden besser geschützt, weil viele der Bloatware auf alles mögliche Zugriff hat wo kein Zugriff hingehört. Im Business-Bereich schon gar nicht. - Sicherheit wird mit Entfernung auch verbessert, weil viele dieser Apps automatische und umfangreiche Firewall-Ausnahmen erstellen bei Benutzeranmeldung - Wie Alith schon gesagt hat, müssen einige der Massnahmen ausgeführt werden um ein Sysprep überhaupt erst möglich zu machen Meines erachtens haben Veränderungen dieser Art nichts mit Frickelei sondern viel eher mit der generellen Einstellung gegenüber Datenschutz und Sicherheit zu tun. Wenn ich als GL wüsste, dass solcher Kram einfach pauschal hingenommen wird, keine Info erfolgt was da eigentlich abgeht, Windows 10 einfach ausgerollt wird ohne entsprechende (Gegen)-Massnahmen zu treffen würde der IT-Leiter fliegen sowie der Dienstleister gewechselt werden. Aber da liegt glaub auch der grosse Unterschied zwischen der Einstellung von Unternehmer und vielen Angestellten. Nur mit Ein Dienstleister muss sich diese Arbeit nur einmal machen und kann sie anschliessend auf seine Kunden anwenden.
  22. Irgendwie müssen teilweise ja Daten von Kunde ins interne Netz kommen. Also in irgend einer Form brauchts das schon.
  23. Das müsste schon soweit automatisiert sein, damit der Benutzer keine wesentlichen Einschränkungen hat. Bei nem Whitelisting für spezielle Portale und Server, hat es keinen wirklichen Einfluss auf die tägliche Arbeit. E-Mails werden ja via bestimmten Server abgewickelt, das lässt sich schon explizit routen oder man lässt sie im Internet-bereich und verschiebt nur die Dateien nach Prüfung. Stelle mir das so vor, dass die zweite Maschine mit dem Browser quasi eine App auf dem Arbeitsrechner ist. Kommunikation lediglich via VNC oder einem anderen Fernwartungs-Protokoll. Diese Internet-App kann auf nen File-Transfer-Ordner zugreifen wo der User dann via explorer ebenfalls zugriff hat. Im Endeffekt ist das nicht mühsamer als ein gescanntes File aus nem Scanner-Ordner zu holen. Mit VM's lassen sich solche Konstrukte ja einigermassen einfach aufsetzen. Alleine aufgrund der vermehrten Surf-By Problematik für Schädlinge ist mir ein solcher Ansatz schon sympathisch geworden.
  24. Du träumst.... Das geht eins nach dem anderen. Das Tempo wurden in den letzten 5 Jahren massiv erhöht. Erst wird Virtualisierung gepusht, dann virtualisierte Systeme lizenztechnisch eingeschränkt, erst Office dann Windows. Jetzt folgt der Zwang durch Verars***ung zu VL-Lizenzen. Der nächst Schritt wird die Aufhebung von Kauflizenzen sein. Ganz im Sinne des Kunden. Das schöne am massivst verbesserten ComponentStore ist, dass man den Schrott eigentlich alles wegbekommt wenn man die entsprechenden Hives, Files und Berechtigungen an den richtigen Stellen weiss. Der Aufwand ist einfach enorm, dank viel besserer Kapselung und dem Bestreben von MS alle Editionen mit einem Image zu erschlagen, ist ein entfernen aber deutlich zuverlässiger als früher geworden. Vorgehen am besten auf einem nackten System solange Benutzer die Apps noch nicht genutzt/installiert haben. Dann ist es einfacher. Die Apps schreiben an diverse Orte in der Registry rum. - AppReadiness deaktivieren - Neuen Admin-Benutzer erstellen (Lokal) - Mit neuem Admin anmelden (Es werden nur Die Shell sowie Cortana installiert. Bei LTSB nur Basis-Cortana. Ist einem das auch zuviel wirds komplizierter) - System neu starten (WICHTIG - sonst wird Profil nicht richtig gelöscht) - Profil des ersten Admins löschen (Systemsteuerung>System>Erweiterte Systemeinstellungen>Erweitert>Benutzerprofile) - Meist nicht nötig aber kann man trotzdem machen: Benutzer komplett löschen, dann entfernt Windows eigentlich alles ziemlich zuverlässig. Die SID gibts dann einfach nimmer. - Neu starten - Jetzt am besten nen Snapshot der VM ziehen sowie nen Systemwiederherstellungspunkt Jetzt sind mal keine Benutzer mehr mit App-Einstellungen vorhanden und man kann das grosse Aufräumen beginnen. Am besten mit Admin 2, da er sicher sauber ist. - Apps entweder aus dem Component-Store entfernen mit Dism, das ist die eleganteste Variante (teilweise trusted installer rights benötigt, teilweise reicht System -->Stichworte Google: Enable Privilege, sysinternals psexec) - Übernahme des Ownerships, setzen von Rechten in der Registry usw. - Wenn das nicht geht, manuelle Entfernung via den ComponentGUID, davon abhängigen GUID's in der Registry, WinSxS und im SystemApps Installationsordner. Testen kann man immer wieder mit neuen Benutzer-Profilen und wenn das geht, mit komplett neuem Benutzer (geht dann normal auch immer). Am Ende - wenn man Apps hat die man installiert haben möchte - kann man AppReadiness wieder anschalten. Bei mir bleibts noch ganz aus, weil ichs bis jetzt nirgendwo brauche. Wird sich sicher auch noch ändern. Habe da schon einiges an Zeit investiert und werde noch einiges müssen um den Kram möglichst komplett abzudrehen. Man kriegt eigentlich alles los, nur der Aufwand ist teilweise enorm. Mein Config-Script für Neumaschinen ist mittlerweile schon ewig lang.
  25. @NoberFe: Nun, eine echte Wahl hat man ja leider nicht. Verweigerung, fressen oder anpassen. Ersteres ist im Unternehmensbereich leider nicht möglich. Meine Ideen dazu: OS vermurksen soweit es (noch) möglich ist, Firewall um Kommunikation zu unterbinden mit Whitelisting für Internet-Server-Adressen für Unternehmensapplikationen, Linux für alles was mit surfen zu tun hat, Transfer-Ordner für Files auf Storage-Systemene die vom Internet kommen usw. Wird sicher mühsam bis da was vernünftiges steht, dass schnell ausrollbar und einfach zu warten ist.
×
×
  • Neu erstellen...