Jump to content

Weingeist

Members
  • Gesamte Inhalte

    1.566
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Weingeist

  1. Ich kaufe SA seit es sie gibt. Mich überzeugten bis auf wenige Ausnahmen deren Produkte sowie die Politik von MS im Vergleich zu anderen Konzernen. Bei Kundenprojekten entscheide ich das situativ und auch was der Kunde möchte. Allerdings installiere ich nach Möglichkeit immer so, dass keine reinen Mietmodelle notwendig sind und die Umgebung auch mit gekauften Lizenzen nach Ablauf weiterbetrieben werden kann. Das heisst oft der Verzicht auf Shared Storage und höhere Einstiegskosten für die Lizenzen. Die Shared Storage Teile finde ich aber mittlerweile eh meist zu lahm oder unbezahlbar. Ansonsten: Auch wenn ich die aktuelle MS-Politik alles andere als unterstütze, entweder man bezahlt was man einsetzt oder setzt es nicht ein. Du willst auch, dass Deine Kunden die Rechnungen bezahlen. Alles andere ist Betrug.
  2. Ganz genau das will es heissen. Früher wurde das mit innovativen Upgrades eingespült, die Freiwillig gekauft wurden. Wer zudem besseren Support wollte, bekam den mit der SA. Heute wird einem das Update in Form eines Service-Vertrags auferzwungen bzw. das Zeitalter des SaaS eingeläutet mit dem deutlich mehr Kohle verdient werden kann. An der Preisschraube lässt sich dann sehr flexibel drehen, solange keine echte Konkurrenz da ist, kann man absahnen und wenn welche aufkommt, geht man mit den Preisen eben wieder runter. Der Kunde kann einem schlechten oder nicht fertigen Produkt keine Abmahnung mehr erteilen wie das z.B. bei Vista der Fall war. Wer nicht mitzieht bzw. mindestens mitweiterbezahlt, der kann die bestehende Umgebung nicht weiter betreiben. Für mich der Totengräber von Innovativiät, Kundenfreundlichkeit etc., weil weltfremde Mangerlis tun und lassen können was sie wollen und ihre Kunden und am Ende auch den Top-Konzern Microsoft problemlos in die ka**e reiten können. Sieht man ja tagtäglich was passiert, wenn die sogenannten Top-Kader zu viel Freiraum bekommen. Wie auch immer, aktuell kannst Du bei entsprechender Auslegung der Installation (Kein Shared Storage, kein vMoition usw.) entsprechende Lizenzkosten sparen, verlierst aber auch an Flexibilität. Zu zahlen sind die Lizenzen übrigens auch wenn nicht MS sondern ein Konkurrenzprodukt die Funktionalität bereitstellt. Sehr perfide, aber VmWare wird so langsam aber stetig aus dem Markt gedrängt. ;)
  3. Software Assurance wird aber auf Applikations- und Cal-ebene meist Pflicht wenn Du den Krempel hin und herschieben kannst. Ist ein Bestandteil der Bestrebungen von MS, die Kunden langsam aber stetig weg vom Lizenzkaufmodell zum hochprofitablen SaaS-Konzept zu zwingen.
  4. Bei der Durchsicht noch was gesehen: Das 'Problem' ist von verschiedenen Anbieter gelöst, welche diese Lücke für deren Geräte füllen. Entweder OEM mit eigenem Brand oder Verträge direkt auf Supermicro-Server. Zum Support: Es gibt heute nicht mehr viele grössere Firmen bei welchen man auch ohne Service-Vertrag an wirklich kompetente Leute kommt wenn es nicht 0815 Fragen sind. Supermicro gehört da dazu. Ansonsten: Kauft man bei einem vernünftigen Händler, hat der auch Ersatzteile für Garantievorabtausch an Lager. Vertraglich festgelegt oder auch nicht. Selber kann man auch Ersatzteile vorhalten usw. Man muss sich eben andersweitig absichern. Nicht alles so bequem wie beim Hersteller direkt, dafür deutlich günstiger. @Heisenberg: Das bedeutet, das jemand nicht nur keine Ahnung hat sondern grösstenteils auch komplett Beratungsresistent ist. Nicht gerade der schönste Titel hier im Forum ;) @Dr. Melzer: Nope, das stimmt so nicht direkt, wenn auch fast. Ist quasi die selbe Einheit aber nicht die selbe Menge. Die VA ist wie Norbert angetönt hat die Summe aus Wirkleistung und Blindleistung. Das ist bei allen Anlagen die nicht direkt aus dem Netz gespiesen werden noch wichtiger. Die Watt betitelt die Wirkleistung, was also eine hinterhergeschaltete Machine effektiv verbrauchen darf/kann/tut. Dazu gibts die Blindleistung welche zwischen Speisung und Verbraucher hin und her geht. Normalerweise ist diese nicht so relevant, da vom Netzbetreiber diese quasi ausgeglichen wird bzw. bei grösseren Installation muss man selber eine solche Kompensationsanlage betreiben damit die Ströme nicht zu hoch sind und einem wiederum Kosten berechnet werden. --> Anfahren ausschalten von Maschinenparks usw. Da eine USV die eigentlich Speisung der Geräte ist, muss sie zur Wirkleistung eben auch die Blindleistung abkönnen. Wenn ich also auf eine 3000 VA USV 3 kw ziehe, läuft die USV in Überlast. @magicpeter: Es ist wirklich schwer Dir irgendwas sinnvolles zu vermitteln. Grundlagenwissen zu Hardware, Lizenzen und Software gehen dir völlig ab und scheinst die entsprechenden Hinweise auch nicht zu verinnerlichen bzw. richtig nachzuforschen. Zu Hardware: Ich nehme hier jene Controller, die von den grossen Hersteller standardmässig in den Server verbaut werden. Gleiches bei Festplattenmodellen, RAM etc.
  5. Nun obs reicht sieht man immer erst wenn ein Update sowie eine allfälliger Restore zum vorherigen Zustand fehlgeschlagen ist, aus welchen Gründen auch immer. Ob du genügend sicher bist, das alles haut, kannst nur Du selber abschätzen. Dabei auch immer das eigene KnowHow miteinbeziehen wenn es eben doch in die Hose geht, also ob man dann wirklich fähig ist eine verbockte Situation am Live-System zu retten oder nicht. ;) Mit nem Offline-Backup kann man halt völlig stressfrei von vorne beginnen wens in die Hose geht und die eigenen Rettungsversuche ins Leere laufen.
  6. 1. Die Kosten für DoubleTake unterschätzst Du meiner Meinung nach gewaltig. Normal brauchst Du für eine sinnvolle Absicherung pro Server-Instanz mindestens zwei Lizenzen. Für ein auomatisches Fallback sogar deren drei! 2. Meine Erfahrungen hat gezeigt, das ein manuelles switchen von Hosts oder VM's in kleinen Umgebungen bei Ausfällen stressfreier ist. Ein Ausfall kommt A sehr selten vor wenn vernünftige Hardware verwendet wird und B weiss man dann genau was man gemacht hat. Oft reicht der Reboot und Kontrolle des Servers und ein Switch auf die andere Maschine ist nur ein unnötiger Schritt/Risiko. Auch hat man die bei grösseren Umgebungen normalerweise eingesetzen Applikations-Cluster die sich quasi wieder selber heilen nicht. Daneben sparen fehlende Automatismen auch Lizenz-Kosten. Läuft alles Autonom und es wird nur gesichert, dann fallen auch keine zusätzlichen Lizenzkosten an. 3. Für die paar Server-Instanzen würde ich Single-CPU Kisten verwenden. Das stört mich auch bei den grossen Hersteller. Da bekomme ich keine hohe Xeon-CPU-Klasse mit einem Sockel in einem vernünftigen Server. Bei Supermicro schon. Das ist aber Gescackssache, wie so einiges. Ich hätte gerade in der Virtualisierung lieber eine hohe GHZ-Zahl stehen (sofern einem die PCI-Express Lanes bei Single-CPU ausreichen). Drückt in aller Regel die Hardware-Kosten deutlich. Bei allem worauf User direkt arbeiten, sind halt nach wie vor die GHZ und die Speicher-Latenz die wesentlichsten Faktoren für ein gutes User-Performance-Feeling (RDS, Virtuelle Desktops etc.). Auch sinkt der Verwaltungs-Overhead sehr deutlich, wenn für die gleiche Leistung mit weniger Kernen pro VM gearbeitet werden kann (Hypervisor-Ebene). Dazu kommt, dass immer noch sehr viele Anwendungen mit schnellen CPU-Kernen besser vorwärts kommen als mit Multi-CPU, sofern sie überhaupt auf Multi-CPU ausgelegt sind. Heute immer noch selten der Fall. --> Eine CPU mit 2GHZ käme mir nur ins Haus wenn ich weiss, dass meine Anwendungen optimal Multi-CPU nutzen können bzw. für reine Server-Aufgaben. 4. Nimm einen richtigen Business-LSI-Controller und keinen ehemaligen 3Ware Home-Office Controller (klingt etwas hart, ist aber nunmal kein Enterprise-Produkt). 5. RAM: Aktuell ist da 1600 und 1866 MHZ, wie komsmt du auf 1280?
  7. Stimmt. Du selber hast es gesagt. =) Wenn solche Übungen im SBS-Umfeld schiefgehen, dann schiesse ich den zweiten DC ganz einfach ab. Bis 2003 eigentlich schon vor solchen Übungen wenn diese geplant sind. Ab 2008 ist das AD-Cleanen aber eine relativ einfache Aufgabe und man kann es machen oder bleiben lassen. Deshalb vorher auch immer prüfen ob der zweite DC noch andere Aufgaben hat als DC zu sein. Fals ja, lieber vorher demoten, damit nur noch ein DC übrig ist. Oder grad von Anfang an auf einen Reduzieren. Vereinfacht die Nacharbeit. Ein Recovery vom Image ist dann absolut kein Problem.
  8. Ich würde dir noch was ganz anderes empfehlen: Fullimage der ganzen Platte(n) mittels einer StartCD. Dann kannst wirklich den absolut identischen Zustand wiederherstellen
  9. @zahni: Das habe ich weder gelesen noch hineininterpretieren können.. Wo genau soll das stehen, dass man zwingend einen TS installieren und diesen auch so nutzen muss? Den Passus würde ich gerne mal sehen.. Was steht ist: Wenn Remote-Desktop oder ähnliche Technologien genutzt werden, unter Server eine CAL für RDS fällig wird. Das heisst für mich, man muss nicht den Terminal-Server verwenden sondern man muss eine CAL ebenfalls haben, auch wenn man ihn nicht nutzt. Das ist ein grosser Unterschied. Das heisst, man kann auf die VM Zugreifen wies gefällt, Hauptsache die User haben ne CAL.
  10. Dafür: - Das genannte, wobei ich gegenüber der schnelleren Ausführung doch eher skeptisch bin 1* - Der Ordner-Rauf-Button ist wieder da, man benötigt keine Zusatzprogramme mehr. Sehr bequem. - Je nach Geschmack die neue Explorer-Menüleiste, ich bin auch nach 3 Jahren in Office immer noch spürbar langsamer durch die Menüs als in Office 2003. Bei Explorer wirds nicht anders sein. Alte eingefleischte Alt-Menübuchstabe-Kombinationen gelten nimmer - Im Serverbereich gibts noch einige mehr Argumente die dagegen sprechen - Imho Performance 1*: auf identischer Hardware. Bei W7 kann man einige Einstellungen die bei 8 Standard sind einstellen und somit zu etwas mehr Schnelligkeit verschaffen. Der Wegfall des Aero-Anteils dürfte etwas weniges bringen. Für das Starmenü gilt es übrigens definitiv nicht, das ist spürbar langsamer aufgebaut sobald z.B. eine Remote-Verbindung besteht. Auch sonstige IO's wie irgendwelche Performance-Daten, Gerätekrimskrams und sonstige eigentlich völlig unnötige Aufzeichnungen schreib W8 deutlichst mehr auf die Platte. Macht auf nem normalen Rechner ned wirklich viel aus, bei vielen virtuellen Desktops kommen da aber einige Iops zusammen. Alles abschaltbar, aber halt standardmässig ein. --> Verstecken sich in Diensten und diversesten Aufgaben - Startmenü ist extrem gewöhnungsbedürftig, da dürfte es mit dem neuesten Update hoffentlich Abhilfe geben. Was da mal nimmer drinn ist, ist mühsam wieder reinzukriegen. Nicht alles ist nach der Installation auch tatsächlich drinn. - Hochintegrierte Online-Dienste sind Geschmackssache, meiner definivt nicht - Suche ist identisch mies wie bei 7 (wie sehr wünsche ich mir die hundskomumne XP Classic-Suche zurück, die findet immer was sie soll, 7 und 8 was es meint man solle finden und schwierig die Parameter alle auswendig zu wissen) - AppX mit seinen ganzen Spyware Ambitionen sowie den Windows-Store zur Strecke zu bringen erfordert einiges an Aufwand, unter 8.1 nochmals höher als bei 8 (Systemrechte erforderlich)
  11. Sorry für die späte Antwort. Bin etwas eingespannt... Wie bereits gesagt wurde, in den seltensten Fällen ist das tatsächlich wirklich notwendig. Wenn die Reaktion nur ein paar Telefonate von genervten Leuten entstehen ist das wurscht und nur unangenehm. Wenn es die Firma richtig viel Geld kostet, dann muss man auch dementsprechend richtig viel Geld investieren. In der Regel wird es sehr schnell unnötig wenn man Ihnen aufzeigt was das kostet. Die einzigen bezahlbaren und sinnvollen Lösungen die ich kenne und auf eine sehr hohe Verfügbarkeit kommen ohne eine gigantische Materialschlacht zu starten, sind entweder Stratus-Server als Unterbau oder eben Xenserver mit der Marathon-Erweiterung. Bei Marathon wird wirklich alles gespiegelt, inkl. Storage. Dabei ist es egal wo der Storage liegt, ob lokal oder auf jeweils getrennten SAN. Die VM's laufen dann im Lockstep auf zwei Server, schmiert einer ab, dann läuft sie auf dem anderen ohne Unterbruch weiter. Kackt der Storage oder Netzwerk weg auf welchem die VM liegt, gibts kein Host-Wechsel in der Ausführung, sondern der Traffic wird via dem zweiten Host geleitet. Die Komplexität ist bei beiden überschaubar aber dennoch deutlich höher als einfach ein Standardserver. Die Materialschlacht beschränkt sich auf zwei bis drei Server. Aber auch da bewegen wir uns in einem deutlich höheren Bereich als Du hier ausgeben möchtest. Dann gibt es noch Replikationslösungen mit manueller oder automatischer Umschaltung welche auch sehr gut funktionieren. Sehr gute Erfahrungen habe ich da in der Vergangenheit z.B. mit DoubleTake gemacht. Heute löse ich bei wenig Budget aber möglichst hoher Verfügbarkeit meist so wie ichs oben schon beschrieben habe. Immer das beste an gerade noch bezahlbarer Hardware. Das heisst - jeweils höchste Xeon Serie, 1 CPU Hosts mit höchstmöglicher Taktrate (reicht normal völlig aus und ist bezahlbar) - SSD's welche den Namen verdienen - Magnetplatten die auch in richtigen SAN's verwendet werden - zwei völlig überdimensionierte USV's die die Zeit mehrere Stunden überbrücken können (Batterien leben sehr viel länger, in unseren Breitengraden meist nicht nötig tatsächlich herunterzufahren usw.) - verschiede Backupziele, wobei eines immer lokal ist und darauf auch sehr fleissig gesichert wird. Da sind dann sehr schnelle Wiederherstellzeiten garantiert. - Drahtlos-Netzwerkwartungsmöglichkeit via Mobil-Telefon usw. - NAS als wirkliche Disaster-Lösung in nem anderen Brandabschnitt - Backup/Verfügbarkeit ganz klassisch mit den verschiedenen Onboard-Lösungen wie Schattenkopien, DFS, Windows-Backup, Robocopy usw. Klar dauert bei nem Brand die Wiederherstellung so lange wie sie auch bei nem Einsteiger-Shared Storage dauern würde. Aber sind wir ehrlich, in nem Kleinbetrieb wos gebrannt hat, ist es sc***egal wie viele Stunden gebraucht werden um die EDV wieder hochzubringen. Man hat ganz andere Sorgen. Wichtig ist nur, dass die Daten noch da sind. Auch das ist alles andere als billig, aber zumindest preiswert für das was man erhält, die Komplexität ist tief gehalten und die laufenden Kosten überschaubar. Wenn etwas mehr Budget vorhanden ist, kann man natürlich mit ner gscheiten Backup-Lösung wie Veaam arbeiten wo man die Sicherung gleich produktiv hochfahren kann. Wird aber wieder komplexer und auch dessen Umgebung soll gscheit gesichert sein. Bei kleinen Umgebungen ist der viele Zusatz-Traffic in der Regel trotzdem vernachlässigbar. Aber eben, sowas wird als gebastelt abgetan, aber ich habe damit sehr gute Erfahrungen gemacht. Die Hardware ist für solche Umgebungen total überdimensioiert
  12. Habe mir das Video jetzt nicht angeschaut. Macht er das so, dass jeder Hyper-V-Host zugleich Storage-Cluster-Mitglied ist oder gar mit Storage-VM's auf jedem Host? Ob solche Dinge allgemein sinnvoll sind, muss jeder für sich selbst beantworten. Die Komplexität steigt aber deutlich an, auch wenn das Klicki-Klicki für das einrichten einfach ist und anderes vermuten lässt. Dessen muss man sich bewusst sein. Ob es supported ist, weiss ich auch nicht. Ich bin mir zudem nicht ganz sicher ob Du das Prinzip des Storage-Cluster verstehst, welches man mit Windows bereitstellen kann. Jeder Host braucht Zugriff auf den gleichen Plattensatz. Das heisst Du bräuchtest nen JPOD sowie Shared RAID-Controller (gibts aktuell nur für 2 Hosts von LSI, für ca. 5k Euro). Ansonsten landest Du wieder bei Software RAID und da ist die Performance erfahrungsgemäss mit Magnetplatten richtig schlecht. Von der Sicherheit ganz zu schweigen. Imho nur mit SSD's oder Festplatten aus nem RAID-Verbund brauchbar. SSD's bräuchtest wiederum nen SAS-Interface oder nen SAS-Interposer. Das JPOD wäre übrigens wieder nen SPOF. Einen einzigen Storage-Server zu verwenden würde gehen, sehe ich aber keinen wirklichen Vorteil. Liegt alles auf den Hosts kann ich zwar nicht identisch gut hin und herschieben (wozu eigentlich? Ausser hohen Lizenzkosten und Risiko beim verschieben gewinne ich wenig) und muss mit einer kleinen Downtime von ein paar minuten leben, dafür ist die Hälfte noch online. Bei einem Windows-Server für Storage muss bei dessen Patchung theoretisch alles heruntergefahren werden, das heisst du brauchst wieder irgendwo nen DC. Ich bin ja auch in dem Gebiet tätig, kleine Firmen, wenig Geld. Aber richtiges HA das den Namen verdient und auch etwas nützt bzw. in erster Linie nicht schadet, ist nicht mit einem schmalen Geldbeutel vereinbar. Egal was einem die neuen Windows-Features suggerieren möchten. Gleichzeitig ist es wie gesagt im Normalfall auch gar nicht nötig. Falls doch, gibts mit Xen + Marathon ne nette Lösung für Kleinumgebungen welche das Problem eigentlich ziemlich elegant erschlägt. Das ist dann richtiges HA bis hin zu richtigem Multi-CPU- Lockstep. Community aber sehr klein und nach der faktischen Einstellung des Xen-Servers auch etwas schwammig für die Zukunft. Oder gleich ein Stratus (wiederum nicht günstig). ABER: Man kann aber mit Bordmitteln nette Dinge für ein super schnelles Recovery machen. Da holt man viel mehr raus. Da kann man bei den Recovery-Zeiten auf Einstiegs-SAN mit z.B. iSCSI nur träumen von. Auf meiner habe ich mit 1Gbit iSCSI max. ca. 100 MB/s bei 12 Platten (1Gbit Lan-Karte beschränkt). Das geht Lokal viel schneller. Was ich also damit meine: Viel lieber Geld in die Festplatten und RAID-Controller der beiden Hosts stecken anstatt in eine SAN wenn man sich den Rest nicht leisten kann. Das heisst auf alle Fälle SAS und mindestens 10k Spindeln und davon wiederum sicher nicht nur 2 Discs. Je schneller das Disc-System, desto schneller kannst nen Recovery drauf fahren. Mit zwei Servern kannst in kleinen Umgebungen fast immer ne Menge System bereitstellen. Es hakt fast immer an der Diskleistung und nicht an der CPU-Power. Wie gesagt ich sichere jeweils auf den gleichen und auf nen anderen Host. File-Server synce ich generell und lasse nur den Zugriff auf einen Knoten zu (mit DFS). Im Fehlerfall kann man den einfach umswitchen Sicherung auf nen Netzwerk-Share oder eine vDisk welches auf einem per iSCSI oder NFS bereitgestellten Volume des jeweils anderen Host liegt (für Nutzung inkrementell notwendig, dass Windows die Disks als Block-Storage hat). Ansonsten: Wenn du Supermicro-Systeme + Enterprise Discs + zertifizierte Hardware-Controller von z.B. LSI nimmst, dann ist das weder eine Bastellösung noch schlechtere Hardware als die der grossen wie HP, Dell, Fujitsu etc. Supermicro ist meines wissens immernoch die Nummer 4 im Server-Bereich und bei grossen High-Performance Cluster-Installation ziemlich vorne mit dabei. Wurde jetzt ein kleiner Bandwurm, aber das meiste dürfte klar sein.
  13. Ich versuchs auch mal... Kann mich nur den Vorrednern anschliessen, so macht das keinen Sinn. Wozu willst du zwingend eine separate Maschine für den Storage? Alles was du gewinnen wirst, ist eine schlechtere Performance als wenn Du nen richtigen RAID-Controller in deine beiden Server baust und eine instabile Umgebung. Wenn das Budget nicht vorhanden ist für nen anständiges Shared Storage, eine Lösung für deren Ausfall UND eine potente Datensicherungslösung, dann sollte man den Kram einfach komplett bleiben lassen und mehr oder weniger klassisch aufbauen, das funktioniert nämlich auch. Auch wenn man viele tolle Features vor den Latz geknallt bekommt. Spart viele Nerven. Gründe: - Budget ist dann meist auch nicht für die notwendigen Lizenzen (Stichwort Lizenzmobilität) vorhanden - Budget und Wissen für den Unterhalt ist meist ebensowenig vorhanden - Aufwand für Dokumentation von eher komplexen Umgebungen muss auch bezahlt werden, verstehen muss es auch einer Deshalb: Entweder man machts richtig oder man baut klassisch. Es gibt kein günstiges HA. Man kann es drehen und wenden wie man will. Glaube mir, ich habe das Rückwärts, Vorwärts und wieder zurück durchgespielt. Meist erreicht man nur, dass die Umgebung unnötig komplex wird, obwohl man z.B. gut damit leben kann, wenn ein Host 5min down ist für einen Reboot nach nem Update. Daher investiere das Gelb lieber in sauber getrennte Server-Dienste, potentes Local-Storage sowie nen schnelles Backupsystem UND richtige Serverhardware. Wenn Dir die Dinger zu teuer sind, nimm halt Supermicro. Ist immerhin der viertgrösste Server-Hersteller und da kannst die Komponenten wie Festplatte etc. selber bestimmen. Das Angebot an Varianten ist riesig. Hat für jeden was dabei. Würde in deinem Fall heissen: - Hyper-V Server (2 Stück) für die VM's, in beiden Local Storage, DC einen virtuell - Gute und schnelle Backup- / Recoverylösung - 'Normale' Sicherungen z.B. jeweils auf den anderen Host. --> Umgebung sehr schnell wieder oben - z.B. nen kleines NAS für Desaster-Recovery --> Sicherungen Bei Updates muss der Host halt runter. Wenn Du auf beiden Server nen DC hast (sowieso zu empfehlen), dann kannst bequem einen nach dem anderen Updaten machen. Ich erstelle bei ner Handvoll VM's jeweils eine virtuelle Discs pro VM auf dem zweiten Host und binde diese in der VM des anderen Hosts als Backupplatte ein. Dann kann ich mit der internen Windows-Sicherung arbeiten und die virtuelle Platte als direkt angeschlossen nutzen --> Inkrementelle Sicherung. Zusätzlich sichere
  14. Hatte vor ein paar Jahren auch mal so einen halbintelligenten tagesaktuellen-Virus. Der kam als simples Textfile, zusammen mit nem als Textfile getarnten Script (dopelendung). Bekam fast täglich Mails des gleichen Viruse, jedes mal mit anderem Textfile. Das textfile wurde auf irgend eine Weise mit Bordmitteln direkt via dem wenigen KB grossen Einzeiler kompiliert bzw. direkt als Objekt ins System geladen. Hat sich dann anschliessend gleich selber im System eingenistet. Ser perfide wie ich finde. Vermute, dass das ganze schon fast fertiger x86 Maschinencode war, der mit ein paar Apis direkt ins Ram geladen wurde. Sah zumindest so aus. Da hilft alles Virenscannen nichts, weil die Signatur des Textfiles immer ändert. Man musste bei dieser Variante aber dennoch auf ein zweites als Textfile getarntes, unscheinbares, simples einzeiler Script klicken. Weil mir das Ding strange vorkam, habe ich das Spasseshalber in ner abgeschotteten virtuellen Maschine ohne jegliche Netzwerkkonnektivität ausprobiert. Der Virenscanner hatte ned mal Zeit zum reagieren und wurde einfach komplett deaktiviert, ohn das man wirklich etwas davon gemerkt hätte. Obwohl das nur Admins hätten tun dürfen. Anschliessend versuchte es mit dem dem Internet zu plaudern. Sichtbar etwas gemacht hatte das Ding nicht. Vermutlich diente es also für ein Botnetz. Bezüglich der aktuellen Fälle: Finde ich vor allem in kleinen Firmen und bei privaten Problematisch. Einigermassen sicherer Schutz wäre die Produktivsystem vom Netz zu nehmen und ähnlich wie das Prinzip der Graphic-Firewall auf den Kisten zu Arbeiten. Dazu eine Form von Datei-veröffentlichung sowie Einpflegung um diese per Internet zu verschicken.
  15. @buggix: Dann ist der Zweck der Virtualisierung aber wieder entfremdet. Virtuell darf man meines wissens sogar eine zusätzliche VM betreiben. Wie bereits gesagt, es gibt aktuell nur etwas mögliches wenn man keine Mietstruktur möchte. Das ist Windows Server mit RDS-Lizenz. Ansonsten ist 1 Maschine 1 Desktop oder Miete.
  16. Ebenfalls ein paar Zyxel im Einsatz, kannst sogar nen Handy als Bakcup anschliessen. ;) Der Support ist wirklich erstklassig. Auch bei Uralt-Geräten schon Lüfter und dergleichen für Lau bekommen. Auch meist kompetente Leute am Apparat.
  17. Es gibt meiner Meinung nach langfristig nur eine sinnvolle Lösung wenn man auf die ganze Sklaverei verzichten möchte: Windows Server als Client, zusammen mit Remote-Desktop Lizenzen. Anders kannst Du einen Arbeitsplatz nicht virtualisieren ohne SA zu bezahlen. Ich habe Nix gegen SA und kaufe die auch immer mit solange ich überzeugt vom Produkt bin. Aber ich möchte die "Herrschaft" über die Umgebung haben. Die hat man nicht, weil es eben keine Ausstiegsklausel gibt. Sprich läuft die SA, VDA etc. ab und verlängerst nicht weiter, ist Deine Umgebung illegal. Moderner Sklave quasi, weil eine Migration ist oft schwierig und teilweise undenkbar. Im Serverbereich hatten Sie noch keine Eier das durchzuziehen. Solange das so ist, Server OEM kaufen + RDP Lizenz. SA wie man mag --> Würde ich auf alle Fälle für RDS, weil dann kann man wenigstens mit der gerade dann aktuellen Serverversion (die sicher länger supported ist als Desktop) sowie den RDS-Lizenzen noch ca. 10-12 Jahre weiter arbeiten inkl. aller Updates. Die SA bekommt dann ab diesem Zeitpunkt MS weder von mir noch meinen Kunden. Office habe ich gerade aufgehört jeweils SA zu bezahlen und kaufe im Moment nur noch Open License und verwende Office 2010 weil mich die ganze Spyware Integration der Apps, Facebook usw. im Business-Bereich tierisch nervt. Ebenso wie Installer die automatisch allen Schrott installieren anstatt das, was man möchte. Kleine Rebellion, kleine Wirkung, aber vielleicht denken ja noch andere so und machens ähnlich. Hoffnung stirbt zuletzt. Ich hoffe MS fällt gnadenos auf die Schnautze und Chrome hält vermehrt Marktanteile damit sie wieder zu Ihren Wurzeln zurückkrebsen müssen. Faire Lizenzierung über jede Art von Lizenz. Ausstieg wann immer man Lust dazu hat. Momentan leider keine Chance, Trend absolut in Richtung Miet-Only. Zu angeblich günstigeren Tarifen, was ein schmarrn. Jeder der das behauptet kann nicht rechnen. ;)
  18. Hi Daniel, Vielen Dank für den Input und Hintergrundinfos. Hat also schon seine Daseinsberechtigung. Intern, auf Servers und in VM's scheint er aber zumindest nicht notwendig zu sein. Dann kann ich ihn auch gut deaktivieren. Etwas weniger was 'einfach' so automatisch geschieht und man nachher nicht weiss warum etwas vielleicht nimmer geht. Logging: Naja, Logging deaktiviere ich nie gerne. Da sucht man sich am Ende nen Ast obwohl die Kiste eigentlich Fehler spucken würde. Dann lieber gleich ganz deaktivieren. Zumindest auf Server und Desktop-VM's. Grüsse und schönes Weekend
  19. Hi, vielen Dank für die Rückmeldung! Dann macht der tatsächlich nur das und wird für manuelle Installation/Erkennung nicht gebraucht? Dann werde ich den auch mal abschiessen. ;)
  20. Also ich persönlich würde das Netz ein Week-End lahm legen und folgendermassen vorgehen: Variante 1: - Blocklevel Copy der Volumes ziehen und Image auf zwei verschiedenen Backupdatenträger ablegen - Mit orginaler Hardware hochfahren und versuchen den Ursprungszustand herzustellen, zu Fuss. Evtl. reicht es alles an Hardware treiber rauszuwerfen was du finden kannst (Abgesicherter Modus) - Anschliessend Migration nochmals versuchen Variante 2: Du erstellst die Domäne neu - Mittels ADMT auf einem Mittelcomputer der in der alten Domäne liegt, einem Benutzerkonto (Vorzugsweise Build-In Domänen-Administrator) mit gleichem Kennwort in beiden Domänen kannst die Benutzer, Gruppen und evtl auch gleich die Computerkonten mit der alten SID in die neue Domäne migrieren. Der Mittelcomputer mit zwei Netzwerkkarten und je einem separaten IP-Bereich. Ich persönlich würde das ohne Exchange tun, so hast keinerlei Altlasten. - Du exportierst wie bereits genannt wurde alle Postfächer der alten Domäne in PST Dateien - Du importierst die Postfächer wieder pro Benutzer Ansonsten: Das Kind ist ja eh schon in den Brunnen gefallen, aber SBS-Migrationen ohne downtime am Produktivsystem ist so ziemlich das letzte was zu empfehlen ist. Solange der SBS läuft ist er sehr unproblematisch, fängt man an rumzudoktern, dann kann das schnell in die Hose gehen. Das gilt auch für die Migration.
  21. Hi, doch, habe 2012R2 zu Verfügung. Hast Du grad einen entsprechenden Befehl zur Hand? So auf die schnelle habe ich leider nichts gefunden.
  22. Hallo Zusammen, Ich arbeite ja gerne und mittlerweile sehr viel mit den neuen Storagepools. Insbesondere für System-Platten von VM's für VDI. Quasi verhältnissmässig günstiger High-Speed Speicher. Ein Storagepool erweitern ist ja an sich keine grosse Hexerei. Auch die Anzahl Discs pro Datensetk/Stripe kann man neu setzen. Allerdings gilt diese Änderung ja nur für neue Daten. Kann mir jemand sagen wie man bestehende Daten auf einem bestehenden, aber erweiterten Pool auf alle Discs, also auch die neuen verteilt? Insbesonder den Dedup-Store? Irgendwie habe ich dazu keine Infos gefunden. Bevor ich mir also die Mühe mache die Daten auf ein anderes Volume zu verschieben, den Dedup-Store zu cleanen und die Daten wieder einzuspielen, würde es mich interessieren ob da jemand eventuell eine bessere Idee hat. Falls sich jemand die Frage stellt ob es das bringt: Habe das bereits getestet. Bei gescheiten SSD's ist die Skalierung der Performance quasi linear zu den Anzahl Discs pro Datenset. Sowohl Copy als auch reiner 4k Random Write/Read. Vielen Dank für Tipps
  23. SSL: Ja stimmt, das ist sehr mühsam! Tracking: Funktionieren die genauso zuverlässig wie in Firefox?
  24. Chrome bzw. alles was irgendiwe Google oder Apple drauf steht käme mir persönlich schon aufgrund des Trackings nicht ins Haus. Da traue ich MS zumindest im Moment noch deutlich mehr über den Weg. Auch wenn MS auch auf dem besten Weg ist, Ihre eigenen Interessen deutlich über jene des Kunden zu stellen. Noch ist es glücklicherweie nicht ganz soweit. Firefox ist nicht unbedingt sparsam in Sachen Ressourcen. Vor allem bezüglich RAM. Mir gefällt bei Firefox aber das Add-In AdBlockPlus und das flexiblere Cookie-Handling. Update ist halt mühsamer. Auf nem Terminal-Server aber eigentlich auch eher verschmerzbar als auf vielen Einzelsystemen. Dennoch: IE ist halt absolut problemlos mit den Einstellungen, läuft flüssig, Updates kommen automatisch via MS. Deshalb meist auch IE. Bei Firefox wird es halt aufwendiger.
×
×
  • Neu erstellen...