
Weingeist
Members-
Gesamte Inhalte
1.639 -
Registriert seit
-
Letzter Besuch
Alle erstellten Inhalte von Weingeist
-
@Zahni: Wartung: Logisch, hier können aber Third-Party Erweiterungen wie es auch sonst für Windows gibt hinzukommen. Dafür gibt es API's, Schnittstellen und dergleichen. Für kleine und mittlere Umgebung reicht Benachrichtigung und auto Hotspare-verwendung völlig aus. Zu High-Performance: Schau dir mal die neuen Scale-Out-Features aus. Da sind nur die IOPS des Datenträgersystem die Limitierung. Ansonsten geschehen Reads über alle ClusterNodes gemeinsam. Quasi Out Of the Box. Aktuell extra für VHD's und SQL-Datenbanken. Zu den Pools: Da Windows es total egal ist wie gross die Platten sind, kann man einfach alles reinhängen was 'rumsteht'. Der Rest erledigt es selber aufgrund der Definition welche man für die virtuellen Datenträger angegeben hat. Die jeweiligen Platten sucht er sich selber aus. Es steht einem natürlich nichts im Wege - sofern man Windows nicht richtig traut oder als zusätzliche Sicherheit - erstmal RAID-Volumes als Basis für den Aufbau zu nehmen. Und noch eine gute Nachricht: Bei Pools funktioniert Trim trotzdem! sowohl mit NTFS als auch mit dem neuen. Habe da einen kleinen Fehler gemacht (leicht zu kleines Files für den Trim-Test verwendet). Zum ZFS: Das ist eigentlich richtig nett. In der höchsten Ausbaustufe, die allerdings auch nicht günstig zu haben ist, sogar mit transparentem Failover über mehrere Nodes. Dazu extrem gutes Dedup, übelste Performance (trotz verwendung von SATA Platten, weil Read und WriteCaching machbar, sowohl mit SSD's als auch mit RAM). Da kannst zbsp. auch pro Block jeweils Doppel, Dreier, Viererpakete von HDD's oder soviel Du willst machen. Die DiskBlocks hängst dann zusammen. Speichererweiterung in dem du einfach einen identischen Block wieder dazufügst. Windows geht da aber weiter, da hängst einfach Platten rein und definierst in der virtuellen HD, was für Voraussetzungen sie erfüllen muss. Entweder mit JPOD's auf welche mehrere Server gemeinsam Zugriff haben oder eben auch direkt mit lokalen Discs. @ChristianZ: Die HostCPU muss Paritäten berechnen, das braucht sicher etwas mehr Leistung als Mirror-Lösungen. Da habe ich noch keine Tests gefahren, ist aber auch nicht meine Priorität. Ich verwende "nur" Mehrfachspiegel. Aber wie gesagt, bei den Leistungen welche heutige CPU's bringen, zusammen mit dem RAM-Cache, ich glaube da müssen sie sich den wenigsten Einsteiger oder Mittel SAN's geschlagen geben in Sachen Performance und mit den neuen Features sicher auch in Sachen Flexibilität. ;)
-
Anhang: Wie gesagt, der einzige Unsicherheitsfaktor den ich aktuell sehe - und auch schon genannt habe - ist was passiert wenn eine Disc sich langsam verabschiedet. Wie entscheidet Windows welche Disc nun der Übeltäter ist und teilweise falsche Sektoren liefert. Bei Dreifachspiegel wird er wohl sinnvollerweise jene behalten, welche die gleichen Ergebnisse liefern und die falschen nach zu vielem Vorkommen und selbstreperatur kappen. Werde ich bei Gelegenheit mal testen indem ich mutwillig manuell Müll auf die Sektoren schreibe. Wenn das funktionieren würde und er die zwei "guten" als Referenz nimmt und die "schlechte" selber repariert und nach zuvielem Vorkommen abhängt, Hut ab. Theoretisch sollte das SMART bei Enterprise-Laufwerken aber eh zuverlässig selber ankündigen. Zusammen mit iSCSI (was dankbarerweise auch endlich legal verwendet werden darf und nicht nur in Testlabs oder bei kauf des Storage-Servers) würde sich das ganze sogar komplett über mehrere Gebäude/Brandabschnitte zusätzlich gespiegelt erstellen lassen. Hochverfügbarkeit mit Standard-Server-Hardware und Transparentem Failover sowie teilweise Scale Out (also lesen von allen Nodes). Für die absolute Paranoia ;) Zu guter Letzt: Trim funktioniert bei der Nutzung von Pools leider nicht... Eventuell aber auch mit manuellem Killen von Sektoren Script/Anstossbar.
-
@zahni: Danke für die Anregungen. Die Anmerkungen die Du nennst habe ich vorher selber bereits angeführt (HotSwap, Systemlaufwerk etc.) und auch entkräftet. Siehe auch weiter unten, etwas ausführlicher. ;) Systemlaufwerk : darum ging es zwar nicht sondern um Datenplatten für VM's aber habe ich jetzt nicht extra getestet. Gehe davon aus, dass sich da nichts geändert hat (Diskbootsektoren). Dem kann man schon frühzeitig beikommen indem man sie direkt nach Erstellung des RAID's manuell auf den Spiegel schreibt oder die entsprechenden Werkzeuge bereit hält um es im Schadenfall zu tun. Ging früher schon. Aufwand ist für ersteres ist minimal. Zweiteres auch kein Hexenwerk wenn man wusste wie HotSwap : War das absolue KO-Kriterium für diese Funktion Sah aber früher auch ATA-Hotswap Systeme wo sogar das funktioniert hat, auch wenn ich es auch nicht glauben wollte. Genau das Funktioniet jetzt aber absolut tadellos. Habe während der ganzen Tests diverse unterschiedliche Workloads parallel laufen lassen Zugriff war nie unterbrochen.Auch nicht bei einem Benchmark I/O Test. Nicht beim Crashen, Entfernen der Offline Disk, Wieder spiegeln auf neue Disc usw. Sonst hätte ich den Thread sicher nicht eröffnet und das ganze nur als Lab-Spielerei abgetan. ;) Was mich überhaupt auf die Idee gebracht hatte, waren die neuen Features von Server 2012. MS wird kaum solche Funktionen ankündigen, wenn es nicht auch zuverlässig wäre. Also muss Hotswap funktionieren. Tut das, sollte es auch mit dynamischen Discs. Performance-GAU: Der ist minimalst mit aktuellen CPU's und beträgt unter Vollast 2-3% der CPU Auslastung, welche auch ohne Spiegel schon fast erreicht ist. Write IOPS gehen kaum feststellbar verloren im Vergleich zu einzelnen Discs, die Differenzen hatte ich auch bei Single-Discs. @Blazilla: Datacore und ZFS war wegen der Pauschalisierung, dass Software-RAID nix ist aufgeführt, nicht wegen SSD, Trim oder so. Das man auf nem einzelnen Node ein RAID als Untergrund hat, macht sicher auch bei Datacore Sinn. Was ich da meinte war ein Software-Spiegel über mehrer Nodes, welches den Guests präsentiert wird. ;) Bemerkung zum Server 2012: Der ist der Knaller wie ich finde. Bei der Verwendung der neuen Speicher-Features von Windows Server 2012. Speicherpools, welche quasi eine Erweiterung der dynamischen Datenträger sind, aber keinen Zusammenhang mit den beteiligten Festplatten haben. Windows macht Daten einfach irgendwo drauf wos Platz hat und schaut dass die Daten mindestens zwei oder auf Wunsch auf drei verschiedene physische Datenträger sind. Funktioniert astrein. Konnte das Dateisystem nicht korrumpieren. Nicht NTFS und das neue ReFs schon gar nicht (soll sich ja selbstheilen wens trotzdem vorkommt) Analysiert man die Daten auf den physischen Datenträger und den virtuellen Datenträger (die Datenrettungstools unter Windows erkennen alle, Windows Datenträgermanager nur noch die virtuellen) werden die Daten 1:1 abgelegt wie auf der virtuellen. Windows muss das intern irgendwie verlinken. Ist mit Datenrettungstools daher möglich trotz der Speichervirtualisierung die Daten wieder von den Festplatten zu holen bei einem absoluten Totalausfall. Brauche ich mehr Platz, hänge ich einfach Festplatten beliebiger Grösse rein, fügt sie dem Pool hinzu und habe wieder Platz. Bei Ausfällen: Hier macht Windows den Job gleich selber und stellt den Krempel einfach auf einer anderen Platte wieder her. Man kann man sogar extra HotSpares-Drives definieren. Ganz wie in physischen Speichersystemen. Kombiniert man das nun alles mit den neuen Transparenten Failover-Funktionen bekommt man für SMB 3.0 fähige OS für wenig Geld Enterprise-Features von sauteuren Storage-Lösungen. Dann noch der ReadCache im RAM (Bis 20%) und das Zeug rennt wie Hölle. Soweit die Theorie. Praxis wird sich zeigen. ;)
-
@Dr: Ich weiss schon das es Dir unheimlich schwer fällt jeweils eine Begründung für Deine Aussagen zu liefern, daher nochmals, kannst Du das begründen? Nur einfach sagen es ist nonsens kann jeder. ;) Ich versuche es Dir noch einfacher zu machen: Zum Beispiel: Ob Du Erfahrung mit dem Feature gemacht hast oder welche kennst die es - in der Neuzeit mit Serverhardware (2k8/2012, SSD) - haben. ODER Dein (mein) Punkt 1 oder 2 Argument genug sind ... @Zahni: Auf alle Fälle Danke, das war immerhin etwas zum Thema. :)
-
Solche Produkte sind mir auch bekannt, das ist aber nicht sehr realisitisch für kleinere Betriebe. Der zweite Link klingt schon eher nach 'Otto-Normal-Betrieb' finanzierbar. Allerdings konnte ich auf die schnelle nicht wirklich etwas finden ob Trim in einem RAID-Verbund tatsächlich funktioniert. Zurück zum Windows-Software-RAID: Mir sind die Probleme von früher durchaus bekannt, habe als das aufkam auch diverse Tests gefahren und für untauglich befunden. Dazu dann diverse Restores und Rettungen Durchgeführt welche andere aufgesezt hatten. Lag aber meistens an nicht 100%ig funktionierender HotSwapTechnik, Anwendung auf Systemlaufwerke (Probleme beim Reboot, Bootsektoren) und instabile Systeme, Windwos das sich daher aufhängte etc. Die Probleme von damals konnte ich aber nicht reproduzieren (Systemlaufwerk ausgenommen). Einfach pauschal das ist nix weil das Feature mit früheren Hardwaregenerationen zu Problemen führte finde ich etwas naja. Eine Begründung würde mich daher brennend interessieren. Ich sehe Aktuell zwei Probleme: 1. Wie reagiert Windows wenn ein Laufwerk langsam stirbt, also einfach sektoren mit müll raus lässt anstelle sich ganz auszuklinken. Bis dato habe ich aber nur letzteres bei SSD's gesehen/gehört. 2. Was passiert wenn der Host stirbt. Das Problem mit Filesystem-Sauereien kann man da immer haben, sollte aber mit einem Batteriegestützten Controller kleiner sein. Waren noch nicht alle Infos beim Controller, nützt es auch da nix. Die Überwachung ist wieder eine andere Sache. Müsste man dann logischerweise einen Trigger bauen. Tut aber nichts zur Sache ob das RAID an sich tauglich ist oder nicht. Von daher, wenn sich ein paar Profis mit Erfahrungen mit Systemen von Heute diesbezüglich melden würden wäre das Klasse.
-
Ich traue den SSD's ned mehr oder weniger als einer Enterprise SAS-Disc. ;) RAID-Controller mit Trim-Unterstützung als normale PCI-Express-Karte dazu mit gutem IO Durchsatz? Bitte melden. ;) Software-RAID: Auch ZFS ist ein Software-RAID und funktioniert prächtig und extrem performant. Ebenso Datacore, welches sogar auf Windows-Server-Basis läuft. Alos pauschalisieren kann man es nicht. Auch MS geht mit Ihrer Entwicklung im Storage-Bereich in diese Richtung. ;) Das Standard-Software-RAID von Windows ist bei entsprechender Hardware ziemlich robust. W-Server sowieso. BlueScreens hatte ich im Betrieb schon ewig nimmer. Da es aktuell nichts vernünftiges und bezahlbares für SSD's mit Trim auf PCI Basis gibt (mir ist zumindest nichts bekannt, lasse mich gerne belehren), finde ich das eine gute Lösung bzw. besser als eine Single Disc. Abhängen tut Windows ein Volume auch nicht mehr wenn wenn ein Spiegelpartner weg ist. War früher - soweit ich mich erinnere - ein Problem. Zumindest konnte ich problemlos eine Disc herausziehen und Volume war immer noch verfügbar. Neuen Datenträger rein und wieder syncro. Sehe das ganze für VDI, da geht der Trend richtung Local-Disc Storage auch bei grösseren Installationen, weil die IOPS halt extrem günstig sind. ESX und Trim: Sofern es nicht mit 5.1 gekommen ist. Ja. Aber auch da bin ich der Meinung das es noch nicht geht. Angeblich auch eher schwierig, weil das Hostsystem mit dem aktuellen Format nicht mit dem Guest-System kommunizieren kann und ein Datestore meines Wissens auch nicht. Wäre also wenn dann nur via wachsenden Discs, NFS und regelmässigem Shrinken zu erreichen. Den Komfort wie in HyperV hat man nicht.
-
Danke für die Blumen. Das sollte aus dem Text und Titel zwar klar ersichtlich sein, aber für Dich lasse ich natürlich gerne eine Erklärung folgen. ;) Trim funktioniert in der Regel nicht mit SSD die in einem RAID-Verbund sind. Weder im Hardware noch Software-RAID. SSD wird mit der Zeit extrem lahm. Sucht man im Netzt danach findet man auf die Frage nur die Antwort, dass man die Trim-Funktionalität verliert sobald RAID eingesetzt wird. Da man je nach Situation vielleicht mit Local-Storage arbeiten möchte/muss (Ja das gibt es bei Kleinumgebungen) kann man so trotzem ein sehr schnelles System, mit Trim-Funktionialität und RAID bewirtschaften. Nicht jeder kann und will 10'000 Euro für ne SAN-SSD ausgeben, dessen Performance aber vielleicht trotzdem haben. Zusammen mit RAID. Des weiteren: Wenn die Hyper-V-Guest ihrem Host mitteilen welche Sektoren frei sind und dies gleichzeitig auf den SSD's geschieht ist das ein ziemlich hilfreich für die SSD. Weil so die SSD eben nicht ganz zugemüllt wird, obwohl von der virtuellen Disc allokiert. Zumindest wenn MS da keinen Schmarrn erzählt. Ist gegenüber VmWare aktuell ein Vorteil.
-
Hallo Leute, Habe ein paar Tests gefahren weil ich dazu keine befriedigende Antwort im Netz gefunden habe. Kann definitiv sagen, dass es mit einem E5, C600 Chipsatz, Windows 7, Intel SSD 520 funktioniert. Überprüft wurde das ganze mit einem HexEditor auf Datenträger-Ebene. Ist Trim in Windows deaktiviert, bleiben die Sektoren nach dem löschen einer Datei gefüllt. Wird Trim aktiviert, werden Sie gelöscht, auf beiden Datenträger. Nachträgliches aktivieren von Trim bewirkt nicht, dass die Sektoren gelöscht werden. Jedoch hat Windows diese Sektoren jeweils prioritär wieder überschrieben wenn neue Daten hinzukamen. Das gibt ein paar schicke neue Möglichkeiten für Local Storage für HyperV VM's (Angeblich weitergabe von gelöschten Sektoren mit SMB 3 und HyperV3) und evtl. Sogar Hochverfügbarkeit mit Boardmitteln (iSCSI, Cluster). Jedoch noch nicht getestet. Hoffe das hilft dem ein oder anderen. Mir war das immer ein Dorn im Auge mit den SSD's und der Ungewissheit wenn mir eine wegstirbt. Was allerdings Windows macht, wenn eine aus dem Spiegel stirbt, weiss ich auch nicht so genau. ;)
-
Das ist doch Quatsch mit den drei Lizenzen?!? Also Du hast korrekte Lizenzen für 2008 und für den SBS. Was du brauchst ist eine einzige 2012 Standard Lizenz damit Du einen Hyper-V Host hast, welcher eine GUI hat. Du dürftest imho in dieser Konstellation sogar 2 zusätzliche virtuelle 2012er laufen lassen, da die anderen ja vollständig lizenziert sind. Sollte MS sich wirklich querstellen und behaupten man brauche zusätzlich 2012er Lizenzen für alle 2008er Server instanzen (welche über eine Lizenz verfügen), ist das rechtlich eher schwierig. Die müssten sich darauf berufen, dass die Virtualisierungstechnologie 2012er Technolgien sind und somit alle Clients mit der neuen Technologie lizenziert werden müssen. Allerdings auch schwer haltbar, wenn man gleichzeitig die Technolgie umsonst anbietet (ohne GUI). Insofern würde ich mir keine grossen Sorgen mochen. Zur Sicherheit - wenn Du keine vernünftige Antwort bekommst -, nimmst eben einfach VmWare Essentials wenn sie sich querstellen. Da benutzt du dann keine Sever 2012 Technolgie für die Virtualisierung und somit gelten auch die Einschränkungen nicht.
-
Server 2012 Standard als Virtualisierungs-Host?
Weingeist antwortete auf ein Thema von jBourne242 in: Virtualisierung
Würde sich aber MS ins eigene Fleisch schneiden, spielt ja dann VmWare in die Schuhe. Klar dass man nicht zusätzliche 2012er VM's erhält, aber zusätzliche 2008er müsste doch gehen. -
Zugriffe auf Windows Server lizenzieren
Weingeist antwortete auf ein Thema von lizenzdoc in: Microsoft Lizenzen
Darum meine ich ja, allgemeine Infrastrukturnutzung, nicht explizit Server bzw. Cals vermieten. ;) -
Zugriffe auf Windows Server lizenzieren
Weingeist antwortete auf ein Thema von lizenzdoc in: Microsoft Lizenzen
Dann soll halt die Tochter dem Mutterhaus die Lizenzen verkaufen und das Mutterhaus der Tochter Verwaltungsgebühren für die Infrastruktur verrechnen. Müsste gehen oder? Wäre eigentlich nichts wie fair oder? Man kauft Nutzungsrechte für den Zugriff auf ein bestimmtes Programm. Das Programm an sich wird ja separat lizenziert. Ob das Rechtlich auch so gesehen wid steht auf einem anderen Blatt. ;) Allerdings ist die Verdunkelungsgefahr dann ziemlich gross und MS würde Mühe haben das ganze zu kontrollieren. Insofern verstehe ich deren Standpunkt schon. -
TMG: Huch, da ist aber nicht eine Einstellung geplant oder? Ansonsten: MS macht das in der Regel korrekt. Schenken kann man nicht so direkt sagen, sie erfüllen einfach auch Ihren SA-Vertrag und stellen sicher, dass man keine Abstriche in der Funktion machen muss mit den Nachfolge-Produkten, im Zweifel eher für den Kunden. In Extremis gilt das beim SBS: Windows SBS 2003R2 Premium (Exchange, SQL, ISA alles auf der gleichen Maschine) Man erhält heute mit SA hatte (ohne halt etwas ältere): - 2x Server Standard 2012 (Vorher Enterprise 2008R2) - 1x Exchange Standard 2010 (Vielleicht sogar noch 2012, da SA noch läuft) - 1x TMG 2010 (erst ISA 2006 + Serverlizenz) - 1x SQL Server Standard (Vorher Workgroup) - ServerCals, Exchange Cals, SQL-Cals für die anz. Cals die man hatte - Dazu erhielt man pro Cal auch noch Outlook 2007, Sharepoint Designer usw. Ich finde man kann da überhaupt nicht meckern. Klar, man hat auch Anspruch drauf und kann nix dafür, dass MS das Produkt eingestampft und einem SA angeboten hat. Aber die Lösung ist sehr fair. Single- oder Duaserver-Prinzip mit 4 virtuellen Server machbar. Für Neukunden ist die Zukunft als Kleinkunde welche Exchange etc. selber betreiben möchten allerdings alles andere als rosig. Die SA-Kosten für diese neuen Produkte für Altkunden ist im Vergleich zur alten Lösung auch extrem.
-
2011 hängt beim herunterfahren
Weingeist antwortete auf ein Thema von lindi200000 in: Windows Server Forum
Der SBS macht manchmal ewig mit den Neustarts. Ich würde fast behaupten er hat in manchen Situationen so lange bis die Timing-Limits erreicht sind und er ein paar Dienste einfach abschiesst. Manchmal hilfts, wenn man sätmliche Clients komplett herunterfährt. Wens nix hilft würde ich vor Kaltstart evtl. auch die Netzwerkverbindung kappen. Halt alles tun, damit er möglichst nix auf seiner ToDo-Liste hat, dann ist die Chance auch ziemlich gross, dass er es schadlos übersteht. -
So siehts aus, wie bereit in #8 gesagt. ;)
-
Es ist überall von 2008 die Rede.
-
@Dr. Melzer: Das stimmt so definitiv nicht. Zumindest verstehe ich deine Aussage so, dass sowohl der SBS als auch das Premium auf die gleiche Maschine muss. Man erhält mit dem SBS Premium eine zusätzliche, vollwertige Serverlizenz + den SQL als Applikation. Diese darf auf einem anderen physischen System als der eigentliche SBS installiert werden, ist ein eigenes lizenziertes System. Einschränkung ist lediglich, dass die Lizenz innerhalb einer SBS-Domäne betrieben wird. Man darf - nicht muss - die Lizenz aus dem Addon nutzen um den SBS virtuell zu betreiben. Also das Addon bzw. dessen Serverlizenz sowohl als virtuelle Instanz als vollwertiges OS sowie als Hyper-V Host mit grafischer Oberfläche und mit den üblichen Rechten einer Standardlizenz nutzen (Software für Verwaltung der virtuellen Umgebung, Backup etc.), das bringt der SBS an sich nicht mit.
-
Problem mit Access DB wg. neuen Switch (Gigabit)
Weingeist antwortete auf ein Thema von Dominik Weber in: Windows Server Forum
Klingt ja eigentlich nicht soo schlecht. Wurden die DB's mal komprimiert? Eventuell sogar nen Decompile drüber laufen lassen, obwohl das bei reinen DatenDB's nicht nötig sein sollte. Netzwerkstabilität kommt schon etwas drauf an wie die Frontend programmiert wurde. Habe jedenfalls schon seit Jahren keine korrupte Backend mehr gehabt, auch wenn Netz nicht stabil war. Allerdings sowieso von Vorteil, wenn das Netz stabil ist. -
Problem mit Access DB wg. neuen Switch (Gigabit)
Weingeist antwortete auf ein Thema von Dominik Weber in: Windows Server Forum
Imho nicht zwingend ein Netzwerkproblem. Meist ist das ein Accessproblem. Access DB's gehen vor allem kaputt, wenn gleichzeitig Backend als auch Frontend sind und von mehreren Benutzern verwendet werden. Dafür ist Access nicht wirklich gemacht. Kommen Netzwerkaussetzer hinzu, ist die Chance natürlich höher, dass was kaputt geht, allerdings normalerweise nur wen eben Backend und Frontend nicht getrennt sind. Reine Backend-DB's sind ziemlich robust. Das heisst nach meiner Erfahrung: - Saubere Trennung von Code und Daten - Code-DB auf jedem Rechner eine eigene - Backend DB am besten neu erstellen ohne jegliche Altlasten bzw. Tabellen von der altne DB importieren - Code DB über den Decompile Flag öffnen, komprimieren, kompilieren, komprimieren und du hast wieder ein sauberen Start. --> Muss in grossen und komplexen Frontends öfter mal gemacht werden. - Backend-DB in Mehrbenutzerumgebungen evtl. entlasten, dass nicht alle Zugriffe Datengebunden sind -
MS war schon immer fair mit den Kunden die SA hatten. Glaube kaum, dass sich daran was ändern wird. Und gemäss den SBS-Spezialisten erhält man Exchange 'umsonst'. Sharepoint weiss ich nicht. Den ISA und sogar den Nachfolger TMG erhielt man ebenfalls umsonst als Einzelprodukt, nachdem dieser aus dem Paket entfernt worden war. Gleiches galt für das SQL-Addin.
-
Nunja, in Zeiten der Virtualisierung finde ich getrennte Versionen auch sinniger. Dazu die 75 (von mir aus auch weniger) Nutzer Regelung. Also ein Basis-Server mit WSUS, AD, DNS, DHCP usw. dazu dann günstige 'AddIns' für Exchange, SQL, TMG, Sharepoint, Terminalserver usw. - Überall geiche Produkte, für Support etc. - Gute Angebote für Kleinfirmen - Weiterhin gute Verbreitung Attraktivität steht und fällt mit der Verbreitung. Mobile-Bereich haben sie den Zug schon fast an die Wand gefahren. Ob es Sinn mach die vermutlich treueste Kundschaft zu verärgern bleibt abzuwarten. Viele haben Zweifel an der Datensicherheit und Verfügbarkeit. Bei Kleinfirmen wo Inhaber dahinter stehen sowieso. Zu deiner Frage: SBS 2011 kaufen, SA dazu (fals noch möglich). Solltest dann später die Nachfolgeprodukte als Standardversion erhalten. So war es zbsp. mit dem TMG der Fall und wird es ziemlich sicher auch mit dem Exchange der Fall sein.
-
Updates zentral managen, aber nicht zentral speichern
Weingeist antwortete auf ein Thema von aeigb in: Windows Server Forum
Bei mir funkt die Serverbereinigung auch nicht immer wirklich sinnvoll. Es wird zwar jede Menge Daten freigeschaufelt, er hat dann aber immer wieder das Gefühl er brauche die Files trotzdem und lädt sie wieder runter. Irgendwie deppert. So ist mit XP, 7, 2k3, 2k8 ne Menge an Files da. Der WSUS ist immer sehr angenehm, auch bei wenigen Clients. Man hat wirklich überall die gleichen Update-Stände, unnötige Dinge wie Browser-Wahl weg usw. Ich würde in Kleinen umgebungen auch direkt-download vorziehen. MS möchte so aber sicher auch seine Serverlast verkleinern. -
Server 2008 R2 mit Bitlocker verschlüsseln
Weingeist antwortete auf ein Thema von bboecherer in: Windows Server Forum
Genau, du nimmst eine kleine NAS mit RAID-1, stellst die gut versteckt irgendwo hin, machst da dein Floppy-Image drauf und bindest es in den ESXi als zusätzlichen Datastore ein. Dieses Image mountest in der VM und gut ist. -
Vorschlag 1: Eine völlig eigene Domäne für den RDS? Dann kann nur jemand zugreifen welcher für diesen Server die Zugangsberechtigungen hat, Server ist halt immernoch im LAN zugegen. Oder deutlich aufwendiger, eine Lösung welche den LAN bzw. Datenaustauschtraffic komplett im Serverraum belässt und nur Bildschirmsignale und Input/Output veröffentlicht. Da gefällt mir zbsp. PCoIP, bräuchtest aber physische Clients. Vorteile: - Datentraffic bleibt komplett im Serverraum, da kein LAN kabel ins Gebäude, kein Traffic möglich, da physische abgekoppelt - Kommunikation zwischen Host (physischer Client) und Anzeigeclient (ZeroClient) ist verschlüsselt und beinhaltet lediglich Input/Output signale - Jedes Gerät das für einen bestimmten phys. Client verwendet werden darf, kann klar definiert werden (Zero, USB-Gerät, ja selbst bestimmte Tastaturen, Mäuse) Nachteile: - Relativ teuer - Physischer Client pro solcher Arbeitsstation notwendig - Bildschirm, Maus, Tastatur kann nicht parallel mit anderem PC benutzt werden wie bei RDP-Sitzung auf einem Client (erwünscht?), Quasi Parallel nur mit einem Umschalter. Nacheinander auch nur wenn im normalen ArbietsClient ebenfalls eine Teradici-Karte eingebaut ist.
-
Remediation Server für Virensignatur
Weingeist antwortete auf ein Thema von Seppe in: Windows Server Forum
Guter unabhängiger Vergleichstest: AV-Comparatives - Independent Tests of Anti-Virus Software - Willkommen bei AV-Comparatives.org Von den 'Guten' würde ich mal die Managementkonsolen, Speed, CPU-Belastung usw. anschauen. Da gibt es ziemlich heftige Unterschiede. Gibt ja auch immer Testversionen.