
Weingeist
Members-
Gesamte Inhalte
1.639 -
Registriert seit
-
Letzter Besuch
Alle erstellten Inhalte von Weingeist
-
Microsoft Visio auf VM über RDP
Weingeist antwortete auf ein Thema von LooMiS in: Microsoft Lizenzen
So funktioniert der MS Goldesel. Es wird nicht eine benutzte Instanz bezahlt sondern jede Möglichkeit wo eine Instanz laufen könnte. Man bezahlt im Extremfall ein X-Faches der eigentlich benötigten Lizenz. Dieser Fall ist natürlich ganz krass. Bei einem Client OS ist das noch interessanter, weil MS selber sogar sein RDP Protokoll so einschränkt, dass nur eine Verbindung möglich ist und lokal die Session ebenfalls gesperrt ist. Völliger Mumpitz. Aber so ist das nunmal. Soll der Zugriff auch via Smartphone oder Tablet erfolgen, wird das ganze immer interessanter. Einfacher und einzig sinnvoller Ausweg: Notebook mit Visio, irgendwo im Büro gelagert. Das kann ein Mitarbeiter überall hin mitnehmen. -
Ja, das tue ich... Und die Leute derer Umgebungen ich betreue, tun das ebenfalls. Die tun sich verdammt schwer mit der Cloud. Die Alternative ist heute aber extrem teuer geworden. Die Akzeptanzschwelle ist schon gut erreicht bzw. eigentlich überschritten. Mangels sinnvoller Alternativen hat man aber keine grossartige Wahl. Zudem wurden vielversprechende Projekte auch von Konzernen mit fragwürdiger Haltung übernommen. Eigentlich geht es in der MS-Welt nur so, wenn man alles einigermassen im Datenzentrum organisieren will: Variante 1: man kauft für jeden MA eine eigene physische Maschine im Rack - evtl. sogar mit einem Hypervisor als Unterbau zwecks Wartungsfreundlichkeit - oder ein Notebook und stattet es entsprechend mit beliebigen Lizenzen (auch OEM) aus und darauf darf er - weil Hauptbenutzer - beliebig mit Smartphone, von Zuhause oder irgend einem Thin-Client zugreifen. Variante 2: Man nutzt moderne Möglichkeiten und möchte der Umwelt und auch der Geldbörse (theoretisch) einen gefallen tun und Hardware konsolidieren. Es kommt bei moderner Nutzung mit VM's, Smartphone, Homework etc. nur die Mietmodelle wie Office 365 in Frage. Für das ClientOS wiederum eine entsprechende VDA für jedes Gerät, obwohl nur eine OS-Instanz pro MA im Einsatz stehen kann. Man bezahlt pro Jahr ca. das dreifache was man vorher für 3 Jahre bezalt hat. Dies obwohl man nichteinmal in der Lage ist, mehr als eine OS-Instanz zu nutzen. Das ist doch völlig krank, kompliziert, unfair und durch die ganzen notwendigen Kontrollen ein gigantischer, unnötig aufgeblähter Apparat. Wäre MS zeitgemäss und fair wie früher, dann würde Sie die Lizenzpolitik so revolutionieren, dass man für eine sich in Gebrauch befindende Instanz von Office und OS bezahlen muss. In Gebrauch bei Office gerne sobald man angemeldet ist. Was es nützt? Das kommt immer drauf an ob - A sich genügend Leute finden, die sich darüber aufregen - B sich diese Leute auch beschweren Problem ist, dass die meisten gar nicht wissen was läuft oder wie es um die Lizenzierung und Spyware überhaupt steht, also keinen Grund zum klagen haben. Das jammern kommt später. Öffentlicher Druck half aber auch schon, vielleicht beschwert sich nun der ein oder andere. =) Die Distributoren welche solche kleinen Kunden betreuen, glänzen auch nicht immer mit exaktem Wissen. Die grösseren lassen ihre kompetenten Leute zu den grossen Kunden. Ist ja auch logisch, es rentiert sich sonst nicht. Diese Leute bräuchte es gar nicht, wenn Lizenztechnisch alles so einfach wäre wie vor XP SP3. Wenn MS so weiter macht und mit aller Gewalt in Richtung Cloud drückt bzw. die Alternative fast verunmöglicht, werden sie die Marktherrschaft mit Sicherheit über Kurz oder Lang an Google verlieren. MS hat im Unternehmensbereich auch deswegen heute noch ein so starkes Gewicht, weil sie nicht ständig mit Schnüffeleien in Verbindung gebracht werden. Fällt diese Errungenschaft - was immer mehr der Fall ist - setzt sie ein grosses Kapital und viel Akzeptanz im Business- und Behörden-Bereich aufs Spiel. Ein ziemlich hoher Einsatz wie ich finde. Die Chance, dass sich dann mehr oder weniger Open-Source Abwandlungen von z.B. Google-OS durchsetzen wo man zumindest etwas Einfluss auf die Spyware-Tätigkeit haben könnte, ist ziemlich gross. Zumal Google mit ihren Werbeeinahmen über fast unbeschränkte Mittel verfügt. Keine Ahnung warum MS so kurzfristig denkt, finde ich äusserst schade. Seit DOS habe ich die Jungs immer verteitigt, aktuell fällt das selbst mir äusserst schwer. MS bzw. deren Managerlis beschäftigen sich lieber damit wie bestehende Kunden so lange es noch geht ausgelutscht werden können. Ihr Erbe müssen ja nicht sie bewirtschaften.
-
Nette Speicherfresser sind neben den üblichen Verdächtigen auch - Verzeichnisse wo man keinen Zugriff drauf hat, z.B. installierte Windows Updates oder versteckte Partitionen/Ordner von Backupprogrammen - Logfiles von irgendwelchen Programmen - Logfiles von Windows selbst (z.B. Ereignislog) - Wie genannt wurde: Nicht aufgeräumte VSS-Snapshots bzw. mangelnde Limitierung des Speicherverbrauchs
-
Wenn der Schwerpunkt auf UNIX/Linux liegt, ist das Mittel der Wahl mit sehr grosser Wahrscheinlichkeit eher VmWare oder ganz ein anderes Produkt. Muss man öfter mit Legacy-Software hantieren, fällt HyperV auch ziemlich schnell raus. Das dürfte zudem akuter werden, sollte Microsoft die Unterstützung auf HyperV für XP ebenso einstellen wie die Sicherheitsupdates. Glaube ich persönlich momentan aber noch nicht daran. Unter VmWare läuft eigentlich alles vernünftig, bis runter zu DOS. Im Prinzip muss man erstmal wissen was wirklich haben muss und was objektiv betrachtet Nice to have ist. Nicht alles was cool klingt, braucht man auch wirklich zwingend. Von den nicht betriebsrelevanten Features muss man wiederum abwägen, was die Konsequenzen sind, wenn man es nicht hat. Was es einem Wert ist, oder was man tun muss, damit man darauf verzichten kann. Eine reine HyperV Umgebung hat durchaus einige Vorteile für kleinere Umgebungen: Replikation des Herstellers für Windows, StorageSpaces für z.B. SSD-Spiegel mit dem Host-OS, robustes Filesystem, Backup mit Windows-Boardmitteln absolut machbar, auch auf Hostebene. Nervigste Nachteile sind meiner Meinung nach die im Gegensatz zu VmWare ziemlich komplizierte Netzwerkkonfiguration. Bei VmWare ist das meiste selbsterklärend, bei Windows ist das Gegenteil der Fall.
-
Hyper-V / Ressourcenzuteilung / CPU vs. vCPU
Weingeist antwortete auf ein Thema von Blase in: Virtualisierung
Wobei Du schon seinen Beitrag weiter oben berücksichtigen solltest. Möglichst nicht mehr Kerne zuweisen als nötig. Für viele Workloads reichen z.B. einer bis zwei aus. Wenn Du wie in Deinem Beispiel erwähnt eine 4-Kern CPU hast, dann solltest Du es vermeiden einer VM tatsächlich 4 Kerne zuzuweisen. Einfach weil es für den Host relativ mühsam ist, wirklich alle Kerne freizuschaufeln, weil er selbst ja auch was haben will. Vorteilhafterweise auch nicht mehr Kerne, als z.B. ein Sockel hat. Dann ist die Chance grösser, dass alles im gleichen Sockel verarbeitet wird. Ist HT aktiviert, ist ds wieder etwas entspannter und einfacher für den Host, weil die CPU das 'freischaufeln' übernimmt bzw. die Zyklen dazwischen schiebt. Wenn mehrere VM's definiert sind, die alle viele Kerne oder gar alle der CPU haben (wie in Deinem Rechnungsbeispiel), dann wird dein System unglaublich langsam werden, weil für jeden Zyklus den eine VM machen muss, alle Kerne frei sein müssen. Hast dann noch eine 1-Kern VM welche gut ausgelastet ist, dann ziehts dir die Performance komplett in den Keller. -
Oha, da gibts ja wieder ein paar Antworten.... Naja, ich deaktiviere den Windows Store sowie die AppX-Dienste einfach komplett, also die Dienste. Geht zbsp. - Per GPO und einem eigenen ADM/ADMX Template welches die entsprechenden Registry-Werte hart setzt - mit einem Startscript welches diese Werte ebenfalls hart setzt Ich verwende die Script-Variante, wird pro Kiste 1x ausgeführt nach der Installation. Zusammen mit den X anderen Befehlen um die ständige Nachausetelefoniererei und unnötige IOPS-Verschwendung etwas einzudämmen. Dabei werden die vorinstallierten Apps komplett entfernt - sofern möglich. Effektiv per GPO gewisse Apss zulassen, direkt zu installieren oder gar unerwünschte automatisch zu entfernen, ist schwierig, bzw. erfordert nach meinem Wissensstand aktuell die Benutzung von Startscripts welche per Powershell die Apps für den aktiven Benutzer installiert/deinstalliert sowie Startscripts welches ein App-Paket auf dem Computer hinzufügt/entfernt. Was dieser Wildwuchs für administrative Konsequenzen hat, muss ich glaub nicht näher erläutern. Mit einer Whitelist der GUID's könnte man es aber erreichen und so auch früher freigegebene wieder deinstallieren lassen. MS wird Anwendungen längerfristig wohl nur noch über den Store bereitstellen wollen. Ganz im Sinne vom Erfolg des Apple-Stores. Da schluckens die Leute ja schliesslich auch. Mir gefällt eine solche Spyware-Maschinerie aus Prinzip nicht. Bin da einfach etwas altmodisch. Ich möchte für ein Produkt oder eine Dienstleistung bezahlen und nicht auch noch dafür, dass eine Firma möglichst viel über mich und meine Leute in Erfahrung bringen kann. Wenn ich mit der weiteren Produktentwicklung nicht zufrieden bin, möchte ich auch kein neues davon haben, bis zu dem Zeitpunkt wo ich eben finde, dass der Preis wieder gerechtfertigt ist. Der Grund ist einfach. MS will auch so gigantisch und unanständig Geld verdienen wie die Konkurrenz. Bis anhin waren sie mit normal verdienen zufrieden. Das heisst, es ist dem Management fast total egal was bestehende Kunden denken, weil sie es sich heute schlicht erlauben können. Das Marketing hat die Aufgabe SaaS als günstig zu vermarkten, auch wenn das Gegenteil der Fall ist. Damit es dennoch so aussieht, werden die Bedingungen für normale Lizenzen so unattraktiv wie möglich gemacht und laufend etwas verschärft. Ein paar tolle Funktionen die es nicht zwingend braucht aber nett sind, werden gar nicht erst angeboten. So ist der Aufschrei nicht zu gross bzw. beschränkt sich immer nur auf einenTeil der Kundschaft. Irgendwann gewöhnt man sich daran und ist bereit ne Menge mehr für das gleiche zu bezahlen. Open Source Konkurrenten die langfristig gefährlich werden könnten, werden aufgekauft oder abhängig gemacht und nach und nach eingestellt. Das ist alles schön und gut, und nicht so tragisch wenn es nur das wäre. Was das ganze aber in Wirklichkeit für die Betriebe und die Mitarbeiter bedeutet, wird völlig ausser Acht gelassen bzw. verdrängt und schöngeredet. Personalisierte Werbung ist nur das eine, gegen das hätte ich noch ned mal was. Die Verknüpfung mit Clouddiensten, Konten bei MS und anderen Konzernen etc.bieten ein aber ein unglaubliches Macht-, Manipulations- und Missbrauchspotential. Was mich wirklich stört, ist dass die Meinungsfreiheit indirekt drastisch eingeschränkt wird, weil z.B. unbedacht geäusserte Kommentare (wie es einfach jeder ab und zu tut) auf das persönliche digitale Profil bei den Konzernen Einfluss haben wird. So wie heute ein Politiker mit einer einzigen dummen Aussage gleich komplett in Frage gestellt und zum Rücktritt gezwungend wird. - Unliebsame Kritiker werden evtl. mit andereren Ellen gemessen als 'brave' die nicht gegen bestimmte oder z.B. zahlende Firmen oder Politiker wettern - Lausbubenstreiche in jungen Jahren können weitreichende Konsequenzen haben, weil sie nicht von einer staatlichen Behörde verwaltet und einer gewissen Geheimhaltung unterliegen oder nach volljährigkeit sogar gestrichen werden. Die Daten liegen bei den Konzernen in persönlichen Profilen für die Ewigkeit abgelegt. Die Konzerne wissen z.B. welcher Mitarbeiter sich wie lange und zu welcher Zeit mit welchen Apps beschäftigt. Möchte man z.B. jemanden einstellen, kann man einen MA zukünftigt bei den Konzernen direkt über seine Angewohnheiten befragen. Den eigenen Staat kann die Bevölkerung evtl. noch zügeln, einen Konzern nicht. Es läuft darauf hinaus, dass alle zu dressierten Affen erzogen werden welche in ein Schema X gepresst werden. Für Querschläger - die es auch braucht - ist kein Platz mehr. Man muss Acht geben möglichst niemandem auf den Schlips zu treten. Klar ist das Zukunftsmusik, aber die Daten die dafür gebraucht werden, werden aktuell gesammelt. Leider machen sich die wenigsten dazu Gedanken sondern sehen nur die Vorteile welche einem das ganze Zeug im Moment bietet. Die Leute werden natürlich auch nicht über die wirklichen Gefahren aufgeklärt, sondern es wird nur immer über personalisierte Werbung gesprochen, wogegen die wenigsten wirklich etwas haben bzw. sogar gut finden. Um zum eigentlichen Topic zurück zu kommen Die Kosten für die Verlängerung der SA beträgt in unserem Klein-Betrieb mit einer handvoll MA's rund das doppelte von vor 3 Jahren. Dabei habe ich noch nicht einmal einberechnet, dass ich am Anfang bei Office eine günstige Version (OEM oder nur Word & Excel) verwenden konnte, weil Outlook einfach dabei war bei einer Exchange CAL bzw. der Small Business CAL. Und wenn ich ehrlich bin, mehr Funktionalität die ich effektiv brauche gegenüber damals, habe ich nicht wirklich. Nur anders. Von ein paar Features und wirklich guten Verbesserung mal ausgenommen. Genau dafür kauft man ja aber auch Updates. Manches wurde aber auch einfach schlechter. Nimmt man noch die Einstiegskosten dazu, dann sieht die Bilanz für einen 5-10 Mann Betrieb noch viel schlechter aus. Die guten Features müssen heute mit einer zusätzlichen, nur per SA erhältlichen Enterprise CAL erworben werden. Am Beispiel Exchange: Die simple Funktion für die Archivierung - für Outlook - die CAL - die zusätzliche CAL Das war vor ein paar Jahren eine einzige CAL als Lizenz und gut ist. Passt aber zum Programm von MS, einfach nur einen Teil der Kundschaft zu vergraulen bzw. auf SaaS umzugewöhnen. Sei es nun wenn man es In-House einsetzt oder in der Cloud, wo das ganze künstlich billig und querfinanziert gemacht wird. MS wundert sich dann, dass Sie einen so beschissnen Namen bekommen. MS war in der Vergangenheit immer hilfsbereit, egal wie gross der Kunde war, egal ob er SA hatte oder nicht, egal ob er per OEM oder einem Volumenlizenzprogramm gekauft hat. Seltsamerweise hat MS zu jener Zeit extrem viel Geld verdient. Der Apparat war einfach nicht so aufgeblasen und unnötig kompliziert. Fazit: Ich bin quasi gezwungend für neue Features SA zu lösen, ein Produktupdates reichen nicht mehr. Setze ich die SA ab, verliere ich die Features. Obwohl ich auch ohne die Features bereits deutlich mehr zahle als vor wenigen Jahren. Habe effektiv also sogar weniger für das Geld. Als kleiner Dessert werde ich freundlicherweise auch noch ausspioniert. Irgendwie ist das völlig verkehrt.
-
Wir haben gar nix, betrifft nicht uns sondern ein Kunde =) Aber die PC's sind wirklich ausschliesslich für die Erledigung von Berufsschularbeiten. Quasi damit sie A einen PC haben und B mehr oder minder zum Lernen gezwungen werden, weil daheim die Motivation eher klein und die Ablenkung zu gros ist. Samstag Morgen ist da so ein Termin. Zusätzlich können sie so Farblaser usw. nutzen ;)
-
EULA zu WinSrv2012 R2 - Downgrade Rights
Weingeist antwortete auf ein Thema von vBurak in: Microsoft Lizenzen
Auf der Verpackung steht seit ein paar Versionen das ganze nötige Geraffel was limitierend ist und was es bedeutet wenn man die Verpackung öffnet. Öffnet man sie nicht, dann kann man das Produkt dem Distri zurück geben. Da ist das nicht notwendig ;) -
Deshalb sollte der Lehrling auch ein vergleichbares Office bekommen dürfen :D Abe wie gesagt, ich sehe da auch kein Spielraum. Wird er so schlucken müssen...
-
Hyper-V und kostenlos, das ist doch immer wieder amüsant zu lesen. Es ist eher so, dass man die Features mit dem OS bezahlt. Kostenlos wurde durch immer neue Lizenzbeschränkungen, den Wegfall von inklusiven CAL's und einem etwas höheren Produktpreis erzielt. Kein Mensch wird HyperV ohne ein Windows Server OS betreiben. Irgendwie wird eine Funktionalität immer bezahlt, sonst verdient ein Unternehmen kein Geld. Und weil man der Konkurrenz (v.a. VmWare) eins auswischen will, muss man das auch bezahlen wenn man die Technologien gar nicht von MS braucht. Gäbe es VmWare nicht, gäbe es garantiert CAL's für HyperV, ein eigenes Produkt oder gar kein HyperV ;) VmWare wird deshalb von den Anschaffungskosten her immer teurer sein als Windows. Günstig (nicht günstiger) bleibts bei VmWare nur, wenn man mit Essentials oder dem free ESXi zurecht kommt. Letzteres geht nur, wenn man eine Backuplösung anpeilt welche nicht auf die HyperVisor-Funktionen zurückgreift, sondern sich an den Methoden von physischen Maschinn orientiert. --> Basis Image im abgeschalteten Zustand ziehen, mit konventionellen Backupmethoden (OS-Features, normaler Backupanbieter, Scripts mit Robocopy + VSS etc.) Zwischenstände sichern, ab und an das Basis-Image erneut wegsichern. Je nach Umgebung und Bequemlichkeitsanspruch sinnvoll oder nicht. Was mir an VmWare und seinen Essentials eigentlich noch sympathisch ist: Die ganzen fehlenden Features der höheren Versionen von VmWare sind ein gutes Argument in der Lizenzierung von Windows Server. Hat man technisch kein vMotion, HA und sonstige Spässe, verliert man zwar an Flexibilität, dafür benötigt man aber auch deutlich weniger Lizenzen (1*) und auch kein SA auf Applikationslizenzen wie SQL und Exchange. Klar, auch das nicht in jedem Fall sinnvoll, muss man halt abwägen. Zu 1*: Keine Lizenzmobilität, weil man nicht einfach eine produktive, laufende Instanz zahlt, wie es fair wäre, sondern jeden Host auf dem die Instanz laufen kann muss über eine Lizenz verfügen. Sprich bei zwei Hosts mindestens die doppelten Kosten, das dreifache bei 3 Hosts. So landet man selbst in einer kleinen Umgebung sehr schnell bei Datacenter-Lizenzenzen und exorbitanten Kosten. MS könnte es total egal sein worauf eine Instanz läuft, Hauptsache diese produktiv genutzte Instanz wird bezahlt. Die zusätzliche Flexibilität ist bei der Verwendung eines HyperVisors weder MS zu verdanken, noch haben sie Leistungen dafür erbracht. Also reine Geldmacherei. Genau wie bei Verwendung von Remote-Technologien. Man bezahlt eine zusätzliche Lizenz für RDS, auch wenn man einen fremden Anbieter nutzt.
-
@Norbert: :p Der SBS 2003 und vor allem der R2 Premium war und ist auch heute noch punkto Preis-Leistungsverhältnis absolut ungeschlagen. Performance auf neuen Computer excellent. Die Suche im Gegensatz zum neuen Krampf extrem schnell und vor allem zielführend und für jedermann verständlich. Als VM zudem absolut problemlos, auch wenn nicht supported, weil die Hardware auch bei einem Restore identisch ist. Aber ein Produkt ins Internet zu hängen ohne Sicherheitsupdates halte ich schon für sehr fragwürdig. Man wird den Schritt auf ein neueres machen müssen. Auf 2011 ist sicher ebenfalls nicht verkehrt. Finde es nur schade, aktuell mit alten Mitteln Server auszurollen. Vorsicht: Die Sammelwut an Informationen der Dienste ist unbeschreiblich, zieht die Performance unter Umständen ganz schön in den Keller bei Verwendung als VM auf einem nicht sehr schnellen System.
-
SBS 2012 usw. schön wärs... Fakt ist, er kann beim SBS nur auf ein bereits älteres OS migrieren. Das heisst auf den SBS 2011 welcher auf Server 2008R2 basiert. Vom 2008R2 gibt es zum heutigen Zeitpunkt bereits 2 Nachfolger (bzw. 1.5). Alternative ist nur die deutlich teurere "gewöhnliche" Lizenzierung.
-
So sehe ich das in diesem Fall auch, wollte mich nur absichern. Auch wenn der Vergleich hinkt, der Chef hat meistens den teureren ;) Dankeschön
-
Hallo Leute, Muss bei einem Kunden neue, aktuelle Lizenzen beschaffen. Dieser sieht nun nicht ganz ein, warum seine Lehrlinge in der Produktion auch alle soviel wie seine Arbeiter bezahlen sollen, vor allem weil sie ja gar nicht an die PC's sollen, dürfen, können ;) Folgende Situation 1. Lehrlinge haben in einem Betrieb keinerlei Zugriff auf irgendwelche Computer des Betriebs 2. Die Lehrlinge haben einen eigenen Lerncomputer um zB. Aufgaben für die Schule oder das 10-Finger System zu lernen 4. Der oder die "Lehrlingscomputer" haben Zugriff auf Ihre Ordner auf dem Fileserver sowie den Printserver 5. Die Umgebung ist komplett auf User CAL's basierend lizenziert, es gibt für jeden MA eine UserCAL (Deutlich Mehr Geräte, Maschinen und Computer als Mitarbeiter) 6. Es ist unmöglich, dass sich ausser den Lehrlingen jemand anders auf dem PC einloggt (Keine Anmelderechte) 7. Die Lehrlingen müssen irgendwann an Maschinen arbeiten, welche wiederum Filedienste auf dem Server beansprucht Fragen Office: Dürfen solche Computer mit "Office for Home/Students" lizenziert werden obwohl er im Prinzip wegen der File/Printdienste auf das Unternehmensnetzwerk zugreift? Zugriff-Cal: Braucht es für jeden Lehrling ebenfalls eine UserCAL? Reicht eine Device-basierte Lizenz? Dieser hat allerdings Zugriff auf den Server, damit Sie Ihre Dokumente sicher ablegen können. Zudem Drucken sie über die Betriebs-Umgebung. Office: Da es sich um einen Firmencomputer handelt, dürfte leider die Student-Version ebenfalls unzulässig sein oder? Zugriff-Cals: Für mich ist eigentlich Punkt 4+7 der Grund, warum zum Beispiel auch eine UserCAL benötigt wird, Device CAL würde imho nur gehen wenn sie an den Maschinen mit Netzwerkzugriff nix machen dürften, sonst fällt deren Konzept mit der UserCAL-Lizenzierung. So habe ich denen das mal empfohlen, auch wenn die das nur widerwillig geschluckt haben, dass alle Maschinen und Drucker eigentlich auch eine CAL benötigen. Es wurden dann eben zusätzlich UserCAL's beschafft. ;) Ich bin zwar auch der Meinung, dass MS in letzter Zeit schon genügend Kohle abzwackt und ziemlich Kundenfeindlich geworden ist, aber ich sehe irgendwie kein wirkliches Entgegenkommen für Auszubildende in den Unterlagen von MS und würde denen deshalb die Kiste ganz normal wie eine Arbeitsstation lizenzieren und für die Lehrlinge eben auch UserCAL's. Lösung wäre wohl nur, dass der Lehrling generell keinen Kontakt mit den entsprechenden Maschinen haben darf und der PC völlig eigenständig ist und z.B. direkt mit dem Printserver kommuniziert und die Files selber ablegt. Wie seht ihr das? Grüsse und vielen Dank!
-
Windows 2008 R2 Datacenter in VMware/ Win 7 Pro auf VMware Zugriffslizenzen / RDP auf TS in VMware
Weingeist antwortete auf ein Thema von Doenerman in: Microsoft Lizenzen
Und wenn man lieb per Telefon fragt und eine stichhaltige Begründung liefert, bekommt man auch solche die deutlich Älter sind. MS ist da sehr zuvorkommend :thumb1: Virtuelle Desktops: Du kannst auch allen User ein Server-OS anbieten und den Zugriff mit RDS UserCals abdecken. Vorteil: Weniger Spyware, länger unterstütztes OS, keine unbedingte SA-Zwang, Lizenz-Kauf möglich (VDA nur Miete), man kann also aus einem Vertrag aussteigen und weiter arbeiten Nachteil: Ohne DC-Version evtl. unsinnig, Zusatzprogramme unter Umständen deutlich teurer --> Antiviren-Scanner etc., etwas teurere Anschaffungskosten Hat man genügend Server in der gleichen Umgebung im Einsatz, ist das mitunter sogar sinnvoll alle Hosts mit DC auszurüsten. Erspart einem manchen Ärger, weil MS leider immer noch nicht laufende und eingesetzte Instanzen von Server OS lizenziert sondern mehrfach-lizenzierung fordert (Keine Lizenzmobilität zwischen Hosts). VmWare hat sogar mit der offiziellen Unterstützung von Server-OS in View begonnen. Bis dato war das nur mit Installer-Manipulation und unsupported möglich. -
Storage Pool / USB Energiesparmodus Problem unter Server 2012 R2
Weingeist antwortete auf ein Thema von Alex85 in: Windows Server Forum
Auch wenn es nicht um SSD's geht (denke ich mal bei USB-Platten?) Das mit dem Hardwarecontroller mag sein, muss aber nicht in jedem fall sinnvoll sein. - Hardware-Controller und Trim ist nach wie vor ein extrem seltene Kombination. Die beste GC macht Trim nicht überflüssig (das kann in Teilen nur ein massives Overprovisioning wirksam bewerkstelligen) - SSD's verwenden einen eigenen Cache, was da drinn ist, ist tot wenn der Strom weg ist. Kondis als Pufferung haben die wenigsten. - die Hardware-Controller leiten Schreib-Befehle direkt an die SSD's, also kein Cache der mit einer Batterie gepuffert wird Wozu also noch eine zusätzliche Instanz dazwischen verwenden wenn es die SP's auch gut machen? Das Filesystem an sich ist so robust, dass es Stromausfälle locker aushält. Was aktuell geschrieben wird, ist mit den meisten SSD's eh weg oder wurde schon vorher genügend schnell auf die Platte gebruzelt. Aufgrund dieser Tatsachen kann man gut darauf verzichten bzw. muss sein Backupsystem ebenfalls entsprechend performant auslegen und das Zeitfenster sehr klein halten. Dann sind die Daten, falls es dennoch crashen sollte, ratzfatz wiederhergestellt, auch wenn es mehrere hundert GB sind. Probleme mit dem ersetzen von ausgefallenen Platten hatte ich bis anhin nicht. Habe aber auch nur diverse Konstellationen mit SSD's und hartem entfernen und Stromausfällen unter Volllast durchgespielt, weil mir noch keine SSD's weggestorben sind. Was man mit den Storage Spaces immer beachten muss ist, dass bei der Verwendung von ReFs genügend freier Speicherplatz vorhanden ist. Kann mitunter lästig werden. Das neue System ist so robust, weil erst die neuen Blöcke geschrieben werden, dann die Links im Filesystem angepasst und die alten Blöcke freigegeben werden. Dumm nur, wenn kein Platz mehr vorhanden ist und diese Dinge nicht mehr funktionieren. Ist ein unsäglicher Bug bei dem angeblich schon einige Volumes gecrashed sind. Selber provoziert oder überprüft habe ich diesen Fall noch nicht. Wie auch immer, alles was nicht SSD ist, würde ich persönlich ebenfalls nen Hardware-RAID-Controller verwenden. Für SSD's geht auch gut ein hochwertiger HBA mit TrimSupport und Storage-Spaces. Zwei Hardware-RAID-Boxen die mit Storage-Spaces gespiegelt werden gehen natürlich auch. Storage Spaces mit direkt angeschlossenen Magnetplatten ist dagegen Write-Technisch eine ziemlich miese Angelegenheit. Bei aktiviertem Cache der HD's ist wiederum ein korruptes Filesystem ziemlich wahrscheinlich wenn der Strom weg ist. -
Storage Pool / USB Energiesparmodus Problem unter Server 2012 R2
Weingeist antwortete auf ein Thema von Alex85 in: Windows Server Forum
Also ich bin ja ein Befürworter von den Storage-Pools und setze sie mittlerweile in einigen kleinen Umgebungen als Basis für VM's ein. Man erhält mit SSD's und Storage Spaces eine extrem hohe Performance, hohe Sicherheit und gute Erweiterbarkeit. Im Grunde bin ich ja auch für innovative oder unübliche Wege. Was Du hier aber betreibst, ist meines erachtens aber das Gegenteil von sinnvoll. USB-Platten sind meiner Ansicht nach nur als Single-Laufwerk für den Datentransport oder als Ziel für Backups tauglich. Die Storage Spaces sind wie jedes Software-RAID oder Hardware-Box ziemlich komplex, auch wenn sie relativ einfach zu bedienen sind. Da sollte, nein muss man auch entsprechende Hardware verwenden. Dazu gehört mindestens ein Server mit ECC-Ram, Doppelnetzteil, eine (besser zwei) USV sowie entsprechende Festplatten/SSD's aus dem Unternehmenssegment der Hersteller. Alles andere ist Murks. Das ganze im Energiesparmodus zu betreiben halte ich auch nicht für die sinnvollste Variante. Wäre mir deutlich zu heiss. Unabhängig davon ob es bei dir nun bis jetzt funktioniert hat oder nicht. -
Festplatte vergrößert, aber nicht größer im Explorer
Weingeist antwortete auf ein Thema von aeigb in: Virtualisierung
Diesen Fehler habe ich in VM's auch schon öfter gehabt. Allerdings unter VmWare. Chkdsk und Reboots waren jeweils für die Katz. Lösung war jeweils nicht um die gesamte verfügbare Grösse zu erweitern, sondern ca. 150Mb weniger, je grösser die Disc war, desto mehr Freiraum. Bei Discs mit mehreren 100GB habe ich ca. 5GB freigelassen und das Spiel solange getrieben mit kleinen Erweiterungen, bis der Fehler nicht mehr kam. Normal reichte 1x wenn ich ein paar GB frei liess. Was genau da schief läuft habe ich nie herausgefunden. Es war aber immer das Systemlaufwerk, immer wenn Schattenkopien aktiv waren und fast immer wenn nicht viel freier Speicher verfügbar war vor der Erweiterung. -
Neue Hardware für SBS 2011 = ?
Weingeist antwortete auf ein Thema von bfg9000 in: Windows Server Forum
Naja, MS hätte das SBS-System Modernisieren können. Rein laufende ServerInstanz-basiert, egal ob physisch oder virtuell (also nicht 2 instanzen pro Lizenz) So mit ner Art-AddIn-System und RundUm-Sorglos Cals für Kleinkunden. Das ganze bis 50 oder 75 User oder so. - Instanz für AD1/Files - Instanz für AD2/Files - Instanz für Exchange - Instanz für WSUS/Print Dazu SQL-AddOn - Instanz Server + SQL-Server (evtl. separate Cals) Sowie ein HA-AddOn - Lizenzmobilität innerhalb eines Clusters von max. 3 Maschinen (wie zbsp. VmWare Essentials) sowie das recht ein Replikat auf einer anderen Maschine zu halten. Ist leider Wunschdenken.... -
So siehts aus. Deine Mails gehen immer an DynDNS und dann zu Dir. Auf Wunsch wird auch gleich Spam herausgefiltert oder auch ein allgemein vertrauenswürdiger Server (wegen Spam) für den Versand bereitgestellt (sollte man dyn-Ip haben sinnvoll). Die Kosten sind ziemlich überschaubar. Ob man dabei DynDNS seine Mails anvertrauen möchte (Datenschutztechnisch) steht auf einem anderen Blatt, aber ganz alles kann man eben doch nicht haben und Mails sind eh ein offenes Buch im Netz. Bis dato habe ich noch keine vernünftige Fertiglösung/Anleitung gefunden wie man das selber auf einem Webspace zbsp. mit einem vServer realisieren könnte. Es ist technisch nicht ganz so einfach wie es vorerst aussieht, zumindest nicht für dynamische IP's. Würde daher also auch nicht selber 'basteln'. Sondern eher einen solchen Anbieter verwenden, Mail gänzlichen auslagern oder damit leben, dass vielleicht Mails mal nicht ankommen. Wenn das wirklich 48h dauert bis eine Mail verworfen wird - ich war immer der Meinung das sei wesentlich weniger - dann dürfte das bei fixer IP völlig problemlos sein, auch wenn ein Recovery gefahren werden muss.
-
Bezüglich dem von mir genannten E-Mail-Gateway von DynDNS: Das ist weder eine Frickellösung mit POP3 noch ein BackupMX. Zustellung erfolgt wie üblich per SMTP. Der einzige Unterschied, er nimmt eben an und wartet mit der Weiterleitung bis man wieder online ist und verwirft die Mails nicht. Dabei werden alle Mails darüber geroutet. Kleiner Exkurs wofür das eigentlich gedacht ist: zbsp. dann verwenden wenn man keine fixe IP hat / bekommen kann / aus Kostengründen weil Übertragunsrate extrem lausig usw. In einigen Regionen bekommt man beispielsweise keine DLS-Line mit fixer IP mehr bei den normalen Abos. Man braucht also ein Business-Abo wo wiederum die Downloadraten extrem schlecht sind oder das Abo viel zu teuer wäre. Würde also bedeuten entweder separate Anbindung des Mailservers oder eben Dynamische IP. Bei separater Anbindung muss man wieder beachten, dass Mail-Daten zbsp. via Line1 und Surfen via Line2 geleitet werden. Nicht immer so einfach wie man das gerne hätte. Es ist immer sehr einfach und schnell gesagt, das macht man so nicht, das ist gebastelt usw. Aber Fakt ist auch, Kleine haben nunmal nicht das gleiche Budget wie ein Grosser. Die Funktionalität und Flexibilität möchte/muss er aber auch haben. Man kann überall sagen da muss er durch, aber das summiert sich gewaltig und ist irgendwann nicht mehr tragbar. Sei es Lizenzen, Internetanbindung, Support, Hardware usw. Clouddienste sind auch nicht die eierlegende Wollmilchsau. Bezüglich Backup: Da würde ich Mails einfach bei Ankunft direkt an eine Sammelmailadresse auf einem anderen (internen oder externen) Mailserver weiterleiten. Für Notfälle reicht das aus. Der eigentliche Mailserver wird ja entsprechend per Backup gesichert.
-
Zu deinem Wunsch für ein E-Mail-Abnehmer im Falle eines Downs deines Server gibts (gabs?) zbsp. von DynDNS einen Dienst welcher die Mails annimmt und per smtp an deinen Server leitet sobald er wieder online ist. Quasi Pop für SMTP ;) Nannte sich "Dyn E-Mail Gateway". Geht auch mit fixer IP.
-
Unkonventionelle POP3-Connector Konofiguration beim SBS 2003
Weingeist antwortete auf ein Thema von Ultraschall in: Windows Server Forum
Sag ich doch, das Ding ist eh schon nimmer wirklich supported ;) Und MS würde schon helfen, zumindest wenn man das gleiche Verhalten auch auf ner physischen Maschine reproduzieren kann... Gibt halt Vorbereitungsarbeit... -
Unkonventionelle POP3-Connector Konofiguration beim SBS 2003
Weingeist antwortete auf ein Thema von Ultraschall in: Windows Server Forum
Wegen virtualisiert supported oder nicht, darüber würde ich mir mal gar keine Gedanken machen. Das läuft problemlos. Was mir eher Sorgen machen würde, ist die Tatsache, dass auch bald die Einstellung von Sicherheitsupdates folgt. Daher lieber auf SBS 2011 upgraden wenns ein eigener Mail-Server sein soll, sonst kommt das preisliche erwachen wenn man weiterhin Exchange betreiben möchte. ;) -
SBS 2011 Datensicherung auf NAS kopieren
Weingeist antwortete auf ein Thema von tsaenger in: Windows Server Forum
Es gibt diverse Möglichkeiten einen SBS oder kleine Serverumgebungen auch zuverlässig inkl. Überwachugn mit Bordmitteln zu sichern ohne dass man auf zusätzliche Backupsoftware zurückgreifen muss, welche zwar Komfort schafft, aber auch zusätzliche Komplexität durch deren Datenbanken, eigene Filesysteme, Software mit Fehlern, Unterstützung neuerer OS manchmal erst später usw. aber vor allem Kosten. Anbei auch noch ein paar Inputs: - Windows Backup ist weder Gebastel noch schlecht. Fehler kommen in der Ereignisanzeige. Entweder prüft man diese regelmässig oder man baut Trigger mit einer E-Mail Warnung für Ereignisse die man überwachen möchte. (zbsp. per E-Mail mit Blat) - Windows kann mit robocopy sehr wohl auch geöffnete Files sichern, wenn auch nicht direkt. Dazu braucht es entweder ein Tool wie DriveSnapShot oder das SDK für VSS für die entsprechende Windows Version. Damit kann man dann per Kommandozeile einen VSS-konsistenten SnapShot erstellen und anschliessend in einem Windows-Ordner bereitstellen und diesen sichern. - Um Files möglichst Rasch wieder griffbereit zu haben, kann man zbsp. einen Robocopy-Mirror auf einem andern Laufwerk vorhalten, welcher zbsp. Stündlich abgelichen wird. -->Zbsp.auf einem PC in einem anderen Brandabschnitt liegt oder dem Rechner des Chefs. Vorteil gegenüber einem einfach NAS ist wie immer die erhaltung von NTFS-Rechten. - Auch DFS Replikation ohne den Ordner in DFS tatsächich zu Verfügung zu stellen (Oder als gesperrtes/deaktiviertes Ziel) ist eine gute Mirror-Variante welche sehr schnell wieder online ist. - Historyproblematik mit Windows Backup bzw. Sicherung des System Volume Infos: Die Recht kann man sich durchaus mit Gewalt aneignen, wenn es sein muss. Notfalls mit einem Script welches einem die Rechte gibt und per Task als System ausgeführt wird. Allerdings gefällt mir schon die Art von Sicherung auf 'normale' NAS-Lauwerke nicht besonders, weil eben häufig die ganzen NTFS-Berechtigungen verloren gehen. Auch sind Schattenkopien von verschiedenen NTFS-Diensten wie USN-Journal abhängig, ich habe keine Ahnung ob das wirklich zuverlässig per reinem Filecopy gesichert und vor allem wieder rückgesichert werden kann. Wäre mir zu heiss und zu kompliziert. - Sicherung mit WindowsBackup auf ein iSCSI-Laufwerk welches auf einem anderen Server liegt: Hat den Vorteil, dass man alle History-Funktionen weiterhin nutzen kann. Recovery ist mühsamer, da erst nach einer Windows-Installation nutzbar. - Verwenden von Virtualisierung: Hat den Vorteil, dass man Laufwerke von verschiedensten Datastores einbinden kann. Also kann auch ein günstiges NAS problemlos als BackupZiel aus einre VM heraus verwendet werden. Oder wiederum ein Dedupeziel wo man die komplette Virtuelle Disk aus dem Host-System drauf kopiert. So hat man wiederum eine History von einzelnen Fullbackups bzw. ganzen Backupketten, die aber nicht viel Speicher brauchen. Vorteil ist hier vor allem, dass bei einer Wiederherstellung direkt auf die Discs zurückgegriffen werden kann. Da ist ein Recovery zu einem beliebigen Datenbestand unter Umständen Ratz-Fatz gemacht. - Betriebssoftware mit Datenbanken etc. --> Jeweils Fullbackup auf ein Dedupe-Volume. --> Schafft auf einfache weise eine riesige Backuphistory ohne viel Speicherplatz zu verbraten. Die Files können wieder mit Robocopy auf ein weiteres Volume kopiert werden. Es gibt X-Varianten wie man viele der Funktionen von modernen Backupsystemen mit Windows-Bordmitteln erreichen kann. Der Einwurf das wäre alles viel zu kompliziert, kann ich nicht teilen. Es erfordert lediglich etwas Kreativität und eine gute Dokumentation. Verwendet man zbsp. SSD's als primären Speicher, sind selbst Full-Recoverys innerhalb kürzester Zeit erstellt. Manche der Dinge wie tägliches Fullbackup aller Files machen natürlich nur bis zu einer gewissen Menge an Daten Sinn. Aber das muss man eben situativ entscheiden. Wenn man vom Desaster-Fall ausgeht wie Brand oder Diebstahl, kommt es auf ein paar Stunden mehr Arbeit auch nicht mehr drauf an. Es reicht meiner Meinung nach deshalb aus, das 'normale' Backup schnell Recoverfähig zu halten und für den Desasterfall ein Szenario zu wählen, welches für das Recovery unter Umständen mühsamer ist und mehr Vorbereitungszeit benötigt. Wichtig ist nur, dass es gut dokumentiert ist. Hier noch Lektüre zu VSS und dessen Bereitstellung als Mount-Points in Verbindugn mit Robocopy (Sicherung von geöffneten Files): - http://serverfault.com/questions/119120/how-to-use-a-volume-shadow-copy-to-make-backups - http://axelilly.wordpress.com/2009/01/15/creating-vss-snapshots-on-windows-2003-server/