Jump to content

Weingeist

Members
  • Gesamte Inhalte

    1.639
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Weingeist

  1. Natürlich. Auch wenn es nicht die eigentlich Frage ist und man für eine neue Frage einen neuen Thread öffnen sollte *hust* Wie auch immer, nochmals die Frage falls es noch nicht ganz klar ist (noch erweitert) Was ich wissen möchte: Kann / darf man Orginale Lizenzen (Nicht ROK, nicht Refurbished, nicht aus kruder Quelle etc.), aus dem normalen Fachandel gekaufte hundskommune SB-Lizenzen aus dem Windows-Serverbereich - genauer Server 2012R2 - die z.B. heute installiert wird in ein paar Jahren auf eine neue Maschine übertragen oder eben nicht. Hintergrund kannst auch gerne wissen: Ich möcht mir und den von mir betreuten Umgebungen Server-Softwaremiete und die immer engere Verzahnung in App und Cloud-Dienste ersparen und genügend Lizenzen für allfällige Erweiterungen und Verkäufe auf die Seite legen. Entweder eben in SB-Version oder als Open License.
  2. Hallo MS-Lizenz-Spezis, Mir ist bewusst, das Thema kam schon öfters. Aus aktuellem Grund (geplante Abschaffung von Kauflizenzen) wird es aber leider wieder ziemlich aktuell. Darf eine aktuelle System-Builder Lizenz für "Windows Server 2012R2" 1*) auf neue Hardware übertragen werden oder nicht? 1. Bei einem Defekt, abweichende Hardware 2. Bei einem Defekt, identische Hardware 3. Bei einem Ersatzgerät und ausserdientsstellung des PC's Was man alles haben müsste wie COA, Heftchen etc. ist mir bewusst, mir geht es lediglich darum ob man es kann und darf. Vielen Dank! 1*) Stinknormale Detailhandel Systembuilder-Verison, kein ROK etc.
  3. Das beste und banbrechenste Windows 10: Es wird der neueste Goldesel von MS werden und MS endlich mal wieder so richtig Geld verdienen lassen ohne den Zwang zu haben, sinnvolle Features nachzurüsten welche die Kunden frewillig upgraden lassen. Gerüchten bzw. nahezu offiziell verschwindet jegliche Art von Lizenzkauf ausser OEM (vermutlich braucht man dann wieder nen Buy-In für Unternehmen). Ausserdem verschafft es MS ne Menge neuer Telemetriedaten etc. über seine Kunden und kann dann eventuell ins Werbegeschäft einsteigen. Die Zeit wo ich MS als vertrauenswürdig angeschaut habe, ist nun defnitiv vorbei... Sie sind auf gleicher Stufe wie andere grosse Konzerne angelangt. Alternativen hat man leider keine wirklich brauchbare. Das alleine ist meiner Meinung schon ein Versionssprung wert. Die Vermarktung ist sensationell. :thumb1: Ansonsten: Es gibt einige tolle aber eher kleinere Änderungen auf und unter der Haube. Startmenü, App-Handling, Powershell-Implementationen, Storage Spaces usw. Das Hauptproblem von MS ist, dass die Produkte halt für die Mehrheit schon seit XP und Office 2003 bis auf wenige Ausnahmen Feature-Komplett für den Alltag waren. Vielleicht haben wir ja Glück und die EU haut MS ordentlich eins vor den Latz weil keine Wahl, Monopol usw. Wer weiss. Chance wird aber klein sein weil an sich Miete nicht illegal ist. Ansonsten habe ich wenigstens noch ein paar Jahre bis 2012R2 Support ausläuft und dann gibts mit etwas Glück vernünftige Alternativen zu Windows und Office. Dank dem Clou im April, dass es keine SP's sondern nur noch Zwangs-Rollups gibt, haben wir auch das Vergnügen, dass 2012R2 ordentlich früh aus dem Extended rausläuft. Bravo MS :jau:
  4. Bei mancher Software kann man die 'korrekte' DLL auch ins Programmverzeichnis packen und dann nimmt er diese anstatt eine andere.
  5. Nana, das Ding ist nach wie vor binär vorhanden. Allerdings nicht wirklich auf C: installiert sondern nur auf der DVD. Schreib den DVD-Laufwerk Buchstaben hind und fertich... Cmd: dism.exe /online /enable-feature /featurename:NetFX3 /all /LimitAccess /source:E:\sources\sxs oder Powershell: Install-WindowsFeature NET-Framework-Core -Source E:\sources\sxs
  6. Schaut mal das letzte Build der Server 2012 R2 DVD an, da ist das Ding (gemäss MS fälschlicherweise) sogar vorinstalliert. Schwirrt wohl standardmässig in den Binaries rum und ist ein Bestandteil. Ist mir grad aufgefallen, weil mir am WSUS grad ein Update präsentiert wurde um es wieder zu entfernen =)
  7. GetDataBack NTFS und Ontrack holt Dir genauso viel zurück oder auch nicht wie bei einer physischen Platte. Die Bedingungen sind identisch. Einziger Unterschied: Es gibt Leute die fahren automatisierte sdelete Task im Gast, das löscht bzw. überschreibt als von NTFS gelöscht markierte Sektoren. Solange das nicht der Fall war und auch keine neue Daten in die entsprechenden Sektoren kamen, lässt sich grundsätzlich alles alles wiederherstellen. Etwas vertrackter wird die Sache wenn man neue Technologien wie Dedupe nutzt. Da wird das ganze dann schnell ziemlich lästig.
  8. Wenn alles nix hilft: GetDataBack for NTFS holt was noch zu holen ist alternativ Ontrack. Wichtig ist: Keine Writes, kein aufgabengeplantes sdelete etc. auf die Platte! Je länger die Platte online ist, desto schwieriger wirds. Als erstes Kopie der Platte erstellen und nach Möglichkeit mit der Arbeiten.
  9. @Norbert: Och das geht in alle Richtungen. Bei den grossen Berater-Firmen bekommt man oft den Depp / die Deppen der Firma, oder eben auch Lehrlinge die können ja bei den kleinen lernen. Natürlich mit hohen Stundenansätzen. Bei den kleinen gibts genauso gute und weniger gute. Praktisch ist wenn man die Namen der kompotenten Leute kennt und auf die bestehen kann. =) Leider findet man das oft erst heraus wenn das Kind in den Brunnen gefallen ist. Daher schadet möglichst umfassende Selbstinformation über entsprechende Konzepte nie. Egal für welchen Zweig der Firma Ware, Maschinen, Geräte, Dienstleistung oder eben IT Dienstleistung eingekauft wird. Gutes Beispiel: Man spart heute bei einer Windows Server-Lizenz und hat morgen Spass bei der komplexen Migration weil falsche Dienste kombiniert werden die zwar unterstützt sind aber das Update-Handling unnötig kompliziert machen. Das kostet dann Manpower in Form von teuren Stunden. Das es besser ist, die Dienste möglichst zu separieren trifft in der Regel auch für Kleinumgebungen zu.
  10. Vielen Dank für die Inputs. Werde wohl auch in den sauren Apfel beissen müssen und wenigstens ein paar Scripts für das leeren der Caches schreiben. Gleiches für Java.
  11. Das Problem bei den Beratern ist leider meist, dass man als Kleinfirma oft ned die tollste Beratung bekommt, sei es weil eben Zeit Geld ist oder schlicht Inkompetenz oder Schludrigkeit in der Abklärung. Unabhängig davon - ein externer Berater kann trotzdem sehr hilftreich sein - hat es noch nie geschadet sich über die Möglichkeiten, Gefahren, technisches Design etc. zu erkundigen um nicht quasi der Depp zu sein, der alles abnicken muss nur um am Ende zu merken, dass es nicht so toll war. ;) Bezüglich DHCP: In nem kleinen Netzwerk könntest auch fixe IP's vergeben (Oder Reservierungen im DHCP) und die Lease-Dauer deutlich erhöhen. Dann bleibt die Adresse erhalten auch wenn der DHCP kaputt geht. Alternativ mit Server 2012. Da klappt das mit der Redundanz ganz gut. Ein paar Tipps für DFS/Kleine Umgebungen: - Zwei Fileserver mit DFS-Stamm (evtl. zugleich DC) mit gleicher Datenstruktur. Beide Freigaben (zb. SV1_Daten, SV2_Daten) als Ordnerziele definieren. Ein Ordnerziel auf das andere Replizieren. Ein Ordnerziel deaktivieren und Zugriff sperren. Das macht das Replikationshandling viel einfacher und quasi sicher, da es keine Konflikte gibt. - Das einfachste Fehlerhandling und unproblematische Veröffentlichung erreichte ich, wenn der Freigabename jeweils den ServerNamen bzw. einen Kürzel davon enthielt und nicht identisch waren. Also wie oben SV1_Freigabename, SV2_Freigabename. - Im Fehlerfalle das andere Ziel als aktiv markieren - Änderungen am DFS-Stamm sind abhängig vom PDC. Wenn Du nun obiges Design umsetzen würdest, dann hast Du ein Problem wenn das Primäre Ziel auf dem PDC liegt und der PDC kaputt geht. Dann kannst nämlich das Ziel nicht ummappen und musst zwingend auf den Restore des PDC warten. Deshalb entweder auf dem PDC gar keine Ordnerziele oder nur das Replikat vorhalten - Es ist wichtig die Replikation NICHT mit dem gleichen Assistenten zu machen wie den DFS-Ordner --> Sehr mühsam im Handling, da nur beides zusammen verändert bzw. gelöscht werden kann. Replikation später separat einrichten So hat man quasi immer zwei aktuelle Datenstände und muss beim in der Regel grossen Fileserver nicht auf dessen vollständige Rücksicherung warten. Die anderen Server sind bei einem einigermassen potenten Backup und Disksystem relativ zügig wiederhergestellt. Anbei noch ein guter Link bezüglich DFS wie man es nicht machen sollte http://blogs.technet.com/b/deds/archive/2011/07/12/wie-ein-dfs-namespace-nicht-aussehen-sollte.aspx
  12. Manchmal liegt das Gute so nah. Nutze die PrintUi schon ewig für Printerverbindungen in Login-Scripts... Auf die Idee, dass man damit auch Einstellungen exportieren und importieren kann, kam ich allerdings noch nie und ist mir auch noch ned wirklich aufgefallen. Herzlichen Dank!
  13. Hallo Leute, Es gibt doch seit Vista das neue nette Feature der Druckverwaltung mit dem man die gesamte Drucker-Konfig exportieren und wieder importieren kann. Soweit funktioniert das ja auch sehr gut. Ich habe aber immer wieder das Problem, dass - die eigentlichen Einstellungen übernommen werden - die Standardwerte unter Erweitert aber nicht. Letztere sind aber zuständig, was eben tatsächlich beim Client genutzt wird. Das gleiche Verhalten konnte ich auch immer bei TreiberUpdates feststellen. Die Standardwerte werden gekillt und die normalen Einstellungen gesetzt. Bei 1-10 Druckern war mir das eigentlich immer egal, jetzt muss ich aber eine Umgebung mit sehr vielen Druckern migrieren wo massig Druckfächer und Papiertypen, Duplex, Briefköpfe etc. definiert sind. Da wird das ganze ziemlich mühsam und eben auch fehleranfällig. Meine Frage nun - Gibt es einen Flag (nicht dokumentiert) beim Export womit man die Standardeinstellungen mitsichern/restoren kann - Gibt es die Möglichkeit diese an "einem" Stück aus der Registry zu exportieren/importieren --> Script, nicht dokumentierter flag oder so Was ich schon gefunden habe Wenn ich die Registry vor und nach einer entsprechenden manuellen Änderungen vergleiche, gibt es Änderungen in: - HKLM\Software\Microsoft\Windows NT\CurrentVersion\Print\Printers\PrinterName\ - HKLM\Software\Wow6432node\Microsoft\Windows NT\CurrtenVersion\Print\Printers\PrinterName\ - HKLM\SYSTEM\CurrentControlset\Control\Print\Printers\PrinterName - HKLM\SYSTEM\Controllset001\Control\Print\Printers\PrinterName - HKU\UserSID des aktuell angemeldeten Users\Printers\DevModes2\PrinterName Interesssant ist, dass mir Regshot den Schlüssel des "Default DevMode" jeweils zweimal ausgibt. Bevor ich jetzt also grossartig Registry-Imports fahre, würde ich noch gerne wissen ob das auch einfacher geht. Auch in Hinblick auf Treiberupdates, die ich jeweils gerne 'vermeide' ;) Gruss und Danke
  14. Hallo Leute, Mir ist die unkontrollierte Adobe Flash-Datensammlungswut schon länger ein Dorn im Auge. Mittlerweile geht es ja schon soweit, dass man mit den FlashCookies teilweise andere Preise in Shops, bei Flugbuchungen etc. bekommt. Habe mich ja lange gewehrt den Dreck überhaupt zu installieren. Man braucht es aber leider trotzdem irgendwie immer wieder. Deshalb die Frage im Unternehmensbereich - Installiert ihr das überhaupt? - Habt ihr regelmässige Scripts welche den Cache manuell leeren? --> "%appdata%\Adobe\Flash Player" und "%appdata%\Macromedia\Flash Player" - Wann führt Ihr diese Scripts aus? Bei Anmeldung der User oder habt Ihr einen Walker der regelmässig durch alle Benutzerprofile auf dem Client laufen? Vielen Dank für Inputs
  15. Anforderungen: Sind doch eh immer die gleichen. Auf Knopfdruck sollen Programme innerhalb ner halben Sekunde offen sein, Zip-Vorgänge sollen zackig sein. Verfügbarkeit so hoch wie möglich und ein allfälliger Rebuild trotzdem schnell. Man braucht daher in Kleinumgebungen ebenso ein potentes Storage wie in grösseren. Imho viel schwieriger zu sizen, die ganzen Berechner funktionieren da eh nicht, weil ein einzelner ausgelasteter Desktop (wenn ers heute nicht ist, dann morgen) die Umgebung dann schon in die Knie zwingen kann. Daher: Viel hilft viel. In grösseren Umgebungen kann man da auf allerlei Zusatzmaterial, Caching und komplexe Infrastruktur zurückgreifen. Im kleinen muss man für die gleiche Leistung eben etwas tricksen und möglichst OnBoard-Material verwenden um die Gesamt-Komplexität, anzahl Zusatzsoftware/Hardware und im Endeffekt Kosten möglichst tief zu halten und trotzdem eine potente, möglichst ausfallsichere, schnell wiederherstellbare Umgebung zu haben. Zur Lizenzierung: Server OS (Datacenter), RDP-Lizenzierung. --> Langer Supportzeitraum, Kauflizenzen (Zusatzlizenzen wie Virenscanner etc. beachten!) Zur Hardware: Host mit hoher Taktrate, Storage mit tiefer Latenz + viel IO. Das entscheidet über Top oder Flop bei der Akzeptanz der User die SSD's verwöhnt sind. Ich nehme mix aus Enterprise SSD's und HDD's. Der grösste Fehler ist am Storage zu sparen. Ne halbe 15k Festplatte pro Desktop in nem Stripe im RAID 10 ist nicht so schlecht. Enterprise SSD's bringen die Kisten zum fliegen. Umsetzung: Meine Vorgehensweise für Kleinumgebungen und Desktopvirtualisierung (Mittlerweile mach ichs für Server identisch) findet man hier im Forum über die Suche. Mag man oder nicht. Viel Power fürs Geld bei imho hoher Sicheheit isses allweil.
  16. War selber etwas "lockdowned" daher erst jetzt: Danke Jungs! Habe mich mal durchgewühlt. Geht wirklich einiges. Allerdings ist die quasi 1-Click-Variante der Lockdown-Erweiterung schon ganz nett. Also erlaube alles was gerade an USB-Geräten angeschlossen ist und verbiete alles andere.
  17. Hallo Leute, Auf der Suche nach einer guten, sinnvollen Anleitung wie man CA-Dienste relativ sicher und verhältnissmässig einfach von Grund auf aufbaut bin ich auf folgendes PDF gestossen: http://www.secorvo.de/publikationen/secorvo-wp17.pdf Die Anleitung erklärt wie man ein zweistufiges System aufsetzt und gibt auch ein paar Absicherungstips, Konfig-Skript (welches auch grad als Doku taug) usw. Sieht für mich nach einer guten Grundlage aus.
      • 1
      • Like
  18. Hallo Leute, Unter Windows 8 Industry gibt es ein Feature um einen (wirkungsvollen?) Filter für USB-Geräte zu aktivieren. Etwas das ich schon ewig gesucht habe. Das Feature ist Bestandteil der Lockdown-Features. s gibt sogar eine Komforfunktion, welche nur alle gerade angeschlossenen Geräte zulässt. Meine Frage: Gibt es einen legalen Weg, diese Features auch auf anderen Editionen oder sogar Windows 7 zu nutzen? Grüsse und vielen Dank
  19. Bei Kleinumgebungen mag ich die Windows-Boardmittel. Sind ja eh nie viele Server. Wie bereits gesagt wurde, eine oder zwei NAS oder nen Windows-Backupserver hinstellen und auf diesen sichern. Gründe - Normalerweise geringere Gesamtkomplexität - Weniger Software, weniger Schulung, weniger Kosten - Weniger Leute die einander die Schuld in die Schuhe schieben wenn man Support benötigt - Immer aktuelle Sicherungssoftware wenn eine neue Windows Version herauskommt Monitoring und Automatisation etc. ist halt unter Umständen aufwendiger zu realisieren
  20. Auch wenn ich mich wiederhole und wieder als Dauernörgeler, MS-Basher oder was weiss ich betitelt werde, obwohl es keine einzige IT-Firma gibt, welche ich in den letzten 20 Jahren mehr schätzen gelernt habe. Meiner Meinung nach wiederspiegelt es die aktuelle Teppichetage der letzten Jahre. Sparen, sparen, sparen und gleichzeitig abzocken und den Gewinn maximieren. Sieht man in allen Branchen wo Konzerne involviert sind. Service langsam zurück-, Lizenzkosten und Unterhalt hochfahren. Die Teppichetage muss einfach nicht mehr einem langfristig denkenden Patron mit einem gewissen Ehrgefühl Rechenschaft ablegen.
  21. Na einen eigenen TS müssten die Jungs mit Visio dafür schon haben, sonst geht das natürlich nicht. --> Ich weiss natürlich nicht, wie Xen nun streamt, also ob der 'Tunnel' fürs Streamen direkt aufgemacht wird oder via einem Xen-Server. Wenn der Anwender nach der Authentifizierung direkt auf den TS zugreift welcher Visio hat, dann wird der Stream abgeblockt. Wenn der Traffic via einem Xen-Brooker läuft, wäre es wohl schwierig. Dann müsste man Xen beibringen den Zielhost für gewisse Anwendungen nach MAC zu filtern. Da Du mit Sicherheit nicht der einzige mit diesem Problem bist, dürfte es dafür auch von Microsoft akzeptierte Lösungsansätze geben ohne irgendwelche unmöglichen Handstände zu machen.
  22. Wenn Ihr so ein ein grosses Netzwerk habt, habt ihr bestimmt auch tolle grosse managbare Switches. Eventuell können die Switch-Jungs einen Filter mit einer White-List erstellen und jegliche Kommunikation auf den TS von MAC's ausserhalb der WhiteList verhindern. Sollen die mal Kreativ werden wie man das am besten umsetzt bei euch :)
  23. Hi, Es ist definitiv so wie Dr. Melzer es als erstes erklärt hat. Die Nutzer greifen weder direkt noch indirekt selber auf den SQL-Server zu. Indirekter Zugriff ist ebenfalls so wie er das eigentlich deutlich erklärt hat: Stellen die Nutzer eine konkrete Anfrage an den MySQL-Server, aufgrund dessen Anfrage dann der MySQL-Server auf den SQL-Server zugreift und die gewünschten aktuellen Daten abholt, dann wäre es eine indirekte Abfrage weil in dem Moment wo der Benutzer die Daten haben möchte, der MySQL-Server quasi als Router/Gateway dient um auf die aktuellen SQL-Daten zuzugreifen. Der Zugriff ist indirekt. Fazit: Es muss ein Anstoss seitens des Nutzer sein, welcher dafür sorgt, dass der MySQL Server aktuelle Daten erhält. Sprich es muss eine gewisse Dynamik herrschen. Wenn man nun hingeht und vom SQL-Server her alle paar Sekunden einen Datenabgleich fährt um quasi Live-Daten auf dem MySQL-Server zu Verfügung zu haben, dann bewegt man sich massiv in die Dunkelgrauen Zone und der Richter würde unter Umständen entscheiden müssen. Das kann dann sowohl als indirekter als auch statischer Zugriff angesehen werden. Werden die Daten nicht Zeitnah aktualisiert sowie aufbearbeitet, herrscht überhaupt kein Zweifel. Wen eine solche Weiterverarbeitung von statischen Daten nicht erlaubt wären, dan müsste man sämtliche Daten für jeden der diese irgendwie und in beliebiger Form im und ausserhalb des Unternehmens auswertet, eine SQL-Lizenz haben. Das macht ned mal MS und wäre mit Sicherheit rechtlich auch nicht haltbar geschweige den durchsetzbar. ;) Ansonsten: Die Ausbeute von sinnvollen Antworten bei den Anfragen an das MS-Lizenzteam ist heutzutage extrem schlecht. Die werfen manchmal mit Auszügen um sich, die noch ned mal mit dem Thema zu tun haben und beschränkt sich in aller Regel auf die Zitate und keine konkreten Antworten zur Problemstellung. Die sehen ein paar Stichworte aus der Anfrage und dann folgt der Quote. Fertig. Vermutlich dürfen die ned mal was anderes tun, weil man sonst was schriftliches in der Hand hätte. Ist extrem Krank geworden das License-Business. Man könnte meinen, die Firmen lieferen sich einen Wettstreit wer die kompliziertesten Bedingungen auffahren kann. Meiner Meinung nach geht es eigentlich nur noch darum, die Unternehmen soweit einzuschüchtern, dass sie einfach für alle Mitarbeiter die nur im entferntesten etwas mit den Computer zu tun haben, Lizenzen aus Open/Select Verträgen vorhalten und man seine Ruhe hat. Dazu geben sich die grossen Software-Firmen alle Mühe, normale Lizenzenzierung so kompliziert und mit so vielen Ausnahmen zu machen, dass am Ende eigentlich nur noch ein Mietmodell in Frage kommt. Die Strategie scheint perfekt aufzugehen. Der Rubel rollt.
  24. Naja, ich finde so gut wie alle Programme zicken irgendwann rum wenn sie ewig geöffnet sind. Bei MS-Applikationen zeigt sich dies dann mit nicht mehr gscheit funktionierenden XML-Symbolleisten. Entweder weil sie nicht mehr aktualisiert werden bei Objektwechsel oder grad gar nix mehr angezeigt wird oder auf Klicks nicht mehr reagieren. Bei anderen wird alles total langsam. Der Firefox stürzt auch mal ab. Imho läuft dies auf nicht sauber freigeräumten RAM-Speicher raus. z.B. von Objekten die das Programm handeln möchte obwohl sie nirgends mehr gebraucht werden bzw. Dokumente bereits geschlossen sind, Listenüberläufe etc. Sprich Programmierfehler. Möglichkeiten gibts viele, den Fehler zu lokalisieren und zu beheben ist dagegen nicht immer einfach für die Programmierer. ;)
  25. @Daniel: Sag mir, dass Du dies nur so formulierst weil Du musst ;) Du bist doch schon ewig im Geschäft und kennst die Sachlage doch ziemlich genau. Da ist nichts an den Haaren herbeigezogen. Lizenzbestimmung: Schau Dir mal die Lizenzbestimmungs-Entwicklung der letzten 10 Jahre an. Das liegt doch echt auf der Hand. Vorher: Egal über welchen Kanal eine Lizenz erworben wurde, die Nutzungs-Bedingungen waren die selben. NEU: Es gibt diverse unterschiedliche Konzepte. OEM-Versionen sind auf Applikationsebene faktisch nichts mehr wert (kein ReImageing, keine Verwendung auf TS usw.). Beim Client OS sind sämtliche (Server)-Virtualisierungskonzepte nicht mehr mit Kauflizenzen zu ermöglichen. --> Man Vergleiche Lizenzbestimmungen von Windows XP SP2 und SP3 und Vergleich sowie Office 2003 und 2007. Da sind die Unterschiede sehr gut erkennbar. Je neuer die Version, desto schlimmer wurden die Einschränkungen. --> MS spricht seit Jahren von Vereinfachung, in Tat und Wahrheit wird es fast mit jeder neuen Version komplizierter Vorher: Man konnte eine Lizenz kaufen NEU: Man wird bei Nutzung von modernen Technolgien - selbst wenn MS nichts dazu beiträgt - zur Miete/Wartung genötigt und hat z.B. bei virtuellen Desktops keine wirkliche Möglichkeit Lizenzen zu kaufen. Bei Applikationen kann ich eine Lizenz nicht pro Benutzer kaufen sondern nur mieten. SaaS ist die neue Gelddruckmaschine. Vorher: Mit jeder Server-Version waren CAL's inbegriffen. NEU: Die Kaufprodukte wurden teurer, die CAL's entfernt. Vorher: Mit jeder Exchange-CAL wurde Outlook lizenziert Heute: Separate Applikations-Lizenz notwendig, macht die Sache unnötig kompliziert. Vorher war klar: Hat man eine Exchange-CAL war man mehr oder weniger automatisch richtig für Outlook lizenziert. Vorher: Jede CAL war käuflich zu erwerben Heute: Die wirklich sinnvollen Features sind z.B. bei Exchange nur mit SaaS zu erwerben. Fazit: MS hat sich in den letzten Jahren darauf konzentriert die Lizenzbedingungen massiv zu verschlechtern um vom Zeitalter des Kaufens ins Zeitalter des Mietens und vollständiger Kontrolle überzugehen. Spam-Ware-Apps/Tasks/Dienste/Ausspionierung: Vorher: MS war immer der Gegenpol zu den ganzen zwielichtigen anderen Konstrukten grosser Konzerne. Man konnte MS ziemlich gut vertrauen. Zumindest hatte man wirklich das Gefühl, dass seriös gearbeitet wird. Heute: Apps, Dienste und sichtbare und versteckte Tasks sowie die Bing-Integration sammeln Unmengen an Daten, ohne das man wirklich einen Sinn dahinter sieht. Noch dazu lassen sich die wirklich seltsamen nichtmal so ohne weiteres deaktivieren. Tasks/Dienste: Gibt es diverse mit seltsamen Ambitionen, manche davon sind sogar so angelegt, dass man sie nicht so ohne weiteres aufspüren kann, da nicht den 'Bestimmungen' entsprechend in der Registry angelegt. Das heisst man sieht sie nicht einmal. Wer weiss was da gemacht wird. Bei anderen ist klar ersichtlich was alles gescannt, gemacht und getan wird. Deaktivieren kann man die fragwürdigen aber nicht ohne weiteres. Apps: Die vorinstallierten Apps sind wahre Datensammler. Allgemein ist wenig durchsichtig was Apps alles anstellen können und auch tun. Haben ja quasi ne Freikarte. Auch die komplette Deinstallation ist nur für Leute die sich exzessiv mit den Apps auseinander setzen zu bewerkstelligen. Und auch dann ist es ziemlich mühsam den Schrott alles vom System zu bringen. Früher war das ein Liste mit installierten Programmen. Ein paar der Apps lassen sich wiederum nicht deinstallieren/deaktivieren. Zeitgemäss im Sinne des Kunden wäre eine Auflistung sowie eine detaillierte Ankreuzliste was eine App alles tun darf. IPv6-Struktur: Kaum zu deaktivierende, äusserst undurchsichtige automatische aktivierte IPv6 Struktur mit eindeutiger DHCP-ID aus Redmond die dann auch weiltweit von jedem Internetdienst eindeutig zuortbar ist, diverse aktivierte Tunnels die nichtmal in der Systemsteuerung erscheinen (ausgeblendet) und Löcher in viele Firewalls reisst. Fazit: Mich stört nichtmal grossartig, dass MS diese Dinge wie andere Konzerne auch tun will. Mich stört vor allem die intransparenz und die fehlende Möglichkeit als einfacher Nutzer ohne sehr tiefe Kenntnisse/Interesse etwas dagegen zu tun wenn man den Krempel nicht möchte wenn man sich Firmennähe auf die Fahne schreibt und eine solche Verantwortung als quasi-Monopolist hat. Installer: Früher: Freie Gestaltungsmöglichkeit was man haben wollte. Heute: Man hat keinerei Gestaltungsmöglichkeit beim Installer mehr in der GUI. Alles oder nichts. Konsole/Vorbereitungstools für gelegentlichen Gebrauch extrem aufwendig. Wiederum ausschliesslich für Open-Produkte. Sprich eine Menge Effort ist nötig um ungeliebte Dinge wie Integration von Internetdiensten loszuwerden. Preise: Wenn du FPP als Beispiel bei Office nimmst, trifft das zu. Ansonsten wurde alles teurer bzw. wird Miete notwendig was mit Sicherheit immer teurer ist. Früher konnte fast alles mit OEM lizenziert werden. Zu sehr günstigen Konditionen. Dazu wer mochte eine SA. Andere Beispiele CAL's, Miete habe ich bereits genannt. FAZIT: Sind alles Punkte welche ausschliesslich die eigenen Interessen vertritt und nicht wirklich kundenfreundlich sind. Da aber alle die MS-Applikationen einsetzen und quasi ein Monopol hat müsste MS eigentlich wie früher auch seiner Verantwortung nachkommen. Zumindest habe ich diese Erwartungshaltung und ich bin sicher, dass sehr sehr viele Leute bzw. die Meisten diese teilen. Nichts davon ist meiner Meinung nach eine wirklich unverschämte Erwartung.
×
×
  • Neu erstellen...