Jump to content

Weingeist

Members
  • Gesamte Inhalte

    1.566
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Weingeist

  1. Tool: Etwas diagnostizieren kannst mit dfsdiag.exe. Allgemein wird empfohlen ein eher neueres Modell (W7/2k2r2) zu verwenden. Hast Du mal testweise den Tipp mit dem "Warten auf das Netzwerk" versucht? Hast Du pro Ziel wirklich nur einen oder mehrere Ordner definiert? Fals mehrere Ziele: Betrifft es immer das gleiche Ziel? Des weiteren kannst du mit der rechten Maustatste auf das verbundene Netzlaufwerk herausfinden was bzw. wohin der Client gemappt ist. Hast dafür extra einen DFS-Reiter. So findest heraus welche Ziele (bei mehreren) betroffen sind. Die Anfrage für das mappen kannst ebenfalls neu senden und schauen obs dann funktioniert etc. Möglicherweise reicht es auch schon den Link auf das Netzlaufwerk neu zu setzen, zbsp. im LogonScript (erst löschen dann neu erstellen). Oder aber Du hat schlicht ein Cache-Problem was auch ab und wann mal auftritt. Erst wieder kürzlich einem hier passiert. Dem gegenüber steht allerdings, dass es vorher auch gefunkt hat. Da hilft dann wohl folgendes: [HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\services\LanmanWorkstation\Parameters] "FileInfoCacheLifetime"=dword:00000000 "FileNotFoundCacheLifetime"=dword:00000000 "DirectoryCacheLifetime"=dword:00000000 Am Rande: DFS wird allgemein höher als Stufe 2000 empfohlen (fiel mir grad auf im 1. Post). Aber hilft natürlich jetzt nix und vorher hat es ja auch funktioniert.
  2. Hast du mehrere Server welche den DFS-Stamm hosten? Falls ja, checke mal ob die jeweils separat funktionieren: \\Server.domain.local\dfs-stamm Hatte es auch schon, dass ein DFS-Partner nen Reboot oder nur der Dienst nen Neustart brauchte. Generell ist es etwas problematisch wenn nach einem Stromausfall alle DFS-Partner quasi gleichzeitig wieder hochfahren. Sollte man vermeiden. Warte damit immer mindestens 5minuten. Ansonsten kann wohl auch das fehlende Netzwerk beim Logon ein Grund sein, Lässt sich folgendermassen mittels einer GPO beheben: Unter den Administrativen Vorlagen>System>Logon>Beim Neustart des Computers und bei der Anmeldung immer auf das Netzwerk warten Ein ähnliches Verhalten hatte ich auch schon in einem anderen Kontext, allerdings bei jeweils zwei Ordnerzielen pro Freigabe und Replikation. Unter der Freigabe war jeweils alles sichtbar, via DFS auf manchen Clients nicht. So ganz genau nachstellen und reproduzieren was es war konnte ich damals (schon länger her) leider nicht 100%ig. Auf alle Fälle war es kein Berechtigunsproblem, zumindest nicht erkennbar. Die Abhilfe war den Freigabenamen auf den beiden Zielen jeweils anders zu benennen, also zbsp. SV1_Daten, SV2_Daten und Daten im DFS. Danach funktionierte es wieder wie am Schnürchen. Ob es daran wirklich lag oder so einfach alles neu initialisiert wurde, kann ich nicht sagen. DFS-Stamm neu erstellen mit den gleichen Daten wie vorher brachte jedenfalls keine Abhilfe.
  3. Bin ich auch mal gespannt. Ich persönlich bin sehr happy mit dem Entscheid. Bin mit so einigen 'Veränderungen' welche sich während seiner Amtszeit zugetragen haben nicht wirklich einverstanden. Hat mit SP3 von XP angefangen. Bezweifle zwar, dass sich am generellen Kurs etwas ändern wird, wünschenswert wäre es aber dennoch wenn man sich bei den ein oder anderen Dingen zu den Wurzeln zurückbesinnen würde. Ich behaupte das Desaster mit der Oberfläche von Windows 8 ist nur die Spitze des Eisbergs, generell schlecht ist diese nämlich nicht. Schlecht ist nur, dass man keine Wahl hat. Genau die fehlende Wahl zieht sich aktuell leider durch das ganze Portfolio. Angefangen von Installern welche immer komplett installieren, Integration von Internetdiensten oder Animationen die man nicht abschalten kann oder bis hin zu Apps mit Spyware-Ambitionen die sich ohne Powershell-Kenntnisse nicht mal deinstallieren lassen oder Software die man nicht mehr kaufen, sondern nur noch überteuert mieten oder teilweise doppelt und dreifach kaufen muss, weil die Bestimmung so mies geworden sind. Überall wird einem wie bei der Konkurrenz eine sehr grosse unnötige oder zweifelhafter Menge Dinge aufgezwungen. Die Wahl zu haben war immer die Stärke von MS gegenüber der Konkurrenz. Sei es Hardware, Software-Ausstattung oder Lizenztechnisch. Weil die Konkurrenz aktuell mit dem Gegenteil extrem Erfolg hat, wird gleich die ganze Unternehmensphilosophie in Frage gestellt und mit Gewalt aufs Modell der Konkurrenz umgekrempelt, anstelle mit bestehenden und neuen innovativen Produkten und mehr Offenheit für zbsp. App-Programmierer zu punkten. Finde ich extrem schade, vielleicht wendet sich das Blatt mit dem Rücktritt ja doch noch zum Guten. Wer weiss. Einige werden wieder sagen, setzt doch einfach MS-Produkte nicht mehr ein wens euch nicht gefällt. So einfach ist das aber nicht wenn alles auf deren Produkte ausgerichtet ist. So richtig an MS vorbei kommt man fast nicht wenn 90% damit arbeiten. Die Konkurrenz im Unternehmnsbereich ist (noch?) nicht wirklich vorhanden. Heute bezahlt man einfach ein X-Faches für das gleiche wie vor ein paar Jahren.
  4. Also das wäre mir neu. GPO's werden dafür nicht wirklich gebraucht. Das Feature sollte sich übrigens unter den Remoteserververwaltungstools befinden.
  5. Diese ist ein Feature und muss unter Umständen nachinstalliert werden. Müsste "Tools für Druckdienste" oder so ähnlich heissen. Hab aber grad kein 2012 hier.
  6. Da gibts meines Wissens nen Bugfix dafür. Automatische Updates bring den...
  7. Vielleicht weil es noch nicht lange her ist, wo das so war und grundsätzlich auch korrekt wäre? Es ist das gleiche Stück Software. Eines ist unverhältnissmässig billig, das andere genau so unverhältnissmässig teuer. Der Kunde kann nix dafür, dass MS das OS für Hardwarehersteller in extremis subventioniert, darf aber die Konsequenzen tragen.
  8. Genau so wie von Gu4rdi4n wurde mir das auch von MS bestätigt. Ich bräuchte einen original Datenträger aus meinem Besitz oder eine Volumenlizenz des gleichen Produkts und ich dürfe installieren.
  9. Also das die Software-RAID unbrauchbar lahm sein soll und die CPU viel zu stark beansprucht wird, kann ich nicht so ganz teilen. Klar muss sie ihren Teil übernehmen, ist ja aber auch kein Dilemma oder? Das es etwas langsamer wird wohl so sein, auch wenn ich das nicht direkt verglichen habe. ESXi 5, E5 1600er CPU mit 3.2GHZ, VM mit Server 2012, 1 Core, HBA LSI SAS9207-8 direkt durchgereicht Beteiligte Festplatten: 4x SSD Intel 520er 480GB als RAID 10 CPU Belastung während des Benchmark habe ich 27%, finde ich vertretbar Messung ist direkt innerhalb der VM auf einem Volume welches auf dem RAID 10 Verbund liegt. Seq: 932 / 354 (R/W ind MBs) 512: 733 / 356 4k Random: 21.7 / 17.15 4k QD 32: 237 / 130 Innerhalb einer ESXi VM, welche im oben genanntem Volume welches per NFS angebunden wurde liegt: Seq: 463 / 102.5 512: 417 / 94.5 4k Random: 12.4 / 8.9 4k QD 32: 82.2 / 14.5 Klar, die Werte könnten besser sein. Write-Cache ist aber alles abgeschaltet und das OS bietet leider noch keinen ReadCache für StandAlone Systeme. Auf nem Cluster soll das aber mit bis zu 20% des RAM möglich sein. Kann ich hier aber so nicht gleich testen. Das System läuft nun seit knapp einem halben Jahr produktiv und stabil. Im Vergleich dazu ein Hardware RAID, innerhalb einer Server 2012 VM welche auf einem normalen, lokalen VMFS5 Datastore liegt: ESXi 5, LSI 9271 8i mit Cache Vault Modul (1GB DDRIII Cache, PCIex 3.0) / 4x600GB Seagate Cheetah 15k im RAID 10, CPU mit 3.6 GHZ, 1 Core der VM zugeteilt Seq: 659 / 286 512: 353 / 206 4k Random: 7.3 / 6 4k QD 32: 46.3 / 6.7 Die Kosten der beiden Systeme sind ungefähr vergleichbar. Dieses System mit zwei Mirror SSD als Cache und dem Zusatz-Key dürfte wohl einiges schneller sein. Erteres mit Enterprise SLC's wohl auch. Auf der SAN: Fujitsu Eternus DX80, Dual Controller, 8x300GB 15k SAS Discs im RAID 10, 4x1Gbit Anbindung pro Controller, 4x 1Gbit auf den Server Gemessen innerhalb der VM (Server 2008) Seq: 105 / 102 512: 32.6 / 91.8 4k Random: 1.5 / 5.88 4k QD 32: 12.5 / 6.3 Die Kosten für dieses System inkl. zwei Switches - das dürfte jedem klar sein - sind dabei deutlich höher. Dafür auch Dual Controller. Ich persönlich finde die Werte ziemlich enttäuschend. Warum das so ist, kann ich nicht sagen. Würde heute auch SAS verwenden und nicht mehr iSCSI. Das System ist healthy und angeblich korrekt konfiguriert. Dem System ist in dieser Zeit langweilig und es ist die einzige VM die in diesem Store liegt.
  10. Ich garantiere Dir es läuft stabiler bzw. sehr stabil, wenn die Frontend sauber aufgesetzt wurde und die parallelen Schreibzugriffe in die Backend nicht ausarten. ;) Loader: Nun ich habe (leider) auch noch so eine Access-DB am Start. Der Loader ist hier eine kleine VB6 Exe welche primär die Version der Frontend überprüft. Kommt eine neue Version auf den Server, kopiert der Loader erst die neue MDE ins Benutzerverzeichnis und anschliessend startet er die DB mit den notwendigen Parameter welche bei Dir in der Verknüpfung hinterlegt sind.
  11. Schonmal positiv das Frontend Backend gibt. Sieht einigermassen vernünftig gemacht aus. Richtig erkannt, die partner-Base ist die Frontend. Diese muss jetzt nicht in Programme sondern ins Benutzerverzeichis oder sonstwohin wo jeder Benutzer einen eigenen Ordner hat. Zbsp. per Logon-Script sicherstellen, dass er diese auch hineinkopiert bekommt. Alles andere hast nur Ärger. EDIT: Kleiner Anhang: Der Benutzer braucht in diesem Verzeichnis schreibrechte, noch ein Grund warum es nicht im Programm-Ordner sein sollte ;)
  12. Access - egal welche Version - auf TS immer jedem seine eigene Frontend-DB zbsp. im User-Verzeichnis, dann sollte das keine Probleme geben. Gleichzeitige Verwendung der gleichen DB gibt immer DB-Korruptionen. Am besten mit einem Loader prüfen ob eine neue Frontend-Version vorhanden ist und diese dann jeweils in User-Verzeichnis kopieren fals nötig. --> einfaches VB6 Programm zbsp. welches anschliessend die Frotend lädt.
  13. Siehe Antwort vom Dr. weiter oben, Du darfst frühere Versionen einsetzen für virtuelle Instanzen. Bei Server Versionen sind die Rechte jeweils ziemlich vielfältig im Gegensatz zu Client-Versionen.
  14. Das Problem daran ist, es ist solange ein Verstoss gegen das Lizenzrecht ist wie keiner gegen MS klagt und recht bekommt. Daher ist es nicht erlaubt hier darüber zu sprechen. Musst Du verstehen. In Deutschland ist jegliches Umgehen von Digitalen Schutzmassnahmen strafbar. Ich bin fast sicher das gehört auch dazu. Im übrigen sehe ich das bei den 5 selbsterworbenen Windows SB Lizenzen pro Betrieb genau so. Ich glaube kaum, das MS wirklich das Recht hat einem den Erwerb, die Art der Installation und Nutzung aufs Auge zu drücken. Aber geklagt hat noch niemand dagegen und wird auch so schnell keiner, weil grössere Betriebe neue Software in der Regel zusammen mit neuer Hardware kaufen und ein kleiner den Schnauf gar nicht hat gegen MS ins Feld zu ziehen. ;) Eine Online-Registrationspflicht sehe ich aber nicht grundsätzlich als illegal an. Habe mich damit aber auch (noch) nicht eingehend beschäftigt.
  15. @Gulp: Das ist schon so. Wenn man mich vor ein paar Jahren gefragt hätte, ob ich mir Alternativen zu Windows und MS-Office vorstellen könnte, hätte ich sofort verneint. War einfach den Aufwand und Ärger nicht wert. Die Produkte von MS waren einfach zu gut, Ihren Preis wert und die Art wie man lizenzieren konnte zu vielfältig um ernsthaft über eine Alternative nachzudenken. Beim aktuellen Management und deren Strategie habe ich aber schon einige Fragezeichen. @Lizenzdoc: Früher war dies DIE Verbreitungsstrategie von MS, das aber nur am Rande. MS verdiente auch so immer richtig viel Geld und ist eine der vermögendsten Firmen, trotz allem. Es wurde im kleinen (Privat) schlicht toleriert wenn nicht gar erwünscht, zwecks der Verbreitung. ;) Bedenkich ist nicht was im privaten Bereich passiert - die Kiddies könnten sich kopierte Software eh nicht leisten - sondern vor allem die Professionalisierung des kommerziellen Raubkopierens der letzten Jahre. Was aktuell bei MS abgeht ist jedoch ebenfals jenseits von gut und böse. Das ist einfach Ausnutzung ihrer Marktposition. Punkt fertig. Die meisten sehen das nur (noch) nicht. Was die für eine Überwachungsmaschinerie aufziehen und gleichzeitig die zahlende Kundschaft schröpfen und Knebelwartungsverträge aufbrummen ist unglaublich. Gleiches gilt zbsp. für Adobe. Die Tendenz ist aber bei jedem grösseren Konzern zu erkennen, nicht nur im Software-Bereich. MS kann es sich aber - im Moment - schlicht erlauben da 99% der Software für Windows geschrieben ist. Eine wirkliche Wahl hat man also nicht wirklich wie manche gerne behaupten. @Sarek: So sehe ich das auch. Vor allem in den Volumenverträgen. Wenn das gleiche Stück Software faktisch doppelt so teuer sein soll oder selbiges gar nicht mehr gibt, muss man sich nicht wundern wenn Kunden erstmals nicht über diesen Kanal lizenzieren möchten, dabei wäre da die Kontrolle deutlich einfacher. Es ist noch nicht lange her da waren alle Verkaufskanäle und auch OEM-Software nahezu gleichwertig. MS hat auch da goldigst verdient obwohl viel weniger Arbeitsplätze auf der Welt waren. Heute ist OEM-Software aber nichts mehr wert und es heisst, man sei selber Schuld wenn man diese einsetzt. Von den absolut frechen Bestimmungen für Remote-Arbeitsplätze und Lizenzportabilität was ohne Mehrleistung seitens MS riesige Kosten verursacht will ich gar nicht anfangen sonst wird mir speihübel. Aber eben, eine Wahl wie einige behaupten hat man nicht wirklich, man kommt nicht an Windows vorbei und solange das noch so ist, will MS soviel abschröpfen wie irgendwie möglich, anstelle mit fairen Preisen, excellentem Service und Innovation zu glänzen. Alles was nicht direkt nen Haufen Kohle gibt oder einen Mehraufwand bedeutet wird gestrichen. (SBS, TMG und noch einige Produkte mehr). Die effektive Produkitivität eines PC-Arbeitsplatzes war noch nie so schlecht wie heute, auch wenn sich hinter den Kulissen einiges für die Admins getan hat, wenn auch nicht nur vereinfacht. Seit Office 2003 und Windows XP sehe ich bis auf ein paar Ausnahmen diesbezüglich keine objektiven Verbesserungen. Im Gegenteil, alles wird langsam, vollgestopf mit Bling Bling und Animationen die sich nicht ausschalten lassen usw. Leider steht kein Patron mehr hinter der Firma, sondern ein Haufen gieriger Investoren + Manager. Es überrascht deshalb nicht, dass die Entwicklung sich wie ein 'richtiger' Konzern zu verhalten und die Position auszunutzen mit der Ankündigen von Bill Gates sich vom Tagesgeschäft zurückzuziehen begann. Die Kundenfreundlichkeit ist seit Office 2007 und XP SP3 jedenfals am absterben und wird Schritt für Schritt verschlechtert damit man sich laufend daran gewöhnt. Der vorläufige Höhepunkt wird voraussichtlich mit der nächsten Office-Version erreicht. Da gibt es dann vermutlich keine Lizenzen mehr zu kaufen.
  16. @ottersberg: Das kommt darauf an worauf man es bezieht. Wird die SB selber erworben und auf bestehende Systeme installiert, ist das definitiv falsch, da sind max. deren 5 erlaubt. Unbeschränkt gilt nur solange man die Software zusammen mit Hardware erwirbt auf welcher diese vorinstalliert wurde. Die Lizenzbedingungen sind hier sehr klar umrissen. Ob das gerichtlich wirklich Bestand hat, wage ich zu bezweifeln, ist aber nunmal so definiert.
  17. @Lizendoc: Der Vergleich hinkt. Es steht mir absolut frei ob ich den Aufkleber ans Auto hinmachen möchte oder nicht. Ich kann ihn auch jederzeit entfernen, sollte mir so ein Quatsch in den Sinn kommen. Hier geht es um einen Zwang. Man hat grundsätzlich keine Wahl oder nur eine Pseudo-Wahl. EDIT: Bezüglich Zulassung: Dabei handelt es sich um eine offizielle, staatliche Stelle die irgendwo einigermassen kontrolliert wird und nicht einen privaten Grosskonzern. Auch das Argument man könne ja ein anderers Produkt nutzen kann ich persönlich nicht mehr hören. MS hat nunmal ein Quasi-Monopol und drückt seiner zahlenden Kundschaft aktuell grad alles aufs Auge was irgendwie möglich ist. Jahre, ja Jahrzehnte hat MS auf Einfachheit, Flexibilität und gute Produkte gesetzt und dadurch eine sehr grosse Kundschaft sowie eine fast-Monopolstellung aufgebaut. Dagegen ist grundsätzlich nichts einzuwenden, wenn ein Konzern aber innerhalb ein paar Jahre die Strategie komplett umkrempelt, dann gibt es erstmal keine wirklich brauchbaren Alternativen. Daher wird jetzt wird gemolken was geht und vor Gerichten einigermassen Bestand hat. Ich persönlich finde das zumindest sehr bedenklich und nicht unbedingt langfristig gedacht. Das positive daran: Es gibt nun vielleicht reale Chancen für andere Anbieter oder gar Open-Source Lösungen
  18. Wie gesagt, bei den Consumer-Festplatten gibt es gerne solche Mätzchen. Deshalb würde ich im RAID-Verbund immer die Finger davon lassen. Ich lasse generell die Finger davon und verbaue niemandem diese Teile. Von Seagate die Constellation verwenden und bei WD die RE's
  19. Was verwendest den für einen Controller/Platten? Die Billig-Serien der Hersteller haben zum Beispiel gerne solche Macken. Laufen im Single-Betrieb teilweise noch jahrelang einwandfrei, auch 24/7. Im RAID-Verbund gibts aber nur Theater ohne wirkliche Fehler. Ursachen gibts viele. Latency, schlechte Firmware, zu schlechte Reaktionszeit weil Cache ausgeschalten usw. Daneben ist gerne auch das Kabel für solche Fehler verantwortlich. Gehen da zu viele Daten falsch durch innerhalb einer bestimmten Zeit, wird eine Platte ebenfals abgehängt. Vor dem Controller-Tausch würde ich das noch testen.
  20. Die Problembeschreibung war doch sonnenklar. Nur fehlten tatsächlich etwas an Infos. WIE die Daten kopiert wurden usw. So wirklich normal ist das Verhalten nicht, weil üblicherweise beim entpacken von Files die Rechte des übergeordneten Ordners übernommen werden. Das was Du beschreibst muss grundsätzlicht möglich sein, also wäre es schon nett zu wissen wie die Hintergründe aussehen. Packertyp, ACL-Auswertung wie von Dunkelmann beschrieben usw. Sonst bringt es dem nächsten nix.
  21. Also nen gscheiter Hardware-RAID-Controller lässt sich auch erweitern. Limitierend ist da eher die Anzahl Festplattens-Slots wenn man mit Gehäusen ohne Expander arbeitet. Bei den 'richtigen' Storage-Büchsen gibts dafür Zusatz-Shelfs. Die Speicherpools sind extrem robust, Negatives habe ich erst einmal in Verbindung mit einem verschlüsseltem Pool gehört. Allerdings kenne ich da die Umgebung nicht wirklich. Auch wird das Feature wohl von den wenigsten wirklich produktiv genutzt. Ist ja lausiges Software-RAID (Obwohl ich da mittlerweile anders denke). Die Performance ist so gut wie die Anzahl IOPS welche die Platten liefern. Der CPU ist dabei nicht wirklich der limitierende Faktor. Der ist eigentlich unglaublich langweilig, auch bei Rebuilds. Ich selber habe die Funktionen auf Herz und Nieren getestet. Stromausfälle, Plötzliches entfernen von Kabeln, Ausstöpseln von Festplatten, einzelne Sektoren oder ganze Bereich von extern mit Werten überschrieben usw. Gibt hier irgendwo nen Thread dazu. Ich kann dazu nur sagen, ich hatte keine Chance das Filesystem aus der Ruhe zu bringen. Ist ihm schlicht total egal. - Daten in einem fehlerhafter Datenset (MirrorPartner) der aber noch aktiv ist, wird einfach in neue Festplattenbereiche der selben Platte geschrieben. - Daten die auf keinem Mirror-Partner mehr 'gut' sind, werden gelöscht und aus dem Filesystem geworfen - Daten wo Festplatten eines Mirrorpartners ausgefallen sind, werden auf HotSpare-Platten geschrieben Das alles geht vollautomatisch. Damit man es auch mitbekommt empfiehlt es sich einen Trigger für die Ereignisanzeige zu bauen, der einem zbsp. ne Mail schickt. Die grössten Vorteile sehe ich eigentlich darin, dass man - dafür eigentlich alles hernehmen kann was man will. Eine Lun auf einer SAN, eine lokale Platte usw. Man bekommt zbsp. mit zwei Luns auf zwei verschiedenen Einsteiger-SAN's völlig problemlos ein Cluster über mehre SAN's ohne eine extrem teure Storage. Auf der SAN könnte man zbsp. RAID-Sets vorhalten. - Zusätzlich kann man für jedes Volume bestimmen, wie performant bzw. wieviele Columns sprich Anzahl Platten pro Datenset - genommen werden sollen. Hat man gscheite Hardware-Büchsen zbsp. per SAS angebunden, kann auch definiert werden, dass die Datasets auf verschiedenen Büchsen landen sollen. Man muss halt etwas genauer Planen und ausführen damit kein Wildwuchs entsteht, aber die Möglichkeiten finde ich schon klasse. Gerade auch für kleine Umgebungen. Nachteile sehe ich aktuell noch im Read und Write-Cache. Etwas ReadCache des Ram's gibts zumindest wenn man das ganze über ein Cluster realisiert (Zwei Nodes, zbsp. ein 'dummes' HD-Shelf mit DualExpander per SAS angebunden). Habe ich leider noch nicht ausprobiert sondern erst virtuell auf einem ESXi. Single-Node Lösungen cachen leider nur kleinst-Dateien. Write Cache gibt es wohl noch nix gscheits ausser das, was das OS sowieso macht.
  22. Ich kann Dir nur sagen was auf meinen aktuell gekauften SB-Verpackungen steht. ;) Nein es gibt nicht mehr so richtige Retail-Dinger mehr. Was Du nachträglich kaufen kannst: - Ein Box-Upgrade: Dafür brauchst einen lizenzierten W7 oder XP - Ein Volumenlizenzupgrade: Dafür brauchst du bereits die lizenzierte Version, also W8 auf der Mühle - Eine SB-Version, da steht in der Vepackung, dass entweder vorinstalliert durch einen Reseller werden muss und zwar mit der Vorinstallier-DVD oder aber, Du maximal 5 Stück im Unternehmen haben darfst. Das ist von MS mit der neuesten Strategie auch so gewollt. Am liebsten sehen sie irgend ein SaaS Abo-Produkt wie die VDA. Weil PC's noch verkauft werden sollen, bekommt man immerhin die Möglichkeit, da noch W8 zu kaufen =) Als Alternative gibt es noch: PC's an eine Zweitfirma verkaufen, dieser installiert dir SB-W8 drauf und verkauft sie dir zurück.
  23. @lizendoc: Zu 2., also nach aktuellsten EULA's wird dies eigentlich nicht mehr gestattet. Da sind seit neuestem maximal 5 Lizenzen pro Firma zugelassen die man selber zuweisen tut. Ansonsten muss Windows 8 durch den Reseller vorinstalliert werden. Zumindest wenn ich die EULA nicht komplett falsch verstehe. ;)
  24. A das was Sunny genannt hat und B kann es sein, dass Du die Backend Exklusiv geöffnet hast und somit externe Schreib-Zugriffe nicht mehr erlaubt sind. Dazu musst die Backend schliessen und evtl. auch das Frontend neu öffnen. Da sollte es aber auch eine entsprechende Fehlermeldung geben, sofern nicht unterdrückt. Ansonsten: Die Frontend gehört normalerweise auf die Clients. Optimalerweise in den Benutzerordner. Nicht das die X-Mal geöffnet wird. Auch Performance-Technisch deutlich angenehmer. ;)
×
×
  • Neu erstellen...