Jump to content

Weingeist

Members
  • Gesamte Inhalte

    1.659
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Weingeist

  1. Gerade wegen der anderen Standardeinstellungen würde ich das Server OS bevorzugen (unabhängig von den deutlich besseren Lizenzierungsbedingungen - Kauf ist (noch) möglich) - Keine so tiefe Integration der Internetdienste - Keine Spam-Ware-Apps vorinstalliert - Viele unnötige Dinge bereits deaktiviert Man kommt also bereits mit einer Standardversion sehr weit. Mittlerweile ist ein Server OS (2008 R2) sogar offiziell freigeschaltet in VmWare View. Früher musste man noch den Installer verbiegen sowie im im Lightweight AD rumpfuschen damit es ging.
  2. Die tatsächlich erlaubten Möglichkeiten sind ziemlich beschränkt. Meines Wissens gibt es genau eine Variante, welche lizenzrechtlich für Mehrbenutzer und Remotezugriff bei einem Client OS in Ordnung gehen ohne das eine VDA gelöst werden muss. Die Verwendung von Rack-Workstations wenn die Anzeige-Kombination immer die gleiche ist und die Kombi fest eingestellt ist und z.B. Verbindung automatisch hergestellt wird. Die Anzeige-Kombi - sei es ein Extender oder auch Thin/Zero-Client - gilt dan als Bestandteil des Computers. Dann sind auch mehrere Benutzer kein Problem. Das muss ned mal zwingend eine Direktleitung sein, sondern darf auch geswitched betrieben werden. Zugriff von anderen Geräten ist aber wiederum nur für den Hauptbenutzer erlaubt! Mir ist bis dato keine andere Variante bekannt, welche von MS für normale Lizenzen abgesegnet wurde. Wird die Verbindung über einen Connection-Broker gemacht und mit verschiedenen Endstationen gearbeitet, werden zumindest RDS-Cal's fällig wenn nicht jeder über seinen eigenen physischen PC verfügt. Mit XP gabs dafür für OEM's sogar extra Bundles welche eine solche RDS beinhaltet haben. Office ist mir nicht so ganz klar, theoretisch müssten es 2 Lizenzen sein, praktisch wird wohl eine VL Lizenz genügen. Alles andere ist soweit mir bekannt, mit einem ClientOS schlicht nicht gestattet.
  3. Mit VM's je nach Komplexität: Maschine ausschalten, VM kopieren, Netzwerk ändern (VLAN oder physisch), nochmals gucken, nochmals gucken, testen ;) Steigerung Sicherheit: Anderer Host, andere Umgebung, anderes Netzwerk usw.
  4. Kommt halt immer drauf an was die Jungs als Ursache vermuten... Wenn Sie den Fehler bei sich sehen, dann kommst ne Ebene höher und zu kompetenteren Leuten mit mehr Tipps und Tricks. Wenn Sie denken, dass Du was Gröber verbockst hast und Du sie nicht vom Gegenteil überzeugen kannst, dass es eben besser anders gelöst wird, dann gehts halt den Weg des Geringsten und Du hast Ärger mit Einstellungen neu setzen.
  5. Keine Ahnung wie MS das heute handhabt, aber in der Vergangenheit (auch schon wieder ein paar Jahre her) hatte ich zumindest excellente Erfahrungen mit dem MS-Support gemacht. Am Ende ging das ganze jeweils auf die Kappe von MS weil es eben ein Bug war. Bekam in der Regel nen Workaround oder die Idee dazu präsentiert und irgendwann war das Problem meist gefixt. Da das ganze das Backup betrifft, wird der Entwicklungs-Elan mit Sicherheit grösser sein, als z.B. bei nem Bug vom unliebsamen Kind Access. Da können sich die gleichen Bugs schonmal über 6 Office Versionen hinziehen, weil es schlicht Fehler gibt, die von 99,99% der Access-Benutzer gar nie produziert werden und zu aufwendig zum fixen sind. ;) Ansonsten sind pauschal 300 Euro auch fair wenn man dafür ein Problem gelöst bekommt an dem man schon einige Stunden verbratet hat. :)
  6. Das gilt aber nur für 'richtige' Apps oder? Auch wenn ich das schon reichlich komplex finde. Die Idee dahinter ist ja im Grundsatz nicht verkehrt. Man wird sich ein paar Versionenirgen später von irgendwo auf der Welt anmelden können und bekommt seine Apps und Einstellungen vor den Latz geknallt. Der Preis der dafür bezahlt wird ist meines erachtens aber deutlich zu gross. Unglaublich umständlich/auwendig das ganze in kleinen Umgebungen umzusetzen. Gilt für so ziemlich alles neue was mit der GUI zu tun hat (Office und Windows). Normale/alte Applikationen bzw. deren Verknüpfungen müssten aber irgendwo im Profil auch abgelegt und somit auch kopierbar sein. Dast Starmenü funktioniert nämlich auch komplett ohne die Dienste AppX und WindowsStore. Also entweder in den weiten der Registry oder irgendwo im Userverzeichnis.
  7. Betreffend MTU-Size: Hatte grad letztens ein Gespräch mit nem Netzanbieter, dass manche DSL-Angebote (bevorzugt Business für Kleinkunden) mit verkorksten MTU's arbeiten, weil der Anbieter selber einen Teil davon brauchen. Auf alle Fälle kann dann die Übertragungsrate enorm sinken, wenn man an den Verbrauchern eine fixe übliche MTU eingestellt hat. So zumindest die Aussage des Anbieters. Also entweder auf die MTU des Netzanbieters einstellen oder schauen, dass diese dynamisch sein kann, was aber auch nicht immer tut.
  8. Musst Du wissen wie Dus machst. Alle Daten die Nicht mindestens auf zwei verschiedenen unabhängigen Datenträger vorhanden sind, sind unwichtig. ;) RAID wird privat erst wichtig, wenn Dir die Wiederherstellung grundsätzlich zu lange dauert. Backups solltest auch mit RAID machen. ;) Ich würdedie RE's nehmen nicht RED. Ist aber auch ne Preisfrage.
  9. Kauf grad zwei Platten auf welchem Du dann die Files synchronisierst oder so. Sonst viel Spass wenn Dir das Ding um die Ohren fliegt und Du nix mehr hast weil Du zu faul bist auf die vier alten Datenträger ne Kopie abzulegen sondern diese wieder löschst oder so... ;) Ansonsten: Robocopy fürs Kopieren, anschliessend das von Daniel genannte Tool drüber laufen lassen. Fertisch...
  10. Der Host selber hat aber in solchen Umgebungen doch oft ziemlich viel zu tun. Er muss vielleicht Deduplizieren, Storage-Spaces bedienen sowie VDI-Desktops bereitstellen. Da gibts schnell eine Kern-Überbuchung. Die VDI's sollen unabhängig davon immer rasend schnell sein und über eine geringe Latenz verfügen. Erfahrungsgemäss packt man mit der Zeit alles mögliche mit auf die Kiste(n) wenn man mal auf den Geschmack gekommen ist. Dann ist man froh ein sinnvolles Sizing der VM's bereits im voraus gemacht zu haben. @TO: Mit einer vCPU ist die Latenz immer besser als mit zwei. Ausser die VM ist permanent überlastet und es ist tatsächlich die Verarbeitungsgeschwindigkeit wos hackt. Gleiches gilt übrigens für das RAM. Je mehr RAM, desto mehr Verwaltungsaufwand. Je mehr unnötig zugeteiltes RAM, desto lahmer wird das ganze. Der Host wiederum hätte für Deduplizierung, Cache etc. gerne etwas mehr RAM als man ihm in der Regel geben mag. Daher kann man generell sagen: klein Anfangen, Host/VM Belastung beobachten schauen was die Last verursacht entscheiden obs wurst ist wenn für jenen Prozess etwas länger geht und wenn notwendig mehr Ressourcen zuteilen. Angenommen der Host hat fast nix zu tun und das Host OS ist intelligent genug, könnte es zum Beispiel auch Kerne abschalten und Strom sparen. Habe aber keine Ahnung wie effektiv das bereits funktioniert.ist. Aber wie gesagt, soll jeder machen wie er will. Ich klinke mich mal aus, da alles gesagt... ;)
  11. Wie gesagt, wir sprechen hier von Mini-Umgebungen mit ein paar Usern, PC's und Server. Der DC hat da ned mal ansatzweise was zu tun wenn er nur DC ist. Aber jeder wie er mag. Ich sehe den Sinn nicht.
  12. Meine Begründung ist nicht die des DC's sondern der restlichen VM's. Frei nach dem Motto: Gib einer VM das Minimum + leichte Reserve, wenns nicht reicht, stocke auf. Das bewährt sich eigentlich sehr gut. Begründung: Ein HyperVisor muss immer die notwendigen Kerne bereitstellen. Das ist bei HyperV und VmWare nicht anders. Hast Du nun auf dem gleichen Host einige VM's und ein paar davon vielleicht gut ausgelastet, dann geht es eben länger, bis er zwei Kerne parallel frei hat, als nur einen. So kann es im Extremfall sein, dass eine VM mit einem Kern sogar schneller läuft als mit zwei oder mehr Kernen. Zwar nicht im Moment wo er berechnet, aber bis er berechnet (Latenz). Vor allem wenn man bei den anderen VM's ebenso grosszügig beim verteilen der Kerne ist. Also im Extremfall z.B. jeder VM 4 von 4 Kernen gibt. Wenn eine VM dann tatsächlich zu wenig Bums hat, dann kann man immer noch nen Kern hinzufügen. Gleiches gilt übrigens fürs RAM. Hat man normalerweise 1 vCPU, dann ist der Verwaltungsoverhead ziemlich klein.
  13. Taket it easy... War vielleicht etwas hart formuliert. Aber schau mal die CPU-Auslastung auf nem DC in ner Kleinumgebung an. Ob das nun 2GHZ oder 3GHZ ist, nen neuer Xeon oder nen alter P4 ist dabei fast schon egal. MagicPeter hat definitiv ne Kleinstumgebung. Dem Ding ist da auch bei einer vCPU todlangweilig. Selbst in grossen Umgebungen wird oft/meist? 1 vCPU verwendet, dafür mehrere DC's. Keine Ahnung mit wie vielen Anfragen man einen AD-Server in die Knie zwingt, es sind aber definitiv sehr sehr viele. Mich würde es deshalb interessieren, wie sich die bessere Performance bemerkbar gemacht hat. ;)
  14. Gibt ihm doch gleich die ganze CPU *kopfschüttel* Ein DC der als reiner DC funktioniert ist selbst mit einer CPU ist in kleinen Umgebungen generell masslos unterfordert. Wüsste nicht, wo da Performance-Vorteile sein sollen. Ich behaupte meistens wird er mit 2 vCPU's sogar tendenziell langsamer. Zumindest wenn auch noch ein paar andere VM's parallel laufen. --> Verwaltungsoverhead, Sicherstellung, dass 2 Kerne frei etc. Anders sieht es aus, wenn man den DC als Fileserver nimmt und virtualisierte Netzwerkkarten hat. Da ist dann irgendwann die virtuelle Netzwerkkarte der Flaschenhals, wenn die Festplatten genügend IOPS bringen.
  15. DFS ist genau dafür excellent geeignet. Zentralisierte Freigabe von verteilten Speicher und immer gleicher Zugriff via der Domäne. Sprich den Nutzer hat es nicht grossartig zu interessieren wo die Daen genau liegen, Hauptsache der Zugriffs-Pfad bleibt der gleiche. Das macht DFS. Zusätzlich stellt DFS Möglichkeiten zu Verfügung um Daten zu replizieren oder einfach nur das Ordnerziel auf einen anderen Server umzuhängen wo man dann selber schauen muss, dass diese auf dem aktuellen Stand ist. Zu deinem Problem: Vermutlich möchtest Du für die gleiche Freigabe zwei Ordner-Ziele eingeben. Das wäre der falsche Ansatz. Du brauchst zwei eigenständige Ordner mit je mindestens einem Ordner-Ziel. Das heisst Du musst einen neuen Ordner im Name-Space erstellen mit dem entsprechenden Ziel. Zusätzlich empfehle ich Dir, in DFS nicht den gleichen Namen für die Freigabe zu wählen wie auf dem Server selbst. Auch das kann die genannten Probleme hervorrufen.
  16. Ich kaufe SA seit es sie gibt. Mich überzeugten bis auf wenige Ausnahmen deren Produkte sowie die Politik von MS im Vergleich zu anderen Konzernen. Bei Kundenprojekten entscheide ich das situativ und auch was der Kunde möchte. Allerdings installiere ich nach Möglichkeit immer so, dass keine reinen Mietmodelle notwendig sind und die Umgebung auch mit gekauften Lizenzen nach Ablauf weiterbetrieben werden kann. Das heisst oft der Verzicht auf Shared Storage und höhere Einstiegskosten für die Lizenzen. Die Shared Storage Teile finde ich aber mittlerweile eh meist zu lahm oder unbezahlbar. Ansonsten: Auch wenn ich die aktuelle MS-Politik alles andere als unterstütze, entweder man bezahlt was man einsetzt oder setzt es nicht ein. Du willst auch, dass Deine Kunden die Rechnungen bezahlen. Alles andere ist Betrug.
  17. Ganz genau das will es heissen. Früher wurde das mit innovativen Upgrades eingespült, die Freiwillig gekauft wurden. Wer zudem besseren Support wollte, bekam den mit der SA. Heute wird einem das Update in Form eines Service-Vertrags auferzwungen bzw. das Zeitalter des SaaS eingeläutet mit dem deutlich mehr Kohle verdient werden kann. An der Preisschraube lässt sich dann sehr flexibel drehen, solange keine echte Konkurrenz da ist, kann man absahnen und wenn welche aufkommt, geht man mit den Preisen eben wieder runter. Der Kunde kann einem schlechten oder nicht fertigen Produkt keine Abmahnung mehr erteilen wie das z.B. bei Vista der Fall war. Wer nicht mitzieht bzw. mindestens mitweiterbezahlt, der kann die bestehende Umgebung nicht weiter betreiben. Für mich der Totengräber von Innovativiät, Kundenfreundlichkeit etc., weil weltfremde Mangerlis tun und lassen können was sie wollen und ihre Kunden und am Ende auch den Top-Konzern Microsoft problemlos in die ka**e reiten können. Sieht man ja tagtäglich was passiert, wenn die sogenannten Top-Kader zu viel Freiraum bekommen. Wie auch immer, aktuell kannst Du bei entsprechender Auslegung der Installation (Kein Shared Storage, kein vMoition usw.) entsprechende Lizenzkosten sparen, verlierst aber auch an Flexibilität. Zu zahlen sind die Lizenzen übrigens auch wenn nicht MS sondern ein Konkurrenzprodukt die Funktionalität bereitstellt. Sehr perfide, aber VmWare wird so langsam aber stetig aus dem Markt gedrängt. ;)
  18. Software Assurance wird aber auf Applikations- und Cal-ebene meist Pflicht wenn Du den Krempel hin und herschieben kannst. Ist ein Bestandteil der Bestrebungen von MS, die Kunden langsam aber stetig weg vom Lizenzkaufmodell zum hochprofitablen SaaS-Konzept zu zwingen.
  19. Bei der Durchsicht noch was gesehen: Das 'Problem' ist von verschiedenen Anbieter gelöst, welche diese Lücke für deren Geräte füllen. Entweder OEM mit eigenem Brand oder Verträge direkt auf Supermicro-Server. Zum Support: Es gibt heute nicht mehr viele grössere Firmen bei welchen man auch ohne Service-Vertrag an wirklich kompetente Leute kommt wenn es nicht 0815 Fragen sind. Supermicro gehört da dazu. Ansonsten: Kauft man bei einem vernünftigen Händler, hat der auch Ersatzteile für Garantievorabtausch an Lager. Vertraglich festgelegt oder auch nicht. Selber kann man auch Ersatzteile vorhalten usw. Man muss sich eben andersweitig absichern. Nicht alles so bequem wie beim Hersteller direkt, dafür deutlich günstiger. @Heisenberg: Das bedeutet, das jemand nicht nur keine Ahnung hat sondern grösstenteils auch komplett Beratungsresistent ist. Nicht gerade der schönste Titel hier im Forum ;) @Dr. Melzer: Nope, das stimmt so nicht direkt, wenn auch fast. Ist quasi die selbe Einheit aber nicht die selbe Menge. Die VA ist wie Norbert angetönt hat die Summe aus Wirkleistung und Blindleistung. Das ist bei allen Anlagen die nicht direkt aus dem Netz gespiesen werden noch wichtiger. Die Watt betitelt die Wirkleistung, was also eine hinterhergeschaltete Machine effektiv verbrauchen darf/kann/tut. Dazu gibts die Blindleistung welche zwischen Speisung und Verbraucher hin und her geht. Normalerweise ist diese nicht so relevant, da vom Netzbetreiber diese quasi ausgeglichen wird bzw. bei grösseren Installation muss man selber eine solche Kompensationsanlage betreiben damit die Ströme nicht zu hoch sind und einem wiederum Kosten berechnet werden. --> Anfahren ausschalten von Maschinenparks usw. Da eine USV die eigentlich Speisung der Geräte ist, muss sie zur Wirkleistung eben auch die Blindleistung abkönnen. Wenn ich also auf eine 3000 VA USV 3 kw ziehe, läuft die USV in Überlast. @magicpeter: Es ist wirklich schwer Dir irgendwas sinnvolles zu vermitteln. Grundlagenwissen zu Hardware, Lizenzen und Software gehen dir völlig ab und scheinst die entsprechenden Hinweise auch nicht zu verinnerlichen bzw. richtig nachzuforschen. Zu Hardware: Ich nehme hier jene Controller, die von den grossen Hersteller standardmässig in den Server verbaut werden. Gleiches bei Festplattenmodellen, RAM etc.
  20. Nun obs reicht sieht man immer erst wenn ein Update sowie eine allfälliger Restore zum vorherigen Zustand fehlgeschlagen ist, aus welchen Gründen auch immer. Ob du genügend sicher bist, das alles haut, kannst nur Du selber abschätzen. Dabei auch immer das eigene KnowHow miteinbeziehen wenn es eben doch in die Hose geht, also ob man dann wirklich fähig ist eine verbockte Situation am Live-System zu retten oder nicht. ;) Mit nem Offline-Backup kann man halt völlig stressfrei von vorne beginnen wens in die Hose geht und die eigenen Rettungsversuche ins Leere laufen.
  21. 1. Die Kosten für DoubleTake unterschätzst Du meiner Meinung nach gewaltig. Normal brauchst Du für eine sinnvolle Absicherung pro Server-Instanz mindestens zwei Lizenzen. Für ein auomatisches Fallback sogar deren drei! 2. Meine Erfahrungen hat gezeigt, das ein manuelles switchen von Hosts oder VM's in kleinen Umgebungen bei Ausfällen stressfreier ist. Ein Ausfall kommt A sehr selten vor wenn vernünftige Hardware verwendet wird und B weiss man dann genau was man gemacht hat. Oft reicht der Reboot und Kontrolle des Servers und ein Switch auf die andere Maschine ist nur ein unnötiger Schritt/Risiko. Auch hat man die bei grösseren Umgebungen normalerweise eingesetzen Applikations-Cluster die sich quasi wieder selber heilen nicht. Daneben sparen fehlende Automatismen auch Lizenz-Kosten. Läuft alles Autonom und es wird nur gesichert, dann fallen auch keine zusätzlichen Lizenzkosten an. 3. Für die paar Server-Instanzen würde ich Single-CPU Kisten verwenden. Das stört mich auch bei den grossen Hersteller. Da bekomme ich keine hohe Xeon-CPU-Klasse mit einem Sockel in einem vernünftigen Server. Bei Supermicro schon. Das ist aber Gescackssache, wie so einiges. Ich hätte gerade in der Virtualisierung lieber eine hohe GHZ-Zahl stehen (sofern einem die PCI-Express Lanes bei Single-CPU ausreichen). Drückt in aller Regel die Hardware-Kosten deutlich. Bei allem worauf User direkt arbeiten, sind halt nach wie vor die GHZ und die Speicher-Latenz die wesentlichsten Faktoren für ein gutes User-Performance-Feeling (RDS, Virtuelle Desktops etc.). Auch sinkt der Verwaltungs-Overhead sehr deutlich, wenn für die gleiche Leistung mit weniger Kernen pro VM gearbeitet werden kann (Hypervisor-Ebene). Dazu kommt, dass immer noch sehr viele Anwendungen mit schnellen CPU-Kernen besser vorwärts kommen als mit Multi-CPU, sofern sie überhaupt auf Multi-CPU ausgelegt sind. Heute immer noch selten der Fall. --> Eine CPU mit 2GHZ käme mir nur ins Haus wenn ich weiss, dass meine Anwendungen optimal Multi-CPU nutzen können bzw. für reine Server-Aufgaben. 4. Nimm einen richtigen Business-LSI-Controller und keinen ehemaligen 3Ware Home-Office Controller (klingt etwas hart, ist aber nunmal kein Enterprise-Produkt). 5. RAM: Aktuell ist da 1600 und 1866 MHZ, wie komsmt du auf 1280?
  22. Stimmt. Du selber hast es gesagt. =) Wenn solche Übungen im SBS-Umfeld schiefgehen, dann schiesse ich den zweiten DC ganz einfach ab. Bis 2003 eigentlich schon vor solchen Übungen wenn diese geplant sind. Ab 2008 ist das AD-Cleanen aber eine relativ einfache Aufgabe und man kann es machen oder bleiben lassen. Deshalb vorher auch immer prüfen ob der zweite DC noch andere Aufgaben hat als DC zu sein. Fals ja, lieber vorher demoten, damit nur noch ein DC übrig ist. Oder grad von Anfang an auf einen Reduzieren. Vereinfacht die Nacharbeit. Ein Recovery vom Image ist dann absolut kein Problem.
  23. Ich würde dir noch was ganz anderes empfehlen: Fullimage der ganzen Platte(n) mittels einer StartCD. Dann kannst wirklich den absolut identischen Zustand wiederherstellen
  24. @zahni: Das habe ich weder gelesen noch hineininterpretieren können.. Wo genau soll das stehen, dass man zwingend einen TS installieren und diesen auch so nutzen muss? Den Passus würde ich gerne mal sehen.. Was steht ist: Wenn Remote-Desktop oder ähnliche Technologien genutzt werden, unter Server eine CAL für RDS fällig wird. Das heisst für mich, man muss nicht den Terminal-Server verwenden sondern man muss eine CAL ebenfalls haben, auch wenn man ihn nicht nutzt. Das ist ein grosser Unterschied. Das heisst, man kann auf die VM Zugreifen wies gefällt, Hauptsache die User haben ne CAL.
  25. Dafür: - Das genannte, wobei ich gegenüber der schnelleren Ausführung doch eher skeptisch bin 1* - Der Ordner-Rauf-Button ist wieder da, man benötigt keine Zusatzprogramme mehr. Sehr bequem. - Je nach Geschmack die neue Explorer-Menüleiste, ich bin auch nach 3 Jahren in Office immer noch spürbar langsamer durch die Menüs als in Office 2003. Bei Explorer wirds nicht anders sein. Alte eingefleischte Alt-Menübuchstabe-Kombinationen gelten nimmer - Im Serverbereich gibts noch einige mehr Argumente die dagegen sprechen - Imho Performance 1*: auf identischer Hardware. Bei W7 kann man einige Einstellungen die bei 8 Standard sind einstellen und somit zu etwas mehr Schnelligkeit verschaffen. Der Wegfall des Aero-Anteils dürfte etwas weniges bringen. Für das Starmenü gilt es übrigens definitiv nicht, das ist spürbar langsamer aufgebaut sobald z.B. eine Remote-Verbindung besteht. Auch sonstige IO's wie irgendwelche Performance-Daten, Gerätekrimskrams und sonstige eigentlich völlig unnötige Aufzeichnungen schreib W8 deutlichst mehr auf die Platte. Macht auf nem normalen Rechner ned wirklich viel aus, bei vielen virtuellen Desktops kommen da aber einige Iops zusammen. Alles abschaltbar, aber halt standardmässig ein. --> Verstecken sich in Diensten und diversesten Aufgaben - Startmenü ist extrem gewöhnungsbedürftig, da dürfte es mit dem neuesten Update hoffentlich Abhilfe geben. Was da mal nimmer drinn ist, ist mühsam wieder reinzukriegen. Nicht alles ist nach der Installation auch tatsächlich drinn. - Hochintegrierte Online-Dienste sind Geschmackssache, meiner definivt nicht - Suche ist identisch mies wie bei 7 (wie sehr wünsche ich mir die hundskomumne XP Classic-Suche zurück, die findet immer was sie soll, 7 und 8 was es meint man solle finden und schwierig die Parameter alle auswendig zu wissen) - AppX mit seinen ganzen Spyware Ambitionen sowie den Windows-Store zur Strecke zu bringen erfordert einiges an Aufwand, unter 8.1 nochmals höher als bei 8 (Systemrechte erforderlich)
×
×
  • Neu erstellen...