Jump to content

Weingeist

Members
  • Gesamte Inhalte

    1.566
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Weingeist

  1. Na einen eigenen TS müssten die Jungs mit Visio dafür schon haben, sonst geht das natürlich nicht. --> Ich weiss natürlich nicht, wie Xen nun streamt, also ob der 'Tunnel' fürs Streamen direkt aufgemacht wird oder via einem Xen-Server. Wenn der Anwender nach der Authentifizierung direkt auf den TS zugreift welcher Visio hat, dann wird der Stream abgeblockt. Wenn der Traffic via einem Xen-Brooker läuft, wäre es wohl schwierig. Dann müsste man Xen beibringen den Zielhost für gewisse Anwendungen nach MAC zu filtern. Da Du mit Sicherheit nicht der einzige mit diesem Problem bist, dürfte es dafür auch von Microsoft akzeptierte Lösungsansätze geben ohne irgendwelche unmöglichen Handstände zu machen.
  2. Wenn Ihr so ein ein grosses Netzwerk habt, habt ihr bestimmt auch tolle grosse managbare Switches. Eventuell können die Switch-Jungs einen Filter mit einer White-List erstellen und jegliche Kommunikation auf den TS von MAC's ausserhalb der WhiteList verhindern. Sollen die mal Kreativ werden wie man das am besten umsetzt bei euch :)
  3. Hi, Es ist definitiv so wie Dr. Melzer es als erstes erklärt hat. Die Nutzer greifen weder direkt noch indirekt selber auf den SQL-Server zu. Indirekter Zugriff ist ebenfalls so wie er das eigentlich deutlich erklärt hat: Stellen die Nutzer eine konkrete Anfrage an den MySQL-Server, aufgrund dessen Anfrage dann der MySQL-Server auf den SQL-Server zugreift und die gewünschten aktuellen Daten abholt, dann wäre es eine indirekte Abfrage weil in dem Moment wo der Benutzer die Daten haben möchte, der MySQL-Server quasi als Router/Gateway dient um auf die aktuellen SQL-Daten zuzugreifen. Der Zugriff ist indirekt. Fazit: Es muss ein Anstoss seitens des Nutzer sein, welcher dafür sorgt, dass der MySQL Server aktuelle Daten erhält. Sprich es muss eine gewisse Dynamik herrschen. Wenn man nun hingeht und vom SQL-Server her alle paar Sekunden einen Datenabgleich fährt um quasi Live-Daten auf dem MySQL-Server zu Verfügung zu haben, dann bewegt man sich massiv in die Dunkelgrauen Zone und der Richter würde unter Umständen entscheiden müssen. Das kann dann sowohl als indirekter als auch statischer Zugriff angesehen werden. Werden die Daten nicht Zeitnah aktualisiert sowie aufbearbeitet, herrscht überhaupt kein Zweifel. Wen eine solche Weiterverarbeitung von statischen Daten nicht erlaubt wären, dan müsste man sämtliche Daten für jeden der diese irgendwie und in beliebiger Form im und ausserhalb des Unternehmens auswertet, eine SQL-Lizenz haben. Das macht ned mal MS und wäre mit Sicherheit rechtlich auch nicht haltbar geschweige den durchsetzbar. ;) Ansonsten: Die Ausbeute von sinnvollen Antworten bei den Anfragen an das MS-Lizenzteam ist heutzutage extrem schlecht. Die werfen manchmal mit Auszügen um sich, die noch ned mal mit dem Thema zu tun haben und beschränkt sich in aller Regel auf die Zitate und keine konkreten Antworten zur Problemstellung. Die sehen ein paar Stichworte aus der Anfrage und dann folgt der Quote. Fertig. Vermutlich dürfen die ned mal was anderes tun, weil man sonst was schriftliches in der Hand hätte. Ist extrem Krank geworden das License-Business. Man könnte meinen, die Firmen lieferen sich einen Wettstreit wer die kompliziertesten Bedingungen auffahren kann. Meiner Meinung nach geht es eigentlich nur noch darum, die Unternehmen soweit einzuschüchtern, dass sie einfach für alle Mitarbeiter die nur im entferntesten etwas mit den Computer zu tun haben, Lizenzen aus Open/Select Verträgen vorhalten und man seine Ruhe hat. Dazu geben sich die grossen Software-Firmen alle Mühe, normale Lizenzenzierung so kompliziert und mit so vielen Ausnahmen zu machen, dass am Ende eigentlich nur noch ein Mietmodell in Frage kommt. Die Strategie scheint perfekt aufzugehen. Der Rubel rollt.
  4. Naja, ich finde so gut wie alle Programme zicken irgendwann rum wenn sie ewig geöffnet sind. Bei MS-Applikationen zeigt sich dies dann mit nicht mehr gscheit funktionierenden XML-Symbolleisten. Entweder weil sie nicht mehr aktualisiert werden bei Objektwechsel oder grad gar nix mehr angezeigt wird oder auf Klicks nicht mehr reagieren. Bei anderen wird alles total langsam. Der Firefox stürzt auch mal ab. Imho läuft dies auf nicht sauber freigeräumten RAM-Speicher raus. z.B. von Objekten die das Programm handeln möchte obwohl sie nirgends mehr gebraucht werden bzw. Dokumente bereits geschlossen sind, Listenüberläufe etc. Sprich Programmierfehler. Möglichkeiten gibts viele, den Fehler zu lokalisieren und zu beheben ist dagegen nicht immer einfach für die Programmierer. ;)
  5. @Daniel: Sag mir, dass Du dies nur so formulierst weil Du musst ;) Du bist doch schon ewig im Geschäft und kennst die Sachlage doch ziemlich genau. Da ist nichts an den Haaren herbeigezogen. Lizenzbestimmung: Schau Dir mal die Lizenzbestimmungs-Entwicklung der letzten 10 Jahre an. Das liegt doch echt auf der Hand. Vorher: Egal über welchen Kanal eine Lizenz erworben wurde, die Nutzungs-Bedingungen waren die selben. NEU: Es gibt diverse unterschiedliche Konzepte. OEM-Versionen sind auf Applikationsebene faktisch nichts mehr wert (kein ReImageing, keine Verwendung auf TS usw.). Beim Client OS sind sämtliche (Server)-Virtualisierungskonzepte nicht mehr mit Kauflizenzen zu ermöglichen. --> Man Vergleiche Lizenzbestimmungen von Windows XP SP2 und SP3 und Vergleich sowie Office 2003 und 2007. Da sind die Unterschiede sehr gut erkennbar. Je neuer die Version, desto schlimmer wurden die Einschränkungen. --> MS spricht seit Jahren von Vereinfachung, in Tat und Wahrheit wird es fast mit jeder neuen Version komplizierter Vorher: Man konnte eine Lizenz kaufen NEU: Man wird bei Nutzung von modernen Technolgien - selbst wenn MS nichts dazu beiträgt - zur Miete/Wartung genötigt und hat z.B. bei virtuellen Desktops keine wirkliche Möglichkeit Lizenzen zu kaufen. Bei Applikationen kann ich eine Lizenz nicht pro Benutzer kaufen sondern nur mieten. SaaS ist die neue Gelddruckmaschine. Vorher: Mit jeder Server-Version waren CAL's inbegriffen. NEU: Die Kaufprodukte wurden teurer, die CAL's entfernt. Vorher: Mit jeder Exchange-CAL wurde Outlook lizenziert Heute: Separate Applikations-Lizenz notwendig, macht die Sache unnötig kompliziert. Vorher war klar: Hat man eine Exchange-CAL war man mehr oder weniger automatisch richtig für Outlook lizenziert. Vorher: Jede CAL war käuflich zu erwerben Heute: Die wirklich sinnvollen Features sind z.B. bei Exchange nur mit SaaS zu erwerben. Fazit: MS hat sich in den letzten Jahren darauf konzentriert die Lizenzbedingungen massiv zu verschlechtern um vom Zeitalter des Kaufens ins Zeitalter des Mietens und vollständiger Kontrolle überzugehen. Spam-Ware-Apps/Tasks/Dienste/Ausspionierung: Vorher: MS war immer der Gegenpol zu den ganzen zwielichtigen anderen Konstrukten grosser Konzerne. Man konnte MS ziemlich gut vertrauen. Zumindest hatte man wirklich das Gefühl, dass seriös gearbeitet wird. Heute: Apps, Dienste und sichtbare und versteckte Tasks sowie die Bing-Integration sammeln Unmengen an Daten, ohne das man wirklich einen Sinn dahinter sieht. Noch dazu lassen sich die wirklich seltsamen nichtmal so ohne weiteres deaktivieren. Tasks/Dienste: Gibt es diverse mit seltsamen Ambitionen, manche davon sind sogar so angelegt, dass man sie nicht so ohne weiteres aufspüren kann, da nicht den 'Bestimmungen' entsprechend in der Registry angelegt. Das heisst man sieht sie nicht einmal. Wer weiss was da gemacht wird. Bei anderen ist klar ersichtlich was alles gescannt, gemacht und getan wird. Deaktivieren kann man die fragwürdigen aber nicht ohne weiteres. Apps: Die vorinstallierten Apps sind wahre Datensammler. Allgemein ist wenig durchsichtig was Apps alles anstellen können und auch tun. Haben ja quasi ne Freikarte. Auch die komplette Deinstallation ist nur für Leute die sich exzessiv mit den Apps auseinander setzen zu bewerkstelligen. Und auch dann ist es ziemlich mühsam den Schrott alles vom System zu bringen. Früher war das ein Liste mit installierten Programmen. Ein paar der Apps lassen sich wiederum nicht deinstallieren/deaktivieren. Zeitgemäss im Sinne des Kunden wäre eine Auflistung sowie eine detaillierte Ankreuzliste was eine App alles tun darf. IPv6-Struktur: Kaum zu deaktivierende, äusserst undurchsichtige automatische aktivierte IPv6 Struktur mit eindeutiger DHCP-ID aus Redmond die dann auch weiltweit von jedem Internetdienst eindeutig zuortbar ist, diverse aktivierte Tunnels die nichtmal in der Systemsteuerung erscheinen (ausgeblendet) und Löcher in viele Firewalls reisst. Fazit: Mich stört nichtmal grossartig, dass MS diese Dinge wie andere Konzerne auch tun will. Mich stört vor allem die intransparenz und die fehlende Möglichkeit als einfacher Nutzer ohne sehr tiefe Kenntnisse/Interesse etwas dagegen zu tun wenn man den Krempel nicht möchte wenn man sich Firmennähe auf die Fahne schreibt und eine solche Verantwortung als quasi-Monopolist hat. Installer: Früher: Freie Gestaltungsmöglichkeit was man haben wollte. Heute: Man hat keinerei Gestaltungsmöglichkeit beim Installer mehr in der GUI. Alles oder nichts. Konsole/Vorbereitungstools für gelegentlichen Gebrauch extrem aufwendig. Wiederum ausschliesslich für Open-Produkte. Sprich eine Menge Effort ist nötig um ungeliebte Dinge wie Integration von Internetdiensten loszuwerden. Preise: Wenn du FPP als Beispiel bei Office nimmst, trifft das zu. Ansonsten wurde alles teurer bzw. wird Miete notwendig was mit Sicherheit immer teurer ist. Früher konnte fast alles mit OEM lizenziert werden. Zu sehr günstigen Konditionen. Dazu wer mochte eine SA. Andere Beispiele CAL's, Miete habe ich bereits genannt. FAZIT: Sind alles Punkte welche ausschliesslich die eigenen Interessen vertritt und nicht wirklich kundenfreundlich sind. Da aber alle die MS-Applikationen einsetzen und quasi ein Monopol hat müsste MS eigentlich wie früher auch seiner Verantwortung nachkommen. Zumindest habe ich diese Erwartungshaltung und ich bin sicher, dass sehr sehr viele Leute bzw. die Meisten diese teilen. Nichts davon ist meiner Meinung nach eine wirklich unverschämte Erwartung.
  6. Keine Sorge, die Datenträger sind da nach wie vor. Du darfst Sie nur nicht mehr haben :D MS "denkt" und handelt mittlerweile wie ein Konzern und nicht mehr wie ein Betrieb wo ein Inhaber dahinter steht. Ein Konzern tut alles um die Gewinne kurzfristig zu maximieren ohne den Kunden so zu vergraulen, dass er allzu sauer ist. Ein Inhaber sucht den langfristigen Erfolg, möchte einen guten Namen haben und glänzt mit Innovation. Ein Konzern halt mit Vorschriften und Peitsche. Ist ja irgendwo sogar verständlich, die Manager sind den (Gross)Aktionären verpflichtet und die wollen Gewinne und Wachstum im zweistelligen Bereich sehen anstatt gesunde Konstanz. Früher waren die Produkte günstiger, die Lizenzbedingungen besser, der Firstlevel-Support schon sehr gut, es gab Goodies für MVP's, die gute Innovation war gegeben und mit viel Freude wurde jeweils das aktuelle Produkt gekauft usw. Heute muss man die Kunden mit kruden Lizenzbedingungen, schwindelerregenden Preisen und der Peitsche bei Laune zwingen. Ganz zu schweigen von der geliebten Datensammlungswut aktueller Systeme. Würde mich ja schonmal interessieren was diese ganzen Apps, Dienste, Aufgaben etc. so aufzeichnen und übermitteln. Die Festplattenaktivität auf einem normal installierten System ist jedenfalls gewaltig. :jau: MS legt einem nun also möglichst viele Steine in den Weg um ein intern ungeliebtes Produkt - das ist Office 2003 aus hauptsächlich zwei Gründen - möglichst rasch verschwinden zu lassen und die aktuellen Versionen zu pushen. Der eine Grund ist, dass die Zugpferde Office und Excel nahezu über einen vollen Funktionsumfang verfügen, der weitaus grössere Grund ist aber die Tatsache, dass die Lizenbedingungen für ein funktionstechnisch fast identisches Produkt 100x besser sind als mit allen Nachfolgern. Nur mit einem VL-Datenträger hat man ein Reimaging-Recht bei z.B. OEM-Versionen. Da könnten doch glatt ein paar Leute auf die unverfrorene Idee kommen, bei Office 2003 zu bleiben. Selbst wenn es nicht supported ist. Läuft halt nimmer nach dem Motto der erste Porsche ist ein gebrauchter Porsche und wenn Kohle da ist gibts mal nen neuen. Man muss quasi immer den aktuellsten Porsche kaufen. ;)
  7. @Norbert: Du hast ein Nutzungsrecht erworben, bezahlst aber MS nicht dafür, dass Sie für die Datenträger aufbewahren. Sprich in den Augen von MS bist Du selber schuld, wenn Du keine Kopie gespeichert hast. Was mir nicht ganz klar ist, ob man den Datenträger eines anderen Open-Bezügers verwenden darf. So richtig definiert ist das nämlich nicht. Es heisst nur, man braucht den entsprechenden Dateträger. Da die ganzen Open eh alles Downloadbare sind, dürfte es total egal sein, jenen von jemandem anderen mit identischen Nutzungsrechten zu benutzen. Bei Office XP wars wohl so, dass genügend Leute rumgejammert haben, weil das war noch lange über den Support-Zeitraum hinaus downloadbar. Vermutlich unter anderem wegen den vielen Access-Applikationen. War lange die letzte mit 'richtigen' und auch brauchbaren Developer Extensions. Da Office 2003 eigentlich eine perfekte und funktionsmässig grundsätzlich abgeschlossene und völlig ausreichende Version von Office ist, welches sogar das neue Format beherrscht, will MS diese nun möglichst rasch ausrotten. ;)
  8. Dann waren die Argumente zu mies oder Du bist nicht an die richtigen Leute gekommen. However, ist eh der falsche Weg. Versuchs mal selber mit der 2010er Runtime. Sollte problemlos laufen. Kopierst die MDE/MDB vor dem Start weg, damit die immer neu draufspielen kannst. Hat er externe Module eingebunden, musst diese halt vorher ebenso einbinden. Läuft was nicht, dann meist wegen aktivierter Makrosicherheit usw. Alles ausschalten, DLL's prüfen und MDE wieder drauf. Am Ende nen eigenen Installer bauen welcher das alles erledigt. Wenn das alles passen sollte und es trotzdem nicht läuft und es ne MDB ist, dann - lässt den Decompiler unter 2003 drüber laufen (Mit gedrückter Shift-Taste damit kein Code ausgeführt wird, evtl. mit externem Programm entsprechende Parameter setzen, dass Shift-Bypass nicht gesperrt ist) - anschliessend komprimierst das ganze ohne jedoch Programmcode auszuführen (wieder mit gedrückter Shift-Taste - das würde das ganze wieder in 2003 kompilieren) - dann öffnest es in 2010, kompilierst es (geschieht automatisch wenn VB-Editor geöffnet wird), und komprimierst die DB Wenn es ne MDE ist, der VB-Code geschützt ist etc. gibt es genauso Möglichkeiten, die sind aber wohl eher an der Grenze zur Legalität. Der Tipp mit SQL und .Net ist zwar gut gemeint, aber es ist numal so, dass die meisten grösseren Access-Projekt nicht mal eben auf .Net umgeschrieben sind und einfach mit der Zeit so riesig geworden sind. Alleine das Report-Re-Designing nimmt unglaublich viel Zeit in Anspruch. Zudem ist das Handling/Installation/Backup und Rebuild extrem einfach unter Access. Rede da auch aus leidlicher Erfahrung, da ich selber noch so ne "Krücke" am laufen habe mit über 100'000 Zeilen Code.
  9. Ganz eine andere Frage: Warum fragst Du nicht einfach Microsoft? Bei ausreichend guter Begründung bekommt man fast alles an alter Software wenn man das neuere Produkte lizenziert hat. Ansonsten: Alles was einigermassen geschickt programmiert wurde, läuft auch unter der 2010er Runtime. Die 2007er Runtime kannst komplett knicken, die ist für die Tonne. Da stecken noch so viele Bugs drinn (v.a. im Zusammenhang mit Event-Handling und Instanzen), das will man sich nicht wirklich antun. Auf der 2010er Runtime laufen dagegen normalerweise auch speziell programmierte Entwurf-Manipulations-Abläufe problemlos durch welche früher immer zwingend die Vollversion benötigt hat, da sie technisch der Vollversion entspricht und nur ein paar GUI-Dinge gesperrt sind. Das heisst in aller Regel kommst mit einer Software die normal nur mit der Vollversion läuft mit 2010 Runtime fast genauso weit.
  10. Weingeist

    Hyper-V und DHCP

    Nun, gan so altbacken ist das Problem auch wieder nicht. Unter virtuellen Systemen gab es teils auch in jüngster Vergangenheit massivste Probleme. Egal ob zertifzierte Hardware oder nicht. Meist lief es so ab, dass erst alles tadellos eine Weile lang funktionierte und dann urplötzlich und ohne jede Vorwarnung die Performance komplett zusammen brach und sich nicht mehr erholte. Es half dann nur ein Reboot. Ich kenne das vor allem unter VmWare. Glaube aber kaum, dass HyperV davon gänzlich verschont war, da sie ja im Endeffekt auf die gleichen Funktionen der Netzwerkkarten zugreifen. Nach langer Warterei gabs dann immer mal wieder nen Firmware und Treiber-Update welches teilweise Besserung versprach. Bei abgedrehten Offload-Features im Gast konnte man das Problem in diesen Fällen oft aber nicht immer lösen. Performance aber tatsächlich immer etwas schlechter als wenn sie an waren. Dafür eben stabil. Unter aktuellsten VmWare Builds, Firmware der Netzwerkkarten und Treiber bin ich von diesen Problemen mittlerweile (seit ca. nem halben oder sogar Jahr - die Zeit läuft schnell) verschont. Deshalb bei Netzwerkproblemen wenn die Konfiguration fehlerfrei zu sein scheint, erstmal Firmware und Treiber prüfen.
  11. Gerade wegen der anderen Standardeinstellungen würde ich das Server OS bevorzugen (unabhängig von den deutlich besseren Lizenzierungsbedingungen - Kauf ist (noch) möglich) - Keine so tiefe Integration der Internetdienste - Keine Spam-Ware-Apps vorinstalliert - Viele unnötige Dinge bereits deaktiviert Man kommt also bereits mit einer Standardversion sehr weit. Mittlerweile ist ein Server OS (2008 R2) sogar offiziell freigeschaltet in VmWare View. Früher musste man noch den Installer verbiegen sowie im im Lightweight AD rumpfuschen damit es ging.
  12. Die tatsächlich erlaubten Möglichkeiten sind ziemlich beschränkt. Meines Wissens gibt es genau eine Variante, welche lizenzrechtlich für Mehrbenutzer und Remotezugriff bei einem Client OS in Ordnung gehen ohne das eine VDA gelöst werden muss. Die Verwendung von Rack-Workstations wenn die Anzeige-Kombination immer die gleiche ist und die Kombi fest eingestellt ist und z.B. Verbindung automatisch hergestellt wird. Die Anzeige-Kombi - sei es ein Extender oder auch Thin/Zero-Client - gilt dan als Bestandteil des Computers. Dann sind auch mehrere Benutzer kein Problem. Das muss ned mal zwingend eine Direktleitung sein, sondern darf auch geswitched betrieben werden. Zugriff von anderen Geräten ist aber wiederum nur für den Hauptbenutzer erlaubt! Mir ist bis dato keine andere Variante bekannt, welche von MS für normale Lizenzen abgesegnet wurde. Wird die Verbindung über einen Connection-Broker gemacht und mit verschiedenen Endstationen gearbeitet, werden zumindest RDS-Cal's fällig wenn nicht jeder über seinen eigenen physischen PC verfügt. Mit XP gabs dafür für OEM's sogar extra Bundles welche eine solche RDS beinhaltet haben. Office ist mir nicht so ganz klar, theoretisch müssten es 2 Lizenzen sein, praktisch wird wohl eine VL Lizenz genügen. Alles andere ist soweit mir bekannt, mit einem ClientOS schlicht nicht gestattet.
  13. Mit VM's je nach Komplexität: Maschine ausschalten, VM kopieren, Netzwerk ändern (VLAN oder physisch), nochmals gucken, nochmals gucken, testen ;) Steigerung Sicherheit: Anderer Host, andere Umgebung, anderes Netzwerk usw.
  14. Kommt halt immer drauf an was die Jungs als Ursache vermuten... Wenn Sie den Fehler bei sich sehen, dann kommst ne Ebene höher und zu kompetenteren Leuten mit mehr Tipps und Tricks. Wenn Sie denken, dass Du was Gröber verbockst hast und Du sie nicht vom Gegenteil überzeugen kannst, dass es eben besser anders gelöst wird, dann gehts halt den Weg des Geringsten und Du hast Ärger mit Einstellungen neu setzen.
  15. Keine Ahnung wie MS das heute handhabt, aber in der Vergangenheit (auch schon wieder ein paar Jahre her) hatte ich zumindest excellente Erfahrungen mit dem MS-Support gemacht. Am Ende ging das ganze jeweils auf die Kappe von MS weil es eben ein Bug war. Bekam in der Regel nen Workaround oder die Idee dazu präsentiert und irgendwann war das Problem meist gefixt. Da das ganze das Backup betrifft, wird der Entwicklungs-Elan mit Sicherheit grösser sein, als z.B. bei nem Bug vom unliebsamen Kind Access. Da können sich die gleichen Bugs schonmal über 6 Office Versionen hinziehen, weil es schlicht Fehler gibt, die von 99,99% der Access-Benutzer gar nie produziert werden und zu aufwendig zum fixen sind. ;) Ansonsten sind pauschal 300 Euro auch fair wenn man dafür ein Problem gelöst bekommt an dem man schon einige Stunden verbratet hat. :)
  16. Das gilt aber nur für 'richtige' Apps oder? Auch wenn ich das schon reichlich komplex finde. Die Idee dahinter ist ja im Grundsatz nicht verkehrt. Man wird sich ein paar Versionenirgen später von irgendwo auf der Welt anmelden können und bekommt seine Apps und Einstellungen vor den Latz geknallt. Der Preis der dafür bezahlt wird ist meines erachtens aber deutlich zu gross. Unglaublich umständlich/auwendig das ganze in kleinen Umgebungen umzusetzen. Gilt für so ziemlich alles neue was mit der GUI zu tun hat (Office und Windows). Normale/alte Applikationen bzw. deren Verknüpfungen müssten aber irgendwo im Profil auch abgelegt und somit auch kopierbar sein. Dast Starmenü funktioniert nämlich auch komplett ohne die Dienste AppX und WindowsStore. Also entweder in den weiten der Registry oder irgendwo im Userverzeichnis.
  17. Betreffend MTU-Size: Hatte grad letztens ein Gespräch mit nem Netzanbieter, dass manche DSL-Angebote (bevorzugt Business für Kleinkunden) mit verkorksten MTU's arbeiten, weil der Anbieter selber einen Teil davon brauchen. Auf alle Fälle kann dann die Übertragungsrate enorm sinken, wenn man an den Verbrauchern eine fixe übliche MTU eingestellt hat. So zumindest die Aussage des Anbieters. Also entweder auf die MTU des Netzanbieters einstellen oder schauen, dass diese dynamisch sein kann, was aber auch nicht immer tut.
  18. Musst Du wissen wie Dus machst. Alle Daten die Nicht mindestens auf zwei verschiedenen unabhängigen Datenträger vorhanden sind, sind unwichtig. ;) RAID wird privat erst wichtig, wenn Dir die Wiederherstellung grundsätzlich zu lange dauert. Backups solltest auch mit RAID machen. ;) Ich würdedie RE's nehmen nicht RED. Ist aber auch ne Preisfrage.
  19. Kauf grad zwei Platten auf welchem Du dann die Files synchronisierst oder so. Sonst viel Spass wenn Dir das Ding um die Ohren fliegt und Du nix mehr hast weil Du zu faul bist auf die vier alten Datenträger ne Kopie abzulegen sondern diese wieder löschst oder so... ;) Ansonsten: Robocopy fürs Kopieren, anschliessend das von Daniel genannte Tool drüber laufen lassen. Fertisch...
  20. Der Host selber hat aber in solchen Umgebungen doch oft ziemlich viel zu tun. Er muss vielleicht Deduplizieren, Storage-Spaces bedienen sowie VDI-Desktops bereitstellen. Da gibts schnell eine Kern-Überbuchung. Die VDI's sollen unabhängig davon immer rasend schnell sein und über eine geringe Latenz verfügen. Erfahrungsgemäss packt man mit der Zeit alles mögliche mit auf die Kiste(n) wenn man mal auf den Geschmack gekommen ist. Dann ist man froh ein sinnvolles Sizing der VM's bereits im voraus gemacht zu haben. @TO: Mit einer vCPU ist die Latenz immer besser als mit zwei. Ausser die VM ist permanent überlastet und es ist tatsächlich die Verarbeitungsgeschwindigkeit wos hackt. Gleiches gilt übrigens für das RAM. Je mehr RAM, desto mehr Verwaltungsaufwand. Je mehr unnötig zugeteiltes RAM, desto lahmer wird das ganze. Der Host wiederum hätte für Deduplizierung, Cache etc. gerne etwas mehr RAM als man ihm in der Regel geben mag. Daher kann man generell sagen: klein Anfangen, Host/VM Belastung beobachten schauen was die Last verursacht entscheiden obs wurst ist wenn für jenen Prozess etwas länger geht und wenn notwendig mehr Ressourcen zuteilen. Angenommen der Host hat fast nix zu tun und das Host OS ist intelligent genug, könnte es zum Beispiel auch Kerne abschalten und Strom sparen. Habe aber keine Ahnung wie effektiv das bereits funktioniert.ist. Aber wie gesagt, soll jeder machen wie er will. Ich klinke mich mal aus, da alles gesagt... ;)
  21. Wie gesagt, wir sprechen hier von Mini-Umgebungen mit ein paar Usern, PC's und Server. Der DC hat da ned mal ansatzweise was zu tun wenn er nur DC ist. Aber jeder wie er mag. Ich sehe den Sinn nicht.
  22. Meine Begründung ist nicht die des DC's sondern der restlichen VM's. Frei nach dem Motto: Gib einer VM das Minimum + leichte Reserve, wenns nicht reicht, stocke auf. Das bewährt sich eigentlich sehr gut. Begründung: Ein HyperVisor muss immer die notwendigen Kerne bereitstellen. Das ist bei HyperV und VmWare nicht anders. Hast Du nun auf dem gleichen Host einige VM's und ein paar davon vielleicht gut ausgelastet, dann geht es eben länger, bis er zwei Kerne parallel frei hat, als nur einen. So kann es im Extremfall sein, dass eine VM mit einem Kern sogar schneller läuft als mit zwei oder mehr Kernen. Zwar nicht im Moment wo er berechnet, aber bis er berechnet (Latenz). Vor allem wenn man bei den anderen VM's ebenso grosszügig beim verteilen der Kerne ist. Also im Extremfall z.B. jeder VM 4 von 4 Kernen gibt. Wenn eine VM dann tatsächlich zu wenig Bums hat, dann kann man immer noch nen Kern hinzufügen. Gleiches gilt übrigens fürs RAM. Hat man normalerweise 1 vCPU, dann ist der Verwaltungsoverhead ziemlich klein.
  23. Taket it easy... War vielleicht etwas hart formuliert. Aber schau mal die CPU-Auslastung auf nem DC in ner Kleinumgebung an. Ob das nun 2GHZ oder 3GHZ ist, nen neuer Xeon oder nen alter P4 ist dabei fast schon egal. MagicPeter hat definitiv ne Kleinstumgebung. Dem Ding ist da auch bei einer vCPU todlangweilig. Selbst in grossen Umgebungen wird oft/meist? 1 vCPU verwendet, dafür mehrere DC's. Keine Ahnung mit wie vielen Anfragen man einen AD-Server in die Knie zwingt, es sind aber definitiv sehr sehr viele. Mich würde es deshalb interessieren, wie sich die bessere Performance bemerkbar gemacht hat. ;)
  24. Gibt ihm doch gleich die ganze CPU *kopfschüttel* Ein DC der als reiner DC funktioniert ist selbst mit einer CPU ist in kleinen Umgebungen generell masslos unterfordert. Wüsste nicht, wo da Performance-Vorteile sein sollen. Ich behaupte meistens wird er mit 2 vCPU's sogar tendenziell langsamer. Zumindest wenn auch noch ein paar andere VM's parallel laufen. --> Verwaltungsoverhead, Sicherstellung, dass 2 Kerne frei etc. Anders sieht es aus, wenn man den DC als Fileserver nimmt und virtualisierte Netzwerkkarten hat. Da ist dann irgendwann die virtuelle Netzwerkkarte der Flaschenhals, wenn die Festplatten genügend IOPS bringen.
  25. DFS ist genau dafür excellent geeignet. Zentralisierte Freigabe von verteilten Speicher und immer gleicher Zugriff via der Domäne. Sprich den Nutzer hat es nicht grossartig zu interessieren wo die Daen genau liegen, Hauptsache der Zugriffs-Pfad bleibt der gleiche. Das macht DFS. Zusätzlich stellt DFS Möglichkeiten zu Verfügung um Daten zu replizieren oder einfach nur das Ordnerziel auf einen anderen Server umzuhängen wo man dann selber schauen muss, dass diese auf dem aktuellen Stand ist. Zu deinem Problem: Vermutlich möchtest Du für die gleiche Freigabe zwei Ordner-Ziele eingeben. Das wäre der falsche Ansatz. Du brauchst zwei eigenständige Ordner mit je mindestens einem Ordner-Ziel. Das heisst Du musst einen neuen Ordner im Name-Space erstellen mit dem entsprechenden Ziel. Zusätzlich empfehle ich Dir, in DFS nicht den gleichen Namen für die Freigabe zu wählen wie auf dem Server selbst. Auch das kann die genannten Probleme hervorrufen.
×
×
  • Neu erstellen...