Jump to content

Weingeist

Members
  • Gesamte Inhalte

    1.659
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Weingeist

  1. - VmWare kann - noch - nicht Multi CPU (ändert sich angeblich in nicht allzuferner Zeit) - VmWare empfiehlt die VSA - welche ohne teure SAN für ein Transparentes Failover notwendig ist - nicht auf der gleichen Maschine sondern zwei separate, sprich minimal 4 Maschinen. Zumindest sofern ich diesbezüglich auf dem aktuellsten Stand bin. Das wird dann ziemlich heftig. Auch vCenter wird in der dicken Version gebraucht bei 4 Hosts. Kommt natürlich immer auf die Umgebungsgrösse an. @Necron: Hatte diesbezüglich vor ein paar Monaten eine Anfrage und die meinten für nen Automatisches Failback bräuchte es 3 Doubletake Lizenzen. Für manuelles Failback dagegen zwei.
  2. Selbstbau-Erstickungsanlagen: Dafür gibt es schon einen Grund, Erstickungsanlagen oder ähnlichem sind extrem gefährlich wenn sie automatisch ausgelöst werden und zbsp. einen Raum fluten. Da sollte man dann besser nicht drin sein. Da brauchts dann eigentlich Türschalter-Schaltungen Raumüberwachung der Leute oder ähnliches. Gut und günstig kann man das zbsp. mit einem abgeschotteten Notebook + Handy lösen. Sensoren ans NB. Das Notebook agiert ohne Strom, hat quasi eigene USV, das Handy ebenfals. Per Handy verschickt man dann zbsp. Mail und/oder Ruft an. Das kann man gut selber bauen und ist auch nicht wirklich komplex.
  3. Double-Take 15minuten? Das kann nicht sein. Normal ist das RatzFatz. Bitte nochmals nachforschen oder selber ausprobieren. Aber teuer sind sie ja. Vor allem für Failback => 3 Lizenzen. Der konnte das für nen SBS mit all seinen Diensten zbsp. perfekt erledigen. Ansonsten: Die aktuell wohl beste Möglichkeiten ohne eine gigantische Infrastruktur bietet von der Theorie her XenServer mit der Marathon Erweiterung. Alles was man braucht sind zwei physische Standard-Server. Da wird alles per Lockstep und sogar MultiCPU gespiegelt. Einigermassen bezahlbar ist es auch, wenn man das ganze mit gespiegelten SAN und solchen Spässen vergleicht. Prinzip ist einfach: Läuft ein VM primär auf Host A im Schutzlevel 3 und dessen Festplatten fallen aus, Läuft VM auf A weiter und zieht Daten von Host B. Fallen Netzwerk-Links aus, gleiches Spiel. Fällt der Host aus, dann gehts mit einem Ping-Verlust auf Maschine B weiter. Eine solche Flexibilität bietet sonst niemand. Grösster Nachteil: Die Community ist extrem klein, aber mit nem gscheiten Anbieter auch machbar. Ein grösserer Zugangssystem-Hersteller aus Süddeutschland setzt zbsp. fast alles so auf. Günstiger kommt man nicht auf solch ein hohes Schutzlevel. Die Anforderungen an das Storage (IOPS) kann man entweder mit LocalStorage, mit einer SAN (weniger sinnvoll wenn nur eine) oder auch nem DAS erschlagen, je nach dem was halt gebraucht wird und eben nicht zwingend eine extrem teure SAN-Struktur.
  4. Das ist gerade die Krux an den Bestimmungen. vDesktop Umgebungen mit Zugriff von überall sind fast unmöglich komplett legal zu betreiben. Von den Kosten mal abgesehen. Die grösseren Office 365 Pakete mit zusätzlichem Offline-Installatiosnrechten auf einer Maschine ist aktuell wohl der einzig sinnvolle Weg wie sowas mehr oder weniger komplett legal - und ohne sich allzu gross Gedanken machen zu müssen - betrieben werden kann, zumindest was Office betrifft. Windows an sich, fast unmöglich. --> Nur mit Server OS + RDL User. Da ha man Worldwide-Rechte mit Online-Versionen. Weil man zusätzlich nen Offline bekommt und es das gleiche Produkt ist (naja-im gleichen Paket) darf man auf die legale Kopie welche im Firmennetz lokal läuft zugreifen. Das ganze zu einem natürlich "günstigen" Preis. So sehr mir die Produkte gefallen, mir ist schleierhaft, wieso einem MS einfach nicht zugestehen will, eine Desktop VM gleich wie eine physische Maschine zu behandeln und gut ist. Auf einem Desktop-OS darf lizenztechnisch nur ein MA arbeiten, technisch kann nur einer. Also sollte es doch egal sein.... - ob er nun mit seinem Smartphone, PDA, Ipad, Tablet, Notebook von daheim oder sonstwo auf der Welt auf dieser VM arbeitet. - worauf die VM letztendlich läuft - Mitarbeiter A, B oder C drauf arbeitet Es ist im Grunde eine moderne Variante eines Notebooks welches im Firmeneingang liegt und man je nach benötigter Ausstattung zbsp. das passende an den Arbeitsplatz oder nach Hause nehmen würde. Mit nem Notebook wäre das komplett legal mit einer VM nicht. Aber nein, man wird gezwungend doppelt und dreifach zu bezahlen für die gleiche Leistung oder wird genötigt SaS in Anspruch zu nehmen obwohl man gar nicht möchte. Das wäre rechtlich absolut easy, es bräuchte keine Lizenzberater (Keks für Franz ;) ), keine komplexen Strukturen und keine horde von Anwälten um das abzusegnen, kontrollieren, durchzusetzen. Es bräuchte ne OS-Lizenz pro VM, ne UserCal pro User sowie Applikationslizenz der Wahl pro VM. Fertig. Es könnte so einfach sein. In diesem Punkt wünsche ich mir sehnlichst die alten Zeiten bei MS zurück wo das alles kein Problem war und man die Wahl hatte wie man lizenzieren und welche Services man in Anspruch nehmen wollte.
  5. Ist eigentlich ganz einfach, wenn Du per NFS freigibst und per NFS zugreifst, dann ist die Rechtverwaltung AD von Windows quasi ausgehebelt (man kann das auch koppeln). Es gelten dann nur NFS-Richtlinien/Beschränkungen/Berechtigungen. Gibst Du den Ordner zusätzlich mit der Windows-freigabe frei und greifst auch normal auf das Verzeichnis zu, dann gelten die normalen Windows-Berechtigungen.
  6. Ziemlich ja. Dafür aber auch zuverlässig und Flexibel. Ist ja wie immer eine Abwägung wie verfügbar mans wirklich braucht. Für nen SBS find ichs zbsp. ne Top-Lösung, für einzelne Maschine auch. Für ne ganze Umgebung wirds schnell teuer. Aber für den Druckserver als VM ne Kopie vorhalten und diese bei Bedarf einschalten dürfte ja eigentlich reichen. Zusammen mit nem aktuellen Backup ist das Razfaz wieder online.
  7. Betreffend Druck-Server: Als VM sowieso ziemlich entspannt. Druckertreiber aktualisierungen sind ja manchmal etwas mit Vorsicht zu geniessen. --> Übernahme der Einstellungen. Mit ner VM kannst das problemlos testen, sei es mit Snapshots oder einem Replikat. Wenn Hyper-V Replica nicht gewünscht wird, gibt es auch noch DoubleTake für physische oder virtuelle Maschinen. Die haben jahrelange Erfahrung im Replikationsbereich unter Windows.
  8. Für Fileserver schmeckt mir persönlich ein manuelles, technisch wenig anfälliges Konzept als zusätzliche oder alleinige Sicherung mit etwas kürzeren Abtänden ziemlich gut. Mache das meist so: 1. Replikation mittels DFS-R auf einen zweiten Server (ohne das Ziel in DFS einzutragen oder wenn gewünscht auch eintragen aber deaktivieren oder Schreibgeschützt setzen und auf Wunsch manuell zu aktivieren, wenn Server zbsp. tot ist) 2. Manuelles Backup auf die simpelste Art überhaupt, via Robocopy. 2.1. Auf ein Deduped Volume und immer Vollsicherung, anschliessend direkt Dedupe anstossen (Mit 2012 umsonst). Halt Bandbreitenverschwendung, ist aber unabhängig von VSS. 2.2. Synchronisierung mit Robocopy ins immer gleiche Verzeichnis. Das geht Ratzfatz. Vorher ein VSS Snapshot des Ziel-Volumes anlegen und in nem Ordner veröffentlichen mit Datum + Zeitstempel (zbsp. 2013-04-17_1212) sowie nen Wartungsscript, welches automatisch nach gewünschten Kriterien die Snapshots wieder aufräumt oder selber löschen. Inwiefern die User auf das Backup selber lesend Zugriff bekommen sollten, ist jedem selber überlassen. Da sich NTFS-Berechtigungen mit Robocopy übertragen lassen, kann man zbsp. der Freigabe nur lesend Zugriff erteilen. Dann kann niemand darauf schreiben, die Berechtigungen sind aber identisch.
  9. Der sollte das grundsätzlich problemlos erkennen. Datensicherung schadet trotzdem nie ;)
  10. Weingeist

    ReFS vs. NTFS

    Also bezüglich Fehlerroutinen ist das Teil schon Klasse. Nicht so einfach das System in die Knie zu zwingen. Habe das auf verschiedene Arten ziemlich gut durchtestet (gibt nen Thread hier von mir). Vor allem in Verbindung mit den Software-RAID Features muss wirklich jeder Mirror-Partner Müll abliefern, damit eine Datei Offline geht (nicht das ganze Volume). Sei ein solcher Partner nun ein Volume von zwei verschiedenen externen Speicherboxen welchen zbsp. ein Hardware-RAID zugrunde liegt oder gleich die physischen Discs (interessant mit SSD's --> Trim). Da Writes nicht auf bereits beschriebene Sektoren kommen und diese ersetzen sondern in neue Bereiche geschrieben werden und erst aktiv gesetzt werden wenn der erfolgreiche Write-Commit kommt, macht das File-System extrem robust. Überprüfung und Reperatur von Sektoren geschieht unter ReFs mittels Task Online ohne die Discs oder das Volume Offline zu nehmen. Regelmässig oder per manuellem Anstoss. Bei Benutzung der StorageSpaces (NTFS wie ReFs) scheint das System sehr gut zu wissen, welcher Mirror korrekte Daten liefert und korrigiert diese auf dem oder den Partner. Die fehlerhaften Discs oder DiscSets von einem externen Speicher nimmt Windows nicht Offline sondern schreibt die Daten einfach in andere Sektorenbereiche. Fällt ein solches Discset aus, schreibt es die Daten vom lauffähigen Mirror in ein Hotspare. Gibt aktuell aber auch ein paar lästige Dinge: - Keine NFS-Freigaben - Keine Deduplizierung - Keine Hardlinks - Keine Quotas - Keine Cluster-Volumes Auf den ersten Blick mag das ziemlich bekloppt sein, ein neues Filesystem welches ned mal die guten Features des alten hat. Auf den zweiten aber nicht unbedingt verkehrt. Schätze mal MS will das neue Filesystem als reines Filesystem betreiben und die Features via denn StorageSpaces implementieren. Sowohl in Form von eigenen als auch fremden Modulen. Das Filesystems wäre dann nur noch für die reine Ablage von Datenblöcken und deren Korrektheit zuständig. Was ja eigentlich auch dessen Aufgabe ist. Also kein aufbohren mit Features - das übernimmt der zusätzliche Layer (Storage-Spaces) - sondern reine Bereitstellung. Die Features wie Nachschlagwerke welche das Zusammenfassen von Files/Blocks erlauben (Hardlinks, Dedupe) liegen dann ebenfalls als Daten im Filesystem. Diese haben dann automatisch den gleichen Schutz wie die eigentlichen Daten, da sie ja auch als solche abgelegt werden. Das ganze System wird so theoretisch sehr viel robuster, ziemlich sicher auch performanter (Auslagerung der Nachschlagewerke auf andere Disc-Sets usw.) und bietet massig Optimierungsmöglichkeiten für Caching, Dedupe usw. Wird aber auch komplexer. Software-Fehler in einem Nachschlagewerk führen unter Umständen unweigerlich zu massivem Datenverlust. Restore bzw. Rep von zerschossenen StorageSpaces wird wohl nahezu unmöglich werden. Ist aber bei grösseren SAN-Boxen auch nicht besser. Auch da muss die Software ordentlich sein. Soweit meine Einschätzung, wir werden sehen wo das hinführt, ich sehe die Entwicklung diesbezüglich jedenfals positiv. SAN Features unabhängig von Hardware-Hersteller. Gesplittet auf mehrere Partner (zbsp. wie bei DAG bei Exchange) ohne wirkliche Abhängigkeit zueinander (wie bei MS-Cluster) mit beliebigen Skalierungsmöglichkeiten je nach verwendeter, zugrundeliegender Hardware. Die Funktionalität sowie Art der Ablage der Daten ist immer die gleiche. Um zu Deiner eigentlich Frage zu kommen: NTFS ist bereits ziemlich robust, bietet für sich mehr Features als ReFs. ReFs ist dagegen extremst robust (Art der Speicherung, freie Bereiche). Steht nur ein Hardware-RAIDset ohne darüberliegenden Software-RAID durch Windows zu Verfügung, werden die Files bei ReFs Online aus dem Filesystem gelöscht ohne dass das Volume wie bei NTFS für Checkdisk offline muss. Bei Verwendung des Software-RAID-Features der StorageSpaces werden die Daten eines sauberen Disc-Sets genommen und die korrupten korrigiert. Kannst du also auf all die Features die aktuelle NTFS bietet verzichten, dann nimm gleich ReFs. Brauchst Du eines davon, nimm NTFS oder erstelle eine VHD auf einem ReFs welche selber als NTFS formatiert ist.
  11. Internetberechtigungen setzen wäre soooooooo easy mit dem TMG :( Ansonsten: Internet Ja/Nein könntest auch über die Windows-Firewall steuern. Da kannst ja auch Filter für Benutzer und Computer setzen. Müsste auch funktionieren. EDIT: Bei neueren OS
  12. Habe auch noch ein solches Stück Software am Start und kann Dir sagen, dass es für viele alte Parallel-Dongles fast keine einfachen und stabilen Lösungen gibt. Habe mich ziemlich lange damit beschäftigt. Sowas wie Serial-To-Lan für Para kannst komplett vergessen. Gibts keine die mit allen Dongles funktionieren. Es gibt so eine Selbstbauvariante (müsste ich suchen) wo zumindest eine Art von Dongles so verfügbar gemacht werden kann. Manche von Ihnen lassen sich mit entsprechenden Treiber komplett fast auf Knopfdruck mit entsprechenden Programmen emulieren, das ist aber sehr Dongle-Prinzip-Abhängig. Klappt bei meinem nicht, also einen alten PC mit Windows 98 vorhalten. Prost. Dongle-Kommunikation läuft überhaupt nicht unter etwas neuerem. Es gibt aber durchaus Mittel und Wege einen Emulator spezifisch auf genau Deinen Dongle selber zu bauen. Rechne mit ein paar Wochen Aufwand... Keine Ahnung ob das in einem solchen Fall legal wäre.
  13. Für den ESXi kannst ja problemlos NFS anstelle von iSCSI nehmen. Das ist normal doch etwas stabiler als iSCSI auf diesen Büchsen (QNAP/Synology). Imho reicht das für Testzwecke und Backup für Kleinumgebungen locker aus. Datensicherung kriegst auch gut via Windows aus dem System (per CIFS) und kannst so zbsp. eine Kopie der Backupplattn sehr einfach vorhalten. Abstürze der Box - sollten sie mal vorkommen - haben in der Regel auch keine so grossen Auswirkungen. Mit iSCSI und VMFS als Filesystem ist das wieder eine andere Baustelle.
  14. Alleine wegen der Akku-Tauschbarkeit würde ich schon kein Apfel-Produkt kaufen. Meist fehlende DVD-Laufwerke zum zweiten. ;) Ansonsten: Die kleinen HP 6470b sind zum Beispiel extrem leise + werden nicht heiss wie sau. Bin da ziemlich begeister von. Auch die teuren T-ThinkPad von Lenovo sind gut. Beiden kann man mit ner Nachgerüsteten gscheiten SSD zum fliegen bewegen (Deutlich billiger und robustere Modelle als direkt). ;)
  15. Warum sollte das mit DFS nicht klappen? Access kann damit prächtig umgehen. Ist auch sinnvoll. Würde halt keinen Replikationspartner und auch kein zweites Ordnerziel eintragen bzw. diese deaktivieren und die DB regelmässig manuell replizieren (robocopy-Task). Bei nem Ausfall machst manuell eine Umschaltung auf dem DFS-Stamm bzw. aktivierst das Replikat.
  16. Eh ziemlich wurscht bis 2003, da darfst so gut wie jede Version installieren wo du willst. =)
  17. Weingeist

    Domaintool?

    Geht es nur um die Anzeige? Dann könntest Du selber ein kleines Tool schreiben welches per ADO eine LDAP Abfrage startet. Ich mache das noch mit nem VB6 Programm. Was man braucht ist nen Dienstkonto für die Abfrage vom AD, ein paar Zeilen Code (Nicht ganz trivial) sowie eine Routine welche die aktuellen Login-Daten für die Abfrage verwendet oder ein zusätzliches Feld für die Passworteingabe pro Abfrage in der GUI. So Im Groben: - Verbinden mit AD - Erstellen eines AD-Objects mit dem User - Gruppen SID's des Users auslesen (TokenGroups), mit diesem Array - nach ein paar Konvertierungen - einen SQL-Filter bauen - AD mit ADO abfragen mit dem SID-Filter - zbsp. nen Dictionary mit den gefundenen Gruppen füllen und gleichzeitig den SamAccountNamen der Gruppen herausfinden - Das ganze dann am Bildschirm ausgeben - Durch die zwischenspeicherung im Dictionary kannst nachher auch gleich sehr einfach eine Gruppenmitgliedschaft prüfen. Geht vermutlich auch einfacher mit nem Powershell-Script oder etwas fix fertigem. Mit dieser Methode hat man zumindest sämtliche Gruppen in denen er direkt oder indirekt ist. EDIT: Sag an wenn Du den Source für VB6 bzw. VBA brauchst. Etwas moderneres kann ich leider nicht bieten. :D
  18. Bei der Mutlimonitorengeschichte ist auch oft der Grafikkarten-Treiber schuld. Mal die Versionen und Einstellungen abgleichen. Hatte letzthin fast nen Krampf bekommen um Windows bzw. dem Treiber beizubringen, dass ich Monitor A als Hauptmonitor möchte und nicht B. Da hatte alles nix geholfen, weder Kabel umstecken, Explizit in Windows-Systemsteuerung definieren etc. am Ende wars dann in irgendwo im Treiber-jungle einzustellen.
  19. Du könntest versuchen, das OS erst neu zu installieren und anschliessend das Backup zurückspielen oder teile davon... Evtl. die Festplatte auch erst komplett leeren, also sämtliche Partitionierungen löschen. Manche Backupprogramme hatten auch schon Mühe mit versteckten System- oder Recoverypartitionen. Vielleicht stolpert ja MS neuerdings auch darüber...
  20. Das kann in der aktuellen Lizenzpolitik tatsächlich als gute Meldung taxiert werden. Vielleicht merken Sie am Ende sogar noch, dass sie mit ihrem aktuellen Kurs die zahlende Kundschaft verärgern und mittel- bis langfristig der Konkurrenz Tür und Tor öffnet.
  21. Weingeist

    Windows 8 - SB

    Anbei mal ein Passus auf der Verpackung welchen man vor dem Öffnen zustimmen muss, ehrlich gesagt verstehe ich das nicht so genau. Wenn Sie dieses Produkt auf einemPC zur persönlichen Verwendung installieren: [...] Persönlich? Darf ein Unternehmen also nicht selber installieren? Oder doch? Die Software im Paket darf nur genutzt werden: - als Betriebssystem auf einem PC, den Sie zur persönlichen Verwendung erstellen, ODER - als zusätzliches Betriebssystem, das entweder auf einer lokalen virtuellen Maschine oder in einer separaten Partition ausgeführt wird Die Software im Paket darf nicht genutzt werden: - Als Upgrade-Lizenz für ein vorhandenes, zugrunde liegendes Windows Betriebssystem Was muss denn gekauft werden, wenn es keine FPP Produkte mehr gibt um einen vorhandenen PC auf Windows 8 zu bringen?!? SA Produkte gibt es ja auch nur Upgrade-Lizenzen von Windows 8 Oder heisst das schlicht ich muss neuinstallieren und darf kein Upgrade durchführen? - Zur Lizenzierung von mehr als fünf Kopien der Software (insgesamt) für kommerzielle Zwecke Was heisst dies nun genau? - Man darf innerhalb eines Unternehmens maximal 5 Windows 8 SB/OEM einsetzen wenn Sie selber installiert werden? - Wenn man als Dienstleister einem Unternehmen Windows 8 mit einem Computer verkauft, dann darf man mehr haben? - Fals ersteres zutrifft, wie bringe ich bestehende PC's auf Windows 8 ohne einen neuen PC zu kaufen? Vielen Dank für Inputs
  22. Hallo Leute, Ein Fileserver soll zusätzlich ein paar NFS-Freigaben bereitstellen. Das "normale" Netzwerk soll und darf aber keinen Zugriff auf die Dateien bekommen können. Die Komplexität soll möglichst tief gehalten werden. Ich hätte das nun folgendermassen gelöst: - Eigene Netzwerkkarte(n), eigener IP-Range, eigenes physisches Netz (Switches) - Authentifizierung via passwd, ohne Kerberos, AD-abgleich etc. - Im NFS-Server die Verbindungspartner beschränken - Auf der Windows-Firewall den NFS-Server-Traffic beschränken -- sowohl auf die eine spezifische interne IP-Adresse -- als auch die Remote jeweils explizit auflisten Die Freigabe an sich ist so aber eigentlich nicht wirklich sicher weil die NTFS-Berechtigung quasi für jeden Read/Write sind. Reichen nun aber dieses Massnahmen aus, um ein Zugriff auf die NFS-Freigaben vom normalen LAN her trotzdem wirkungsvoll zu verhindern? Grüsse und vielen Dank
  23. Zur räumlichen Trennung einer USB-Platte könntest zbsp. einen USB-To-Lan Adapter verwenden. Vorschlag: "Silex 4000" sind sehr robust, gscheite Treiber und nicht teuer. Performance kann ich Dir nicht sagen, verwendete sie bis dato nur für anderes. Da die CPU verhältnissmässig viel Bums hat dürfte sie ziemlich gut sein. Du hättest den Vorteil der räumlichen Trennung + Handhabung via USB. Ansonsten wäre evtl. noch NAS mit iSCSI-Funktionalität ein Thema. Da ist die Wiederherstellung wenn die Basismaschine tot ist allerdings nicht identisch trivial bzw. muss etwas mehr beachten.
  24. Naja, das sieht mir einfach nach einem 0815 FAQ-Artikel aus wo nur die Version-Nummer abgeändert wurde und der Ersteller wohl etwas unvorsichtig war. Daneben ist es klar, dass auf einem 4-Sockel System eben mindestens zwei Lizenzen à 2 Sockel zugewiesen werden müssen, damit erstmal der Host an sich lizenziert ist, auch wenn man nur eine oder zwei VM's laufen lassen will und man schlussendlich das Recht hätte deren 4 laufen zu lassen (bei Standard). Das ist der Punkt worauf dieser FAQ-Artikel hinaus will und man auch ziemlich genau beschrieben in den PUR's wiederfindet. Es ist explizit erlaubt bzw. sogar ein Muss eine Server-Lizenz einem Host zuzuweisen. Man kann/muss sogar mehrere zuweisen um mehr Virtualisierungs-Rights zu erhalten. Also muss das Recht irgendwo beschränkt werden, dass man alte Lizenzen nicht zuweisen darf, sollte es nicht erlaubt sein. Oder es muss einen Passus geben wodurch jede VM eine gültige Server-Lizenz der höchsten zugewiesenen Lizenz haben muss. Beides kann ich nirgendwo erkennen. In diesem Forum wird in jedem 2. Beitrag betont, dass die FAQ's keine Rechtsverbindlichlichkeit haben, wozu also die Aufregung wenn man es in den PUR's nicht erkennen kann? Ich verstehe das nicht wirklich.
  25. Ich wäre erstmal froh, wenn ich wüsste aufgrund welcher Aussagen aus den PUR's die Leute ableiten das es nicht klar ist. ;)
×
×
  • Neu erstellen...