Jump to content

Weingeist

Members
  • Gesamte Inhalte

    1.566
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Weingeist

  1. Versuchs auch mit GetDataBack von Runtime Recovery. Auf NTFS-Basis für den schmalen Geldbeutel gibts kaum besseres. Obwohl ich ned ganz sicher bin ob auch reine VSS ausgelesen werdne können. Versuch macht kluch. Manchmal ist es sogar besser oder gleichwertig wie zbsp. das extrem teure Ontrack Professional. Gratis ist die Testversion wo Du siehst was das Teil findet.
  2. Habe zwar keinen wirklichen Vorschlag für ein Programm, aber meiner Erfahrung nach ist es für heikle Produktionsfreigaben oder wichtige Produktionsschritte eher Vorteilhaft zusätzlich eine aktive manuelle Freigabe zu haben. Also etwas das man bewusst tun bzw. unterschreiben muss. Vor allem für Teure und aufwendige Werkzeuge sollte es meiner Meinung nach auch drin liegen, etwas (zbsp. den 2D Schnitt) bewusst von Hand zu unterschreiben/einzuscannen oder wenigstens sowas wie "Version X.XX des Werkzeugs XXX wurde angeschaut und ist OK" inkl. Anhang des Schnitts per Mail zu verlangen. Neben dem finanziellen Aspekt ist ja dann oft auch der zeitliche in der Regel ein grosses Problem wenn etwas falsch gefertig wird. Im heutigen digitalen Zeitalter wird ein Schritt der von Hand gemacht werden muss meiner Meinung nach auch viel bewusster wahrgenommen und besser angeschaut als der typische Klick/Zack/Bumm/Fehler. Deine verlangte Aufgabenstellung sehe ich daher eher als zusätzlich Sicherheit, dass man den Kunden darauf aufmerksam machen kann, dass er die aktuellste Fassung noch nicht angesehen hat und nicht zwingend als Notwendigkeit. ;)
  3. @Daniel: War wohl doch nicht ganz so klar beschrieben. Also nochmals. 1. das ist klar 2. Grundsätzlich umschreibst Du glaub ungefähr das selbe. Allerdings bekommt man mit den grösseren 365er Abos (Ich spreche ausschliesslich von den Open bzw. Firmenvarianten) eben die Version die auf dem Terminal-server installierbar ist, mit dazu. Ist eigentlich einfach eine 2013 Pro Plus wie man sie mit den Volumen-Lizenzen erhält. Da muss meiner Meinung nach nichts separat erworben werden. Wird sogar so beworben von MS. Nur gelten da eben eigentlich deren Bestimmungen und nicht jene von 365. Pro Plus ist grundsätzlich Device basiert. Also eigentlich erhält man mit einem Device Zugriff auf die Terminal-Variante. Ist in den Pur's imho noch verwirrlich und eben noch nicht 100% ausgearbeitet worden (Wobei ich die aktuellste Variante noch nicht ganz genau gelesen habe). Anfänglich wohl auch nicht so gedacht und ziemlich sicher auf Druck der Firmen noch husch so mit hinein gepackt worden. Wohl auch um den Leuten SaaS noch schmackhafter zu machen. Man darf alles zu einem günstigeren Preis als SA für für Office. Ich hätte gerne das gleiche zum kaufen, ziemlich unfair wie ich finde. ;)
  4. Bei Office 365 wäre das Szenario zumindest geduldet wenn auch meiner Meinung nach nicht so ganz 100%ig klar umschrieben. Zumindest ist es nach MS so gedacht, auch wenn es noch nicht 100%ig so ausgearbeitet wurde. Grund: Mit 365 bekommst Du ein Office quasi pro Benutzer lizenziert wird und nicht pro Gerät. Um den Firmenbedarf intern zu decken gibts die Vol-Lizenz bei den besseren Abos mit dazu. Die ist aber eigentlich an die Bestimmungen der Vol-Lizenz gekoppelt, welche diesen Fall grunsätzlich nicht abdeckt. Da wird Dir aber kaum einer einen Strick drehen, wird wohl schlicht noch nicht richtig ausgearbeitet sein. Bedenke aber: Obwohl das ganze sogar ziemlich günstig ist, Du hast keine eigenen Lizenzen mehr, sondern nur Miete. Auskaufen ist auch nicht. Bei der kurzen Laufzeit können die Bedingungen jederzeit ändern. Alles andere ist je nach Umgebung eh so gut wie unmöglich buchstabengetreu zu lizenzieren. Ich gehe aber schwer davon aus, dass wenn Du jeden Arbeitsplatz in der Firma lizenzierst und die Anzahl Lizenzenz auf die Anzahl Mitarbeiter aufstockst, dies von MS geduldet wird. Mehr als das alle Mitarbeiter arbeiten ist schliesslich nicht möglich. Also in dem Sinne verliert MS kein Geld. Auch im Vergleich des eigentlich günstigeren 365 mit mehr Rechten. Gleiches Szenario wäre ja, wenn jeder ein Firmen-Notebook hätte und überall hin mitnimmt anstelle des Thin/Zeros. Auch wenn MS punkto Kundenfreundlichkeit in Sachen Lizenzpolitik gegenüber früher deutlich abgebaut hat, es wird nach wie vor nicht immer alles so heiss gegessen wie es gekocht wird. Wir können auch nix für den Jungle den diese Abteilung fabriziert. Ebenso sind wir nach wie vor Kunden die bezahlen, aber nicht unverschämt abgezockt werden wollen. Nur hat man wesentlich weniger Ärger wenn man das ganze im Voraus abklärt und sich schriftlich absichert.
  5. Hauptbenutzer. Da geht es um die Remotebenutzung, was aber wohl automatisch der Fall ist wenn man pro Maschine mehr als eine Lizenz hat und per RDP zugreift oder ähnlichem zugreift Dann noch: Verhindert quasi, dass man die Software auf einem Gerät installieren darf als jenes wo man es verwendet. Ist nicht Sonnenklar, aber ableitbar. Weil dies anscheinend doch noch nicht 100% ig klar ist bzw. wohl irgend eine Form von Schlupfloch gibt (keine Ahnung in welcher Kosntellation oder ob Richterabhängig), wurde es in 2010 zusätzlich verschärft: Das heisst, es wurde explizit verboten und nicht nur andeutungsweise so ausgelegt, dass man es so interpretieren muss. Im Gegenzug aus 2003: Hier wird genau dieser Fall explizit erlaubt. Sprich eine normale OEM oder FPP Lizenz war quasi gleichwertig mit einer Volumen-Lizenz. Was ich leider nicht gefunden habe ob die Nutzungsrechte des Compatibility Packs für 2003 die EULA so verändern, dass man nicht mehr Remote zugreifen darf. EDIT: Und ja ich habe das schriftliche von MS, dass sobald eine Direkte Verbindung oder auch nur eine indirekte fixe Verbindung besteht, ein Gerät zum physischen Computer gezählt werden kann. Voraussetzung ist, dass auf irgend eine Form sichergestellt ist, dass die Anzeige nicht an einem anderen Arbeitsplatz erscheint. Sobald ein Connection Brooker dynamisch zbsp. aufgrund Benutzeranforderungen die Maschinen zuweist ist aber Ende Gelände. Logischerweise kann dann ein Zeroclient nicht mehr als Zubehör des PC's angesehen werden. EDIT2: Und ja, der Vorteil ist, dass man hier nichtmal auf den Hauptbenutzer und dessen Remote-Rechte zurückgreifen muss, sondern es gehört ein Arbeitsplatz und fertig.
  6. Es geht vor allem um die Phrasen mit der Speicherung/Installation auf einem Netzwerkgerät welche das ab 2007 in der EULA verhindern. Bis 2003 war das explizit erwähnt und erlaubt. Auch bei allen OEM EULA's die ich bis jetzt gesehen habe (Gibt da evtl. auch andere). Ab 2007 ging das in die andere Richtung. Genaue Phrasen müsste ich jetzt auch heraussuchen. Was aber nach wie vor mit OEM geht - wurde mir von MS auch so abgesegnet - eine Rackworkstation mit zbsp. IP-Extender für Tastatur + Bildschirm. Zumindest solange das nicht dynamisch verteilt wird, sondern der gleiche Arbeitsplatz immer automatisch die gleiche Maschine zu sehen bekommt. Ist dann als direktes Zubehör der physischen Maschine zu verstehen. Sie meinten selbst via Internet wäre das noch denkbar, nur die Sicherstellung etwas problematischer. Mit RDP nur sehr schwer realisierbar, aber zbsp. mit PCoIP-Hostkarten sehr einfach mit Verbindungs-Beschränkungen auf der Karte und dem Endgerät.
  7. Seit Office 2007 werden für solche Installationen zwingend Volumenlizenzen benötigt. Bis 2003 war das mit vermutlich jeder (Ausnahmen sind mir grad keine bekannt) Version noch möglich.
  8. Da hat er wohl recht. Frage mich aber gerade ob das mal anders war? Ich hatte jedenfalls schon Probleme mit nicht mehr funktionierenden Hardlinks. Ist aber auch schon Jahre her. Dedupe könnte aber trotzdem sinnvoller sein. ;)
  9. Nun, dann würde ich noch eher Dedupe als Hardlinks einsetzen. Wenn Kollege 1 das Basisfile löscht auf welches die Hardlinks laufen, dann ist es für alle weg. Eher suboptimal wie ich finde.
  10. Würde eher auf Server 2012 wechseln, der kann Deduplizierung sehr gut von Haus auf. ABER: Wenn es wirklich absolut identische Dateien sind, frage ich mich ernshaft, wo der genaue Sinn darin liegt diese doppelt oder dreifach vorzuhalten. Wer ständig Fullbackups auf ein Dedupe Laufwerk zieht ok, aber Backups auf gleiche SAN wie Nutzdaten ist ja ziemlich Sinnfrei.
  11. - VmWare kann - noch - nicht Multi CPU (ändert sich angeblich in nicht allzuferner Zeit) - VmWare empfiehlt die VSA - welche ohne teure SAN für ein Transparentes Failover notwendig ist - nicht auf der gleichen Maschine sondern zwei separate, sprich minimal 4 Maschinen. Zumindest sofern ich diesbezüglich auf dem aktuellsten Stand bin. Das wird dann ziemlich heftig. Auch vCenter wird in der dicken Version gebraucht bei 4 Hosts. Kommt natürlich immer auf die Umgebungsgrösse an. @Necron: Hatte diesbezüglich vor ein paar Monaten eine Anfrage und die meinten für nen Automatisches Failback bräuchte es 3 Doubletake Lizenzen. Für manuelles Failback dagegen zwei.
  12. Selbstbau-Erstickungsanlagen: Dafür gibt es schon einen Grund, Erstickungsanlagen oder ähnlichem sind extrem gefährlich wenn sie automatisch ausgelöst werden und zbsp. einen Raum fluten. Da sollte man dann besser nicht drin sein. Da brauchts dann eigentlich Türschalter-Schaltungen Raumüberwachung der Leute oder ähnliches. Gut und günstig kann man das zbsp. mit einem abgeschotteten Notebook + Handy lösen. Sensoren ans NB. Das Notebook agiert ohne Strom, hat quasi eigene USV, das Handy ebenfals. Per Handy verschickt man dann zbsp. Mail und/oder Ruft an. Das kann man gut selber bauen und ist auch nicht wirklich komplex.
  13. Double-Take 15minuten? Das kann nicht sein. Normal ist das RatzFatz. Bitte nochmals nachforschen oder selber ausprobieren. Aber teuer sind sie ja. Vor allem für Failback => 3 Lizenzen. Der konnte das für nen SBS mit all seinen Diensten zbsp. perfekt erledigen. Ansonsten: Die aktuell wohl beste Möglichkeiten ohne eine gigantische Infrastruktur bietet von der Theorie her XenServer mit der Marathon Erweiterung. Alles was man braucht sind zwei physische Standard-Server. Da wird alles per Lockstep und sogar MultiCPU gespiegelt. Einigermassen bezahlbar ist es auch, wenn man das ganze mit gespiegelten SAN und solchen Spässen vergleicht. Prinzip ist einfach: Läuft ein VM primär auf Host A im Schutzlevel 3 und dessen Festplatten fallen aus, Läuft VM auf A weiter und zieht Daten von Host B. Fallen Netzwerk-Links aus, gleiches Spiel. Fällt der Host aus, dann gehts mit einem Ping-Verlust auf Maschine B weiter. Eine solche Flexibilität bietet sonst niemand. Grösster Nachteil: Die Community ist extrem klein, aber mit nem gscheiten Anbieter auch machbar. Ein grösserer Zugangssystem-Hersteller aus Süddeutschland setzt zbsp. fast alles so auf. Günstiger kommt man nicht auf solch ein hohes Schutzlevel. Die Anforderungen an das Storage (IOPS) kann man entweder mit LocalStorage, mit einer SAN (weniger sinnvoll wenn nur eine) oder auch nem DAS erschlagen, je nach dem was halt gebraucht wird und eben nicht zwingend eine extrem teure SAN-Struktur.
  14. Das ist gerade die Krux an den Bestimmungen. vDesktop Umgebungen mit Zugriff von überall sind fast unmöglich komplett legal zu betreiben. Von den Kosten mal abgesehen. Die grösseren Office 365 Pakete mit zusätzlichem Offline-Installatiosnrechten auf einer Maschine ist aktuell wohl der einzig sinnvolle Weg wie sowas mehr oder weniger komplett legal - und ohne sich allzu gross Gedanken machen zu müssen - betrieben werden kann, zumindest was Office betrifft. Windows an sich, fast unmöglich. --> Nur mit Server OS + RDL User. Da ha man Worldwide-Rechte mit Online-Versionen. Weil man zusätzlich nen Offline bekommt und es das gleiche Produkt ist (naja-im gleichen Paket) darf man auf die legale Kopie welche im Firmennetz lokal läuft zugreifen. Das ganze zu einem natürlich "günstigen" Preis. So sehr mir die Produkte gefallen, mir ist schleierhaft, wieso einem MS einfach nicht zugestehen will, eine Desktop VM gleich wie eine physische Maschine zu behandeln und gut ist. Auf einem Desktop-OS darf lizenztechnisch nur ein MA arbeiten, technisch kann nur einer. Also sollte es doch egal sein.... - ob er nun mit seinem Smartphone, PDA, Ipad, Tablet, Notebook von daheim oder sonstwo auf der Welt auf dieser VM arbeitet. - worauf die VM letztendlich läuft - Mitarbeiter A, B oder C drauf arbeitet Es ist im Grunde eine moderne Variante eines Notebooks welches im Firmeneingang liegt und man je nach benötigter Ausstattung zbsp. das passende an den Arbeitsplatz oder nach Hause nehmen würde. Mit nem Notebook wäre das komplett legal mit einer VM nicht. Aber nein, man wird gezwungend doppelt und dreifach zu bezahlen für die gleiche Leistung oder wird genötigt SaS in Anspruch zu nehmen obwohl man gar nicht möchte. Das wäre rechtlich absolut easy, es bräuchte keine Lizenzberater (Keks für Franz ;) ), keine komplexen Strukturen und keine horde von Anwälten um das abzusegnen, kontrollieren, durchzusetzen. Es bräuchte ne OS-Lizenz pro VM, ne UserCal pro User sowie Applikationslizenz der Wahl pro VM. Fertig. Es könnte so einfach sein. In diesem Punkt wünsche ich mir sehnlichst die alten Zeiten bei MS zurück wo das alles kein Problem war und man die Wahl hatte wie man lizenzieren und welche Services man in Anspruch nehmen wollte.
  15. Ist eigentlich ganz einfach, wenn Du per NFS freigibst und per NFS zugreifst, dann ist die Rechtverwaltung AD von Windows quasi ausgehebelt (man kann das auch koppeln). Es gelten dann nur NFS-Richtlinien/Beschränkungen/Berechtigungen. Gibst Du den Ordner zusätzlich mit der Windows-freigabe frei und greifst auch normal auf das Verzeichnis zu, dann gelten die normalen Windows-Berechtigungen.
  16. Ziemlich ja. Dafür aber auch zuverlässig und Flexibel. Ist ja wie immer eine Abwägung wie verfügbar mans wirklich braucht. Für nen SBS find ichs zbsp. ne Top-Lösung, für einzelne Maschine auch. Für ne ganze Umgebung wirds schnell teuer. Aber für den Druckserver als VM ne Kopie vorhalten und diese bei Bedarf einschalten dürfte ja eigentlich reichen. Zusammen mit nem aktuellen Backup ist das Razfaz wieder online.
  17. Betreffend Druck-Server: Als VM sowieso ziemlich entspannt. Druckertreiber aktualisierungen sind ja manchmal etwas mit Vorsicht zu geniessen. --> Übernahme der Einstellungen. Mit ner VM kannst das problemlos testen, sei es mit Snapshots oder einem Replikat. Wenn Hyper-V Replica nicht gewünscht wird, gibt es auch noch DoubleTake für physische oder virtuelle Maschinen. Die haben jahrelange Erfahrung im Replikationsbereich unter Windows.
  18. Für Fileserver schmeckt mir persönlich ein manuelles, technisch wenig anfälliges Konzept als zusätzliche oder alleinige Sicherung mit etwas kürzeren Abtänden ziemlich gut. Mache das meist so: 1. Replikation mittels DFS-R auf einen zweiten Server (ohne das Ziel in DFS einzutragen oder wenn gewünscht auch eintragen aber deaktivieren oder Schreibgeschützt setzen und auf Wunsch manuell zu aktivieren, wenn Server zbsp. tot ist) 2. Manuelles Backup auf die simpelste Art überhaupt, via Robocopy. 2.1. Auf ein Deduped Volume und immer Vollsicherung, anschliessend direkt Dedupe anstossen (Mit 2012 umsonst). Halt Bandbreitenverschwendung, ist aber unabhängig von VSS. 2.2. Synchronisierung mit Robocopy ins immer gleiche Verzeichnis. Das geht Ratzfatz. Vorher ein VSS Snapshot des Ziel-Volumes anlegen und in nem Ordner veröffentlichen mit Datum + Zeitstempel (zbsp. 2013-04-17_1212) sowie nen Wartungsscript, welches automatisch nach gewünschten Kriterien die Snapshots wieder aufräumt oder selber löschen. Inwiefern die User auf das Backup selber lesend Zugriff bekommen sollten, ist jedem selber überlassen. Da sich NTFS-Berechtigungen mit Robocopy übertragen lassen, kann man zbsp. der Freigabe nur lesend Zugriff erteilen. Dann kann niemand darauf schreiben, die Berechtigungen sind aber identisch.
  19. Der sollte das grundsätzlich problemlos erkennen. Datensicherung schadet trotzdem nie ;)
  20. Weingeist

    ReFS vs. NTFS

    Also bezüglich Fehlerroutinen ist das Teil schon Klasse. Nicht so einfach das System in die Knie zu zwingen. Habe das auf verschiedene Arten ziemlich gut durchtestet (gibt nen Thread hier von mir). Vor allem in Verbindung mit den Software-RAID Features muss wirklich jeder Mirror-Partner Müll abliefern, damit eine Datei Offline geht (nicht das ganze Volume). Sei ein solcher Partner nun ein Volume von zwei verschiedenen externen Speicherboxen welchen zbsp. ein Hardware-RAID zugrunde liegt oder gleich die physischen Discs (interessant mit SSD's --> Trim). Da Writes nicht auf bereits beschriebene Sektoren kommen und diese ersetzen sondern in neue Bereiche geschrieben werden und erst aktiv gesetzt werden wenn der erfolgreiche Write-Commit kommt, macht das File-System extrem robust. Überprüfung und Reperatur von Sektoren geschieht unter ReFs mittels Task Online ohne die Discs oder das Volume Offline zu nehmen. Regelmässig oder per manuellem Anstoss. Bei Benutzung der StorageSpaces (NTFS wie ReFs) scheint das System sehr gut zu wissen, welcher Mirror korrekte Daten liefert und korrigiert diese auf dem oder den Partner. Die fehlerhaften Discs oder DiscSets von einem externen Speicher nimmt Windows nicht Offline sondern schreibt die Daten einfach in andere Sektorenbereiche. Fällt ein solches Discset aus, schreibt es die Daten vom lauffähigen Mirror in ein Hotspare. Gibt aktuell aber auch ein paar lästige Dinge: - Keine NFS-Freigaben - Keine Deduplizierung - Keine Hardlinks - Keine Quotas - Keine Cluster-Volumes Auf den ersten Blick mag das ziemlich bekloppt sein, ein neues Filesystem welches ned mal die guten Features des alten hat. Auf den zweiten aber nicht unbedingt verkehrt. Schätze mal MS will das neue Filesystem als reines Filesystem betreiben und die Features via denn StorageSpaces implementieren. Sowohl in Form von eigenen als auch fremden Modulen. Das Filesystems wäre dann nur noch für die reine Ablage von Datenblöcken und deren Korrektheit zuständig. Was ja eigentlich auch dessen Aufgabe ist. Also kein aufbohren mit Features - das übernimmt der zusätzliche Layer (Storage-Spaces) - sondern reine Bereitstellung. Die Features wie Nachschlagwerke welche das Zusammenfassen von Files/Blocks erlauben (Hardlinks, Dedupe) liegen dann ebenfalls als Daten im Filesystem. Diese haben dann automatisch den gleichen Schutz wie die eigentlichen Daten, da sie ja auch als solche abgelegt werden. Das ganze System wird so theoretisch sehr viel robuster, ziemlich sicher auch performanter (Auslagerung der Nachschlagewerke auf andere Disc-Sets usw.) und bietet massig Optimierungsmöglichkeiten für Caching, Dedupe usw. Wird aber auch komplexer. Software-Fehler in einem Nachschlagewerk führen unter Umständen unweigerlich zu massivem Datenverlust. Restore bzw. Rep von zerschossenen StorageSpaces wird wohl nahezu unmöglich werden. Ist aber bei grösseren SAN-Boxen auch nicht besser. Auch da muss die Software ordentlich sein. Soweit meine Einschätzung, wir werden sehen wo das hinführt, ich sehe die Entwicklung diesbezüglich jedenfals positiv. SAN Features unabhängig von Hardware-Hersteller. Gesplittet auf mehrere Partner (zbsp. wie bei DAG bei Exchange) ohne wirkliche Abhängigkeit zueinander (wie bei MS-Cluster) mit beliebigen Skalierungsmöglichkeiten je nach verwendeter, zugrundeliegender Hardware. Die Funktionalität sowie Art der Ablage der Daten ist immer die gleiche. Um zu Deiner eigentlich Frage zu kommen: NTFS ist bereits ziemlich robust, bietet für sich mehr Features als ReFs. ReFs ist dagegen extremst robust (Art der Speicherung, freie Bereiche). Steht nur ein Hardware-RAIDset ohne darüberliegenden Software-RAID durch Windows zu Verfügung, werden die Files bei ReFs Online aus dem Filesystem gelöscht ohne dass das Volume wie bei NTFS für Checkdisk offline muss. Bei Verwendung des Software-RAID-Features der StorageSpaces werden die Daten eines sauberen Disc-Sets genommen und die korrupten korrigiert. Kannst du also auf all die Features die aktuelle NTFS bietet verzichten, dann nimm gleich ReFs. Brauchst Du eines davon, nimm NTFS oder erstelle eine VHD auf einem ReFs welche selber als NTFS formatiert ist.
  21. Internetberechtigungen setzen wäre soooooooo easy mit dem TMG :( Ansonsten: Internet Ja/Nein könntest auch über die Windows-Firewall steuern. Da kannst ja auch Filter für Benutzer und Computer setzen. Müsste auch funktionieren. EDIT: Bei neueren OS
  22. Habe auch noch ein solches Stück Software am Start und kann Dir sagen, dass es für viele alte Parallel-Dongles fast keine einfachen und stabilen Lösungen gibt. Habe mich ziemlich lange damit beschäftigt. Sowas wie Serial-To-Lan für Para kannst komplett vergessen. Gibts keine die mit allen Dongles funktionieren. Es gibt so eine Selbstbauvariante (müsste ich suchen) wo zumindest eine Art von Dongles so verfügbar gemacht werden kann. Manche von Ihnen lassen sich mit entsprechenden Treiber komplett fast auf Knopfdruck mit entsprechenden Programmen emulieren, das ist aber sehr Dongle-Prinzip-Abhängig. Klappt bei meinem nicht, also einen alten PC mit Windows 98 vorhalten. Prost. Dongle-Kommunikation läuft überhaupt nicht unter etwas neuerem. Es gibt aber durchaus Mittel und Wege einen Emulator spezifisch auf genau Deinen Dongle selber zu bauen. Rechne mit ein paar Wochen Aufwand... Keine Ahnung ob das in einem solchen Fall legal wäre.
  23. Für den ESXi kannst ja problemlos NFS anstelle von iSCSI nehmen. Das ist normal doch etwas stabiler als iSCSI auf diesen Büchsen (QNAP/Synology). Imho reicht das für Testzwecke und Backup für Kleinumgebungen locker aus. Datensicherung kriegst auch gut via Windows aus dem System (per CIFS) und kannst so zbsp. eine Kopie der Backupplattn sehr einfach vorhalten. Abstürze der Box - sollten sie mal vorkommen - haben in der Regel auch keine so grossen Auswirkungen. Mit iSCSI und VMFS als Filesystem ist das wieder eine andere Baustelle.
  24. Alleine wegen der Akku-Tauschbarkeit würde ich schon kein Apfel-Produkt kaufen. Meist fehlende DVD-Laufwerke zum zweiten. ;) Ansonsten: Die kleinen HP 6470b sind zum Beispiel extrem leise + werden nicht heiss wie sau. Bin da ziemlich begeister von. Auch die teuren T-ThinkPad von Lenovo sind gut. Beiden kann man mit ner Nachgerüsteten gscheiten SSD zum fliegen bewegen (Deutlich billiger und robustere Modelle als direkt). ;)
  25. Warum sollte das mit DFS nicht klappen? Access kann damit prächtig umgehen. Ist auch sinnvoll. Würde halt keinen Replikationspartner und auch kein zweites Ordnerziel eintragen bzw. diese deaktivieren und die DB regelmässig manuell replizieren (robocopy-Task). Bei nem Ausfall machst manuell eine Umschaltung auf dem DFS-Stamm bzw. aktivierst das Replikat.
×
×
  • Neu erstellen...