Jump to content

Weingeist

Members
  • Gesamte Inhalte

    1.566
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Weingeist

  1. Anbei noch auf was Du achten solltest bezüglich Hardware, oft kommt von nem Systemhaus folgendes an: - überdimensionierter Server mit Dual-Chipsatz dafür eine lahme CPU verbaut (gibt auch gute Server mit Single CPU und Dual-Netzteilen zu deutlich günstigeren Preisen mit teilweise deutlich mehr Performance) - zwei oder drei lahme HDD's (Deren vier sollten es immer sein z.B. im RAID 10, dann noch ein Hotspare. mind. 10'000 Umdrehungen bei 2.5 und 15'000er bei 3.5") - Mini-USV interaktiv (Online sollte es sein, lieber zwei davon, gerne auch gebraucht mit neuen Batterien, 2000er oder 3000er von nahmhaften Hersteller wie APC oder Eaton)
  2. Die dinger von APC funktionieren erste Sahne. Habe davon auch ne kleine Leiste im Einsatz für Bildschirm, Modem, Wartungsswitch (IPMI) usw. Als Non-Rack ist mir aber nichts bekannt, Elektriker fragen. Die üblichen verdächten wie Phönix-Contacts, Schneider Electric oder Eaton haben aber eventuell was im Programm.
  3. Nun, ein E-Mail Dienst muss heute grundsätzlich immer 24h am Tag, 7 Tge die Woche laufen. Unabhängig von der Betriebsgrösse oder? Bei den Providern funktioniert das normalerweise 1A. Deshalb ja auch der Wunsch, den Server eben grundsätzlich nicht In-House zu betreiben, weil das die Kosten enorm hochtreibt um das gleiche Level zu erreichen.
  4. Danke für die Inputs! IP ist da nur folgendes möglich: - Feste IP, miese Geschwindigkeit, bezahlbar - Feste IP, hohe Geschwindigkeit, unbezahlbar - Dynamische IP, hohe Geschwindigkeit, günstig Exchange - Aktuell noch nicht vorhanden. - Als Mailserver mit der entsprechenden Verfügbarkeit Kostenmässig (jetzt nicht rein lizenztechnisch gesehen) auch etwas oversized. Ist ein sehr kleiner Betrieb. Als Datengrab ok wenn auch Perlen vor die Säue. Backup MX beim Provider kommt für mich ned in Frage. Zu viele Nachteile. Aktuell sind da zwei IMAP-Postfächer bei nem Hoster. Funktioniert grundsätzlich ja 1A. Solange eben die Postfächer nicht enorm gross sind. Praktisch kein Unterhalt und dennoch hat man immer alle Mails verfügbar, inklusive der gesendeten. @Mr. Cocktail: Nun, mich betrifft das ja eigentlich nicht sondern ein Kunde. Suche da aber eh was generell intelligentes, einfaches, bezahlbares (Unterhalt wie Anschaffung). Sind ja fast überall die selben Probleme bei den kleinen. ;) VPN-Gateway wäre tatsächlich eine Möglichkeit. Da ist aber eben Exchange wieder der primäre Mailserver. Wollte ich eigentlich vermeiden (Verfügbarkeit usw.) Eine separate Mail-Archiv-Lösung schmeckt mir und vor allem dem Kunden halt ned, weil es nicht direkt im Posteingang jedes Mailprogrammes abrufbar ist. @Squire: Aktuell mache ich noch gar nichts sondern betreibe lediglich "Brainstorming". Weil mir bis jetzt keine Variante gefällt, frage ich ja nach. DynDNS will mir auch nie so richtig gefallen.
  5. So kompliziert beschrieben? =) Ziele 1. Ein neuer Client nicht wieder den kompletten Krempel mit allen Anhängen herunterladen muss 2. Jeder Client alle Mails zu Verfügung hat, über Jahre, nicht Tage 3. Die Clients nicht jeder X Gbyte an Daten hat 4. 10 MB files innerhalb nullkommanix verfügbar sind (LAN-Geschwindigkeit) 5. Kein eigener E-Mail Server im Internet, keine statische IP Bis jetzt ist mir nicht ganz klar wie man das Problem gscheit erschlagen soll. Danke noch für den Link, schaue ich mir mal an!
  6. Weiss jemand was dazu oder hätte jemand ne bessere Lösung? Bin eigentlich offen für alles wenn es nicht zu kompliziert wird. Sollte irgendwie sinnvoll verwaltbar sein. Habe auch noch ein paar Ideen aber so 100% überzeugen tut mich bis jetzt nichts. Idee 1: - Ein Client mit POP3 Abfrage, der speichert alles. Zusätzlich via IMAP-verbinden um alle gesendeten Objekte aller Clients zu haben. - Restliche PC's mit IMAP, da wird alles nicht aktuelle gelöscht --> Suchen von altem Material geht dann nur auf dem einen PC der so quasi als Archiv funktioniert. Wird etwas gelöscht das noch nicht abgerufen war, isses weg. War schonmal so. Ist Quark weil immer das fehlt, was man haben möchte nebst dem vorher genannten. Auch müssen die gesendeten Objekte der anderen Clients manuell verschoben werden. Idee 2: - Ein Client ruft alle E-Mails ab und schiebt sie (auch) auf den Exchange (Manuell oder Automatisch innerhalb von Outlook). Was der nicht abruft, kommt ned auf den Server. - Alle anderen sehen nur Mails die im Exchange sind - Senden können die Clients via Exchange, der Exchange funktioniert als Relay oder direkt via Provider. --> Hängt alles vom einen Client ab ob die Leute was sehen. Vorteil, Chef übernimmt quasi gleichzeitig eine Filterfunktion. Die Angestellten sehen nur, was sie zu sehen haben. Auf IMAP wird gelöscht, was der Chef gelöscht haben möchte (Schlank). Evlt. nen AddIn damit er mit rechter Maustast damit Mails per Mausklick rübergeschoben werden. Zentrale Gesendete Objekte sind evtl. auch hier problematisch. Idee 4: - Klassischer Pop3 Connector der die ankommenden Mails fleissig abholt. --> Problematisch für gesendete Objekte. Oder Exchange eben für alle als Relay beim senden. Auf Exchange und Provider Mails speichern. Idee 3: - Die virtualisierten Clients kommen auf ein Dedupe-Volume und man schert sich ned um den Speicherplatz innerhalb des Clients und den unnötigen Traffic. IMAP wie bis anhin. - Evtl. separates Volume für E-Mails damit SystemVolume nicht so aufgebläht wird --> Backup/Recovery --> Total aufgeblähte Clients. Recovery unpraktisch/lahm. Internet-Server muss auch alles bereitstellen. Bei separatem Volume schnelleres Recovery. Alle diese virtuellen Volumes auf eine dedupliziertes Storage - welches evt. wiederum ein virtuelles Volume ist - lagern und direkt unabhängig vom Client sichern. Ein Client komplett sichern falls das Recovery des deduplizierten Storages nicht wie gewünscht verlaufen ist. Vom E-Mail Store dann ne Kopie auf alle anderen Kisten machen (etwas langwieriger). Schick wäre echt ein Sync-Tool. Gesehen habe ich sowas aber noch nie. Dürfte auch One-Way sein. Also dass nix automatisch auf dem Exchange gelöscht wird, sondern nur auf dem IMAP-Server des Providers. Senden dann ausschliesslich via Provider. Der Exchange muss sie "nur" irgendwie erhalten. Muss doch irgend eine gscheite Lösung für diese Problem geben. Vielen Dank für Inputs.
  7. Hallo Leute, Klingt jetzt vielleicht doof, aber könnte man einen Exchange auch einfach als zentrales Datengrab für externe E-Mail Adressen benutzen? Problem/Hintergrund: - externe E-Mail-Konten (IMAP) - viele Mails mit grossen Anhägen - Mehrere Clients welche die gleichen Mails abrufen - ergibt neben viel Traffic auch sehr viel lokaler Datenspeicher auf jedem Client - Dateien nur auf dem Internet vorhalten ist nicht sinnvoll, weil dann jedes mal ewig dauert bis die Datei kommt - sehr wenige verschiedene Adressen Den Exchange selber als "richtigen" Mailserver benutzen wollte ich jetzt nicht. Die Internetanbindung ist dynamic DSL und die Verfügbarkeit beim Online-Anbieter mit Sicherheit besser. Auch muss man sich ned selber um die Veröffentlichung des Servers im Internet Gedanken machen. Auch hat jedes ERP-Programm eine Exchange-Anbindung. Auch die E-Mails extern speichern ist irgendwie wenig Praktikabel für die Übersicht und Suche. Hat das schonmal jemand gemacht und ist das vernünftig ohne Basteln machbar? Hatte früher mal mit Pop3-Connectoren unter SBS-Server zu tun. Hat eigentlich sehr gut funktioniert, Zeitversatz war aber relativ lästig und das nicht via Exchange versendete E-Mails nicht angezeigt wurden. Grüsse und Danke für Inputs
  8. @daabm: Nicht ganz. Das Eventlog spuckt den Kram nicht einfach so aus. Das der Firewall auch nicht. Ohne Nachhilfe mit Auditpol gibts nix, das an einem tatsächlich weiterhilft. Taucht auch nicht da auf wo Du und auch ich es vermutet hat sondern im Haupt-Reiter Sicherheit wo auch Benutzeranmeldungen geloggt werden.
  9. Die Glaskugel sagt: - SBS, Kleinunternehmen - Bis jetzt hattet ihr nix mit Replikation, Always-On, Lockstep und enorm kurze Ausfallzeiten am Hut. Ergo muss man sich fragen ist das tatsächlich gebraucht wird oder ob es einfach nur unter die Kategorie lästig geht wenn die Systeme maximal ein paar Stunden flach liegen oder ein paar Stunden Daten weg sind und einfach wieder eingegeben werden können. Das meinen die Jungs hier mit Anforderungen definieren. Ein paar Stunden Arbeit rechtfertigen z.B. selten die Kosten von Replikation- oder FT-Lösungen. Nicht nur von der Anschaffung sondern auch im Unterhalt. In fast jeder Kleinumgebung ist es sinnvoller sich das ganze TamTam mit Replikation, Cluster oder FT zu sparen und die Backupstrategie, sowie Primär- und Backupspeicher entsprechend performant auszulegen damit ein Restore sowie die Sicherung in der gewünschten Frist gemacht ist. Notfalls mit SSD-Systemen auf beiden Seiten. Das brauchst bei den FT und Replikations-Geschichten neben dem entsprechenden Know-How nämlich sowieso wenn die Anforderungen entsprechend hoch sind und ein solches System in Erwägung gezogen wird. Sprich die ganze Software und Hardware ist immer zusätzlich und kostet ein Vermögen. Die Fehleranfälligkeit für Misskonfiguration + falscher Reaktion im Fehlerfall (egal ob automatisch oder manuell) oder bei Hardwarefehler ist zudem bedeutend höher und sollten entsprechende Spezialisten machen. Eine normale Backup-Recovery Umgebung kriegt auch ein normaler IT-Techniker gut hin. Und auch hier bekommt man die Kohle schneller raus, als einem lieb ist wenn man es auf die Spitze treibt. Sprich das meiste davon muss eigentlich schon vorhanden sein, bevor man über die "richtigen" Always-On System nachdenkt. - Mehrere Server, Ersatzteile vor Ort, Kompletten Ersatzserver - Sehr schnelle storage-Systeme für schnelles Full-Recovery beim Primärspeicher sowie Backup welche mehrfachsicherungen pro Tag zulassen - Infrastruktur redundant - jeweils zwei potente USV's für Primärsystem und Backup in separaten Brandabschnitten oder Gebäuden - separate Absicherungen im Stromkasten - evtl. zwei getrennte Einpeisungen vom Stromanbieter - Notstromaggregat - zwei ISP's für Internet, Backupanbindung über Mobilfunknetz usw. - Switches, Sämtliche Netzteile usw. Klar kann man auch Kompromisse an den ein oder anderen Stellen machen, vorher muss man aber eben definieren was tatsächlich wichtig ist. - Ist es wichtig dass keinerlei Daten weg sind wie z.B. wichtige Live-Aufzeichnungen von Prozessen die nicht mehr wiederbeschafft werden können *1) - Ist es wichtig, dass die Systeme immer verfügbar sind oder spielt es nicht so die Rolle wenn mal ein paar Stunden nix geht (sprich z.B. einfach 5 Leute nix arbeiten und nach Hause geschickt werden müssen) - Ist alles zusammen extrem wichtig fürs Geschäft - usw. zu 1*) auch hier gibt es vielleicht sinnvollere Ansätze als FT/Replikation. z.B. Anpassung der Software z.B., dass sie direkt auf zwei unabhängige Ziele schreibt. Von daher wie die Vorredner schon sagten: Es gibt Vor- und Nachteile von verschiedenen Lösungen nur in Abhängigkeit von dem, was man erreichen möchte, was tolerierbar ist und im Endeffekt finanziert werden muss.
  10. @websurfer: Bei Backup auf iSCSI ist eine gewisse Vorsicht geboten. Du musst bei einer allfälligen Wiederherstellung in der Lage sein, den iSCSI-Datenträger für die Wiederherstellung überhaupt anzusteuern. Auch wenn dir das NAS hops geht, ist das Recovery nicht wirklich easy vom RDX zu einem iSCSI-NAS. Womöglich dann noch auf ein anderes Modell Das ist grosser Murks. Zudem sind diese ganze günstigen NAS eben NAS und keine gscheiten iSCSI-Controller. Fileservices ist ihr Gebiet, nicht Blockstorage. Auch der ganze Daten-Traffic und dessen Absicherung ist auf Files ausgelegt. Das können die Dinger ziemlich gut. Bei iSCSI ist Ärger vorprogrammiert, glaube mir. Habe mein Lehrgeld auch bezahlt. Die sind einfach nicht so richtig dafür gemacht. Das ist nur schnell eingerichtet aber defintiv alles andere als schnell wenn man es dann mal braucht. Würde ich allerhöchstens als Primärspeicher nehmen (auch da eigentlich lieber NFS), aber niemals als Backup. Wenn das Budget schon nicht so gross ist, würde ich eher etwas in Richtung virtuellem Datenträger auf einem NAS machen. Da bleibst beim NAS bei Files und bei Windows bei "Block-Storage". Das ist - viel sicherer, jedes Gerät arbeitet in seiner Domäne - deutlich einfacher wiederherzustellen - sehr viel einfacher auf andere Datenträger zu kopieren, zurückzukopieren usw. --> Kann mit jedem OS, Script etc. auf irgendwas erledigt werden - Kanns auf dem gleichen Volume auch mehrere Computer sichern. Jeder hat sein(e) Datenträger.
  11. @MagHeinz: Da hast Du sicher nicht unrecht. Vielleicht ist es aber immerhin ein Anfang. Vielleicht auch nicht. Richtig helfen würde diesbezüglich sowieso nur, alles Offline zu nehmen. =) Die Illusionen das es gegen professionelle Angriffe/Software etwas nützt habe ich natürlich nicht. Egal ob von Extern oder durch eine Applikation. Dem OS an sich misstraue ich ned. Nur gewissen Diensten, Aufgaben und Apps. Wenn es nix nützt, war es immerhin gut um die Verkettungen/Abhängigkeiten der Dienste, Programme und Server besser zu begreifen. ;) Ansonsten für alle die es interessiert: Auditpol hat die gewünschten Ergebnisse im Ereignislog ausgespuckt. Zusammen mit ProzessID, Programmname, Protokoll etc. Also das was meiner Meinung nach eigentlich das Log der Windows-Firewall ausspucken müsste. Englisches OS: auditpol.exe /set /category:"Object Access" /subcategory:"Filtering Platform packet drop" /success:disable /failure:enable Deutsches OS: auditpol.exe /set /category:"Objektzugriff" /subcategory:"Filterplattform: verworfene Pakete" /success:disable /failure:enable
  12. Hehe, ist doch tatsächlich ein Krankheitsbild davon... =) Da flüstert immer einer ins Ohr ich müsse die Software möglichst am Sammeln und übermitteln hindern. Muss ich mir Sorgen machen oder darf man es als "geht-mir-auf-die-Eier" abtun oder läuft das schon unter Verleugnung und forgeschrittenem Krankheitsbild? *lach* Danke für das Script, sieht vielversprechend aus!
  13. Dankeschön für die Antworten. @daabm: Schön wärs. Da wird leider gar nix punkto Paket drop gelogt sondern nur wenn an den Regeln geschraubt wird. @magheinz: Nun, das kann man sehen wie man möchte. Meine Beweggründe sind - neben gewissen Sicherheitsbedenken - eher in meiner Abneigung gegenüber moderner OS und Apps und deren Datensammlungswut und Nachhause-telefoniererei begründet die sich nicht ohne weiteres für einen einfachen User per GUI abdrehen lässt. Das soll aber hier nicht das Thema sein. Ich möchte nur wissen wie ich zuverlässig aufzeichnen kann, welches Programm, Dienst, Prozess etwas senden möchte oder gesendet hat. Nichts weiter. @blub: Du meinst Paranoia ;) Naja, die meisten kleineren Unternehmen haben ja nicht wirklich eine "richtige" Firewall sowie einen extra Kollegen der den Kram auswertet. Da hat man den Provider der einem einen Teil davon abnimmt und sonst hängen die Kisten quasi direkt im Netz. Ein wenig Selbstschutz - selbst wenn es "nur" die Windowsfirewall ist - kann nicht schaden. Danke für die Links! @DocData: "Ergo: Selbst ist der Mann. Alles zu und dann sukzessive öffnen. Oder einfach ausgehend alles erlauben und dann am Perimeter ansetzen." Und genau deshalb möchte ich ja etwas, wo ich sehen kann wer was und wo sendet und geblockt wird, damit ich das selektiv zulassen kann. Aktuell geht das nur sehr mühsam via Tasklist und arp zusammen mit dem Firewallprotokoll und etwas Rätselraten. Wenn der Prozess aber bereits beendet ist, sieht mans ned mal. Etwas gefunden habe ich doch noch, mal sehen ob es den gewünschten Effekt bringt. Auditpol.exe. Mal sehen ob die Prozess-ID tatsächlich mitgeloggt wird.
  14. Kann auch nur empfehlen die Timeserver-Geschichte gscheit aufzugleisen. Deine Probleme kommen wie die Vorredner schon sagten, gerne von Zeitdifferenzen. Die schicke Anleitung von Norbert ist da sehr hilfreich für die Konfiguration. Gerade in Verbindung mit einem ESXi und virtualisiertem PDC und vor allem bei mehreren DC's empfiehlt es sich aber schon, dass der Host bereits über eine korrekte Zeit verfügt. Irgendwoher nimmt sich der Client ja mal die Startzeit, auch wenn er sie anschliessend korrigiert. Was ich auch schon mehr als einmal vorgefunden habe, waren schlechte LAN-Kabel. Die bewirken das gleiche Fehlerbild mit Clients die einfach so nicht mehr "sicher" sind. Also z.B. ehemals für 100 verlegt und jetzt mit 1000 Gbit drüber. Da werden unter Umständen so viele Pakete verworfen, dass keine saubere Kommunikation stattfinden kann auch wenn es zum arbeiten funktioniert. --> Abhilfe hier: neue Leitungen, Ports am Switch manuell drosseln oder einen kleinen 100er Switch mit in die Leitung hängen. Mit Wireshark sieht man wieiviele Pakete "verloren" gehen. Den ESXi mag ich persönlich ned so direkt in der Domäne/Internet. Leider bleibt einem meist nichts anderes übrig wenn man nicht über einen eigenen physischen Zeitserver verfügt. Einigermassen bezahlbar gibts die z.B. von einem deutschen Unternehmen namens Meinberg. Die haben auch Geräte mit mehreren getrennten LAN-Ports um die verschiedenen Netze zu trennen. Ansonsen gibts noch die Möglichkeit das jeweils manuell zu machen und zu schauen, dass der Host immer weniger als 5 minuten abweicht. Dann gibts eigentlich auch kein Probleme. Ausser das es der ESXi nicht so mit der Zeitumstellung hat. Oder Du erstellst eine zweite Netzwerkkarte vom DC zum Host und schaltest die Verbindung nur ab und wann frei. Leider lässt sich ja die Windows-Firewall nicht pro Adapter konfigurieren wie das z.B. mit dem TMG möglich wäre und so das ganze sicherer wäre. Da könnte man nur das Zeitserverprotokoll/Port auf diesem Adapter freigeben.
  15. Hallo Leute, Seit einiger Zeit beschäftige ich mich - wieder einmal - etwas ausführlicher mit der erweiterten Firewall bzw. vor allem mit dem ausgehenden Datenverkehr. Für den eingehenden Verkehr gibt es ja wunderbare, vorgefertigte Regeln für Rollen, Anwendungen oder Dienste. Das trifft für den ausgehenden Verkehr leider nicht im gleichen Masse zu, dieser ist standardmässig auf Durchzug gestellt. Möchte man also standardmässig Blockieren und nur den gewünschten Verkehr zulassen, fangen die Probleme an und Windows funktioniert nicht mehr Out-Of-The-Box mit Standardeinstellungen. Auch vorgefertigte Regelsätze sucht man vergebens. Nicht einmal für DNS/AD gibts solche die eine zuverlässige Kommunikation ermöglichen. Kennt jemand Literatur - am liebsten von Microsoft - welche für die verschiedenen Windows-Dienste und Rollen nich nur die notwendigen Ports, sondern auch die entsprechenden Dienste, Programme, Anwendungsgruppen auflistet? Wenn Windows schon die Voraussetzungen bietet die Ports nur für den entsprechenden Zweck freizugeben, wäre es schön, wenn man auch wüsste wer was genau braucht. Leider habe ich trotz bereits mehrfacher, stundenlanger Recherche keine Möglichkeit gefunden, der Firewall ein besseres Log zu verpassen wo neben der IP sowie den Ports auch Programme, Dienste etc. mitgeschrieben werden welche einen Zugriff ausgelöst haben. Dann wäre die Bildung eigener Regeln relativ einfach auch wenn vorgefertigte Regelsätze von MS natürlich wünschenswert wären. Grüsse und vielen Dank!
  16. So ungewöhnlich ist diese Konstellation gar nicht. Gemeinschaftspraxen von Ärzten mit einem gemeinsamen Computersystem aber eigener Buchhaltung laufen z.B. genau in diese Richtung. Es gibt zudem auch vielfältige Gründe bei Firmen. z.B. eine Kleinfirma welche Ihre Grosskunden über eine Zweitfirma beliefert, damit im Falle eines riesigen Schadens das Hauptgeschäft nicht gleich Konkurs ist. Es gibt eigentlich nur eine saubere Variante wenn die eine Firma nicht dem gleichen Eigentümer gehört. Mitarbeiter mit Computer-Kontakt sind bei der Firma angestellt, welche die Lizenzen und Hardware besitzt. Die Firma muss dann die Dienstleistung für Büro-arbeit weiterverrechnen.
  17. Oh doch, die PDC-Emulator-Rolle ist ein SPOF. Auch ältere Software braucht ihn teilweise. Jeder andere DC ist sein Backup oder Hot-Standby. Kein einziger übernimmt seine Rolle automatisch. :-P
  18. Da gabs ja noch was =) Wir drehen uns im Kreis. Wie gesagt, ich stimme zu, dass es nicht im Sinne der alten/klassichen BDC-Definition so ist. Dennoch übernehmen die anderen DC's eine Backupfunktion für die FSMO-Rollen. Von mir aus auch als Hot-Standby. Lassen wir es einfach dabei und ich hüte mich, das nochmals mit der Abkürzung BDC zu nennen. Soll ja ned jeder Thread so ausarten mit einer Defintions-Diskussion über ne Abkürzung. Von wegen weit weniger wichtig: Bei DFS bekommt man massive Probleme wenn der PDC-(Emulator) ausfällt und dieser auch zugleich das Primärziel eines Ordners beherbergt. Sehr viele - natürlich vor allem kleinere Umgebungen - haben auf dem DC mit der PDC-FSMO-Rolle (norm. auch die anderen) auch die Primären Ordnerziele des DFS am Start, da der DC auch der Haupt-Fileserver ist. Ma kann dann ned mal das Ordnerziel switchen auch wenn es ein zweites geben würde. Automatisch schon gar nicht. Insofern ist diese Rolle also sehr wichtig wenn man alles auf DFS-Ziele auslegt und somit ein SPOF für die Struktur. Insofern auch tatsächlich eine Art PDC im klassischen Sinn. Es ist schlicht noch nicht Fehlertolerant ausgeführt wie die ganzen anderen Arbeiten eines DC's. Sprich die anderen DC's welche diese Rolle nicht haben, sind eben ein Backup. Bei den anderen Rollen ist das nicht so gravierend im täglichen Betrieb. Schema-Änderungen fallen z.B. ja kaum in einen Recovery-Zyklus eines DC's. Im Grund ist es natürlich ein Designfehler wenn dem so ist, aber es ist gängige Praxis weil nicht viele von dieser PDC(-Emulator) Abhängigkeit wissen.
  19. Weingeist

    Suche Dokumentenscanner

    Hallo Zahni, die Panasonic klingen auch gut. Vielen Dank! Werde die Gerät mal testen. Eventuell wollen Sie gleich ein Multifunktionsgerät im Büro mit Drucker, Fax und allem Pipapo. Mal sehen...
  20. @DocData: Das müsste - nach meinem Wissenstand - eigentlich genau anders rum sein. Bei 1+0, also richtigem RAID10 muss immer ein Partner da sein der die Disc spiegelt. Aber selbst bei 0+1 gibt es meines Wissens solche, die es so implementieren, dass eben darauf rücksichtig genommen wird, wo die spiegel eben liegen. Raid 6 kann in der Theorie ab einer gewissen Anzahl Discs ja tatsächlich schneller lesen als RAID 10 bei der gleichen Anzahl Platten. Allerdings spielen ja da auch Latenzen und Rechenleistung sowie Arbeitsspeicher der Controller eine Rolle was die Theorie in der Regel eben Theorie bleiben lässt. Bei den Controller die ich bis jetzt hatte - das reicht halt nur bis entry-level SAN - war RAID 10 sowohl beim lesen auch beim schreiben immer schneller.
  21. Wenn man nicht gerade über ne richtig teure - keine Einsteiger - SAN verfügt, würde ich nach Möglichkeit immer auf RAID 10 setzen. Allerdings eben mit nem guten Controller und keinem Pseudo-Controller. - Write-Speed - Wiederherstellungszeit, Wiederherstellungsbelastung auf die Festplatten. Bei RAID 10 wird normal einfach die Platte Sektor für Sektor kopiert. Quasi in einem Rutsch. Bei RAID 6 brauchts zusätzlich die Paritiyberechnungen. Zusätzlich hat man eine 100% Belastung auf allen Platten und nicht nur dem Spiegelpartner. - Datensicherheit - wobei das einigermassen relativ ist. Läuft auf ne Wahrscheinlichkeitsrechnung hinaus. Bei RAID 10 darf von jedem Paar eine Platte ausfallen. Also theoretisch die hälfte der Platten. Fallen aber ein Paar aus, ist essig.) - Dann noch das eigentlich unmögliche bei gscheitem Backup: Kosten für ein allfälliges Datenrettungsunternehmen sollte so richtig alles schieflaufen. EDIT: Ausser man hat tatsächlich ein Platzproblem...
  22. @Norbert: Es ist auch heute nach wie vor nicht so, dass alle DC's "gleichwertig" sind (Das weisst Du ja logischerweise auch). Die FSMO-Rollen sind Einzelmaschinen. Auch wenn sie getrennt sein können. Insofern sind die anderen Backups. Von mir aus können wirs gerne beenden. Ich habe meine Meinung Du Deine, keiner rückt davon ab. Diskussion führt also zu keinem Ziel. Dass ich es je nach dem nicht für alle klar geschrieben habe was ich meine, gebe ich gerne zu. Da fällt mir kein Zacken aus der Krone. @DocData: Du verstehst meine Aussage nicht. Gilt natürlich für alle FSMO-Rollen. Sämtliche DC's die keine FSMO Rolle haben sind nach meiner Auffassung faktisch BDC's für die nicht-innehabenden Rollen. Sie können diese Aufgabe nicht ohne zutun übernehmen. Ist also ein Backup. Ob das nun technisch identisch gelöst ist wie früher ist imho irrelevant. Aber egal. Beenden wir das einfach.
  23. Och, wens MS das selber so macht und dann wohl auf Druck der Marketing-Abteilung ändert? Da wird es schon so sein. Hat dann nimmer viel mit pauschalisieren zu tun. ;)
  24. Sehr schön. Dann sind wir immerhin der gleichen Meinung, dass wir anderer Meinung sind. :D
  25. Schon möglich. Anfang Jahr wars noch defintiv so. Korrekt wäre die 6.4 trotzdem. Ist immer noch der gleiche Unterbau. Da hat sich ned allzuviel dran geändert. Aber mit den ganzen hinzugekommenen bzw. verbesserten Spy-Features hat es die 10 schon verdient. Ist diesbezüglich ein Wurf. :D
×
×
  • Neu erstellen...