
magheinz
-
Gesamte Inhalte
2.414 -
Registriert seit
-
Letzter Besuch
Beiträge erstellt von magheinz
-
-
Einfach mal die VM abschalten während ein ping läuft.
Das Gesicht der Admins ist Immer wieder schön zu sehen wenn es plötzlich weiter Antworten gibt.
-
Moin,
dann solltet ihr darüber noch mal nachdenken. Exchange mit Netapp-DP oder gar TP ist Perlen vor die Säue. Den teuren Speicherplatz kann man besser für Systeme verwenden, die das brauchen, weil sie nicht wie Exchange selbst bessere Mechanismen für "Verfügbarkeit und Geschwindigkeit" haben.
Wenn Geld keine Rolle spielt, kann man das natürlich machen. Dann hätte ich gern mal einen Termin bei euch. :D
Gruß, Nils
Was heißt Geld spielt keine Rolle? Die netapp kauft man per Rahmenvertrag. Damit steht der Storageanbieter fest. Für Server gilt das gleiche. Ein Kauf an den Rahmenverträgen ist nicht erlaubt.
Man könnte jetzt zu kleineren Geräten des gleichen Herstellers greifen, muss dann aber auch unter Umständen die Admins neu schulen.
Diese Perlen können also durchaus berechtigt sein da man nicht nur die reinen Anschaffungskosten sehen darf.
Ein Verzicht auf Rahmenverträge verlagert die Kosten von der IT in den Einkauf und bringt viele Probleme mit sich. Man ist recht schnell bei europaweiten Ausschreibungen. Da gewinnt man auch nichts.
Geld spielt durchaus eine Rolle, doch die Optionen sind in manchen Umfeldern einfach eingeschränkt.
Sag ich doch. Weils halt da ist. Nicht Weils für Exchange sinnvoll wäre. Exchange ist in so einem Szenario meist nur etwas was zwar jeder will und braucht, aber inzwischen eigentlich sinnvoller entkoppelt vom zentralen Storage zu betreiben. Macht halt kaum jemand, weil Mans halt hat. ;)
Alles andere ist im Gesamtbild halt auch unwirtschaftlich.
Laut MS kann man ab drei Knoten ja auch auf Backup verzichten. Macht das irgendwer wirklich?
-
Stimmt, fällt mir nur schwer doppelte Parity und dreifache Datenhaltung sinnvoll in Einklang zu bringen. ;)
Weiß ich doch. :)
Ich kenne das, nur stellt sich im Fall von mehrfach redundanten Daten irgendwann die Frage, warum man dann eben alles auch noch auf so teuren Storage packen will/muss.
Naja, oder daraus, dass man halt so ein Storage schon da hat und dann irgendwann nicht mehr "umbauen" will/kann. ;)
Bye
Norbert
Die doppelte Parity kommt auf Grund der Anforderungen an den Storage welcher zentral ist. Doppelt weil ein rebuild bei heutigen Plattengrößen länger dauert als das man sich auf eine Parity verlassen möchte.
Die drei DAG-Knoten kommen aus der Anforderung an den Dienst: zwei laufen im Primärsystem und der dritte im DR-System.
Fällt das primäre Bladecenter aus läuft der dritte, der auch die CAS-Rolle hat weiter. Dank der doppelten Parity im Storage auch mit der verlangten Verfügbarkeit. Man verzichtet dann bis zum Ersatz des primären Bladecenters halt auf Updates welche einen reboot des Exchangeserver verlangen.
Die zentrale Storage ist halt da, lokaler Strorage auf Servern passt nicht mehr ins Konzept. Im Cisco UCS-Bladecenter ist die Hardware durch Software definiert. lokaler Storage schränkt da unsinnigerweise ein. Deswegen auch boot-from-lun. Somit kann ein Blade ausgetauscht werden ohne das irgendetwas umkonfiguriert werden muss. Policy vom defekten Blade trennen, Blade raus, neues rein, policy dran hängen.
Bis auf die Seriennummer ist kein Unterschied zu merken. MACs, UUIDs,m Luns etc werden übernommen.
-
Skepsis trifft es nicht.
Wenn man tagtäglich in deutlich größeren Dimensionen denken muss dann ist es wirklich spannend mal zu sehen das es auch deutlich kleinere, funktionierende Umgebungen gibt.
So ein bisschen dient das auch der eigenen Erdung.
-
die grossen hersteller haben für so etwas tools. bei lenovo kamm man dann ganze profile anlegen mit Logik für wlan, lan, lte etc
-
Niemand braucht für Exchange zwingend ein RAID 6 und schon gar nicht, wenns um ne DAG mit 3 Knoten geht. ;)
Das dürfte eine Frage der Anforderungen sein..
Es war auch etwas vereinfacht von uns und RAID6 nur ein Beispiel.
Bei uns wird derzeit nur RAID-DP eingesetzt da die Platten alle in Netapps stecken und die Server Plattenlos sind. Wenn die Platten noch größer werden müsen wir vermutlich auf dreifache Parität umsteigen.
Die Anforderungen ergeben sich hier aus Verfügbarkeit und Geschwindigkeit.
-
Sehe ich genauso wie Norbert (und MS). Bei HP z.B. kostet eine 6TB Server Disk für den Proliant G9 300Euro inkl Steuer -> who cares ob nun in Exchange 3.8GB statt bisger 3GB belegt werden?
ASR
die eine 6TB Platte wird im Betrieb aber keinen Spass machen. Pack die ein ein RAID6 und schon brauchst du mind 1500€.
Bzw. warum er doch so enorm ausfällt. Ich hatte selbst damit gerechnet das es größer wird. Aber nicht so groß. ;)
wir hatten den gleichen Effekt bei der Umstellung von Novell groupware auf exchange. Der Zuwachs war in real noch deutlich größer. aus 2TB sind 6TB geworden.
technisch alles kein Problem, aber es muss im Projekt eingepreist werden.
-
Nicht die Verfügbarkeit vergessen! Bei einer DAG aus 3 Knoten das ganze noch mal 3 nehmen.
-
ich bin auf das Ergebnis gespannt. Mir erscheinen 30k€ extrem günstig,.ich habe aber auch kaumm Erfahrung in diesen Grössenordnungen(Hardware und Geld).
Vom daher fände ich eine Aussage war: erfüllt die Erwartungen o.ä. sehr spannend.
-
bei uns muss freiwillige Mehrarbeit abgefeiert werden. man darf höchstens 60 Plusstunden auf dem Konto haben. Überstunden sind angeordnet, müssen dann beantragt und vom Personalrat genehmigt werden. Im Antragsformular kann man dann auswählen ob man abfeiern will oder die Stunden ausbezahlt bekommen möchte. Bei Überstunden gibts auch einen Zuschlag, bei Mehrarbeit nicht. Für die Überstunden gibt es auch ein extra Zeitkonto.
-
schau dir mal Dracoon an: www.dracoon.de.
Die habe ich gerade auf einer Messe kennen gelernt.-
-
Habt ihr denn die Möglichkeit das selber zu hosten?
-
Es gibt bei der Arbeitszeit Grenzen an die sich Arbeitgeber und Arbeitnehmer zu halten haben.
Die Frage ist jetzt: was genau steht in deinem Arbeitsvertrag?
Gibt es eine Dienstvereinbarung(wie auch immer sich das in der Privatwirtschaft nennt.)?
Gibt es einen Betriebsrat?
-
Das ist ja am Ende eine echte multi-master-replikation.
Wie gehst du mit Replikationskonflikten durch z.b. autoincrement-felder um?
sagen wir: praxis legt einen datensatz an:
500,max,müller,patient
du am notebook:
500,luise,müller,patientin.
wie mergt das denn am Ende?
-
aber wozu ein sekundäres backup an welches man im Fall der Fälle nicht schnell genug herankommt? Das dient doch nur dem theoretischen Nutzen um irgendwelche Vorgaben zu erfüllen. Einen praktischen Nutzen hat man doch nicht.
-
Das wäre ja relativ einfach zu rechnen. In der Cloud kostet 1GB meist weniger als 0,10€ aber es ist einfacher mit 0,10€ pro GB /Monat zu rechnen.
Sein Backup wird wahrscheinlich keine 2TB haben. Aber nehmen wir ruhig 2TB an (Veeam komprimiert ja recht gut). Das sind im Monat 200€. Die Internetleitung ist ja vorhanden.
Es reicht auch eine VDSL 50. Da wären wir aber auch nochmal mit 39,99€ im Monat. Die müsste man dann Anteilig aufs Backup umlegen da Sie ja nicht nur Backup macht.
Jetzt teilen wir die 7000€ differenz durch die 200€ im Monat. Dann reicht das für 35 Monate. Also fast drei Jahre.
Ein weiterer Vorteil ich zahle bei der Cloud pay per Use. Sprich ich muss nicht von anfang an große Platten einkalkulieren.
Und wenn die Firma doch schnell wächst dann ist das auch kein Problem.
Und wenn wir wirklich kleinlich rechnen dann müssten wir auch sowas wie Strom und Gebäude kosten auf die NAS umlegen.
Wie gesagt 1 NAS lokal ist wichtig. Aber um die 3-2-1 Regel einzuhalten ist die Cloud eine wirklich gute Option.
Wie kommst du auf die 2TB?
Wie groß muss das Backupfenster bei einem VDSL50 sein und wie sind die Restorezeiten?
Ich finde es einfach abenteuerlich wie du hier deine eigenen Annahmen als Grundlage für eine Empfehlung nimmst.
Was macht man eigentlich bei deinem Konzept wenn so was hier passiert?
http://www.kanzlei.de/datenverlust-in-der-telekom-cloud
https://www.heise.de/newsticker/meldung/Strato-7-000-Domains-von-Datenverlust-betroffen-41659.html
-
Wie wärs die Schulungsrechner zu virtualisieren und dann mit snapshots zu arbeiten?
-
netapp, emc, hp, dell, manch einer empfiehlt auch noch lenovo...
-
Oft genug erlebt das auch diese sachliche Argumentation ins leere läuft.
Manchmal gilt halt auch für die IT: "Machen, weil Chef das so will".
Da schreibt man halt eine entsprechende Aktennotiz und gut ist. immer Vorausgesetzt das alles im legalen Rahmen abläuft!
-
@magheinz
Die Daten werden aber, so zumindest die Aussage der zwei Schulungen die ich in die Richtung hatte, nicht im RZ verarbeitet, ansonsten würde auch klassisches Outsourcing nicht funktionieren.
Die Verarbeitung findet doch bei euch in den Räumen statt.
Das wird bei uns anders gesehen.
Spätestens wenn über den owa eine Suche gestartet wird kann diese Aussage ja nicht mehr stimmen.
Ist bei O365 kein Spamfilter o.ä. involviert?
Wo werden Autoresponder verarbeitet?
Beim klassischen outsourcing kommt es unter anderem auf die abgeschlossenen Verträge an.
Vor zwei Jahren hatte der Datenschutzbeauftragte einer deutschen Hochschule einen spannenden Vortrag gehalten.
Die wollten auch alles auf O365 umstellen. Dazu konnte der eine eigene Datenschutzvereinbarung durchsetzen die vom Standard in O365 abweicht.
Da aber trotzdem im Supportfall Metadaten in die USA wandern bleibt an dieser Uni O365 optional. Wer das nicht will bekommt immer noch ein Postfach in einer on Premise Umgebung. Jetzt muss die IT dort zwei Verfahren betreuen.
-
Die Anforderungen an die Verfügbarkeit haben nichts mit der Anzahl der Mitarbeiter zu tun. Es gibt Unternehmen mit 500 Mitarbeitern die locker zwei Tage IT-Ausfall überleben und Einzelunternehmer die schon bei 4Stunden Ausfall in Probleme laufen.
-
weil der Datenschutzbeauftragte jederzeit das Recht hat alle Räumlichkeiten zu betreten in denen personenbezogene Daten verarbeitet werden. Das ergibt sich aus seiner Kontrollpflicht. Zumindest wird das BDSG bei uns derzeit so interpretiert. Es ist keine Pflicht das zu tun, aber ein Recht des Datenschutzbeauftragten.
-
warum sollte er? Und wenn er es würde - die Gründe, die er dafür anführen könnte, würden auch auf lokalen Exchange-Betrieb zutreffen. Beim Datenschutz geht es nur um personenbezogene Daten, die man nur unter bestimmten Bedingungen speichern darf. Diese Bedingungen unterscheiden nicht zwischen Cloud und On-prem.
genau das meine ich.
Die Bedingungen können sich durchaus unterscheiden.
Ein Beispiel: bei und sind private E-Mails geduldet. Das bedeutet aber noch lange nicht das diese E-Mails bei einem Dienstleister gespeichert werden dürfen.
Hat office365 eine TCDP-Zertifizierung? Auf die Schnelle finde ich nichts dazu, was ein schlechtes Zeichen ist.
Gewährt MS dem Datenschutzbeauftragten echt spontan Zutritt ins Rechenzentrum?
-
Hier würde hoffentlich der Datenschutzbeauftragte office365 verbieten.
Es gibt übrigens zum Exchange auch Alternativen wie zarafa, kolab, sogo etc.
Privat nitze ich SOgo. Mit einem entsprechendem Dienstleister an der hand kann man Exchange auch managed on premise betreiben.
Diese Bereitschaft seine sensiblen Daten anderen aufzudrücken finde ich eine bedenkliche Entwicklung.
-
1
-
Migration IBM Domino to Exchange 2016 Postfachgröße
in MS Exchange Forum
Geschrieben
Vergaberecht halt...
Das hat nicht immer mit Verstand und Logik zu tun, erklärt aber teilweise sogar solche Sachen wie Konzerthäuser und Flughäfen...