Jump to content

Weingeist

Members
  • Gesamte Inhalte

    1.566
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Weingeist

  1. Bezüglich dem von mir genannten E-Mail-Gateway von DynDNS: Das ist weder eine Frickellösung mit POP3 noch ein BackupMX. Zustellung erfolgt wie üblich per SMTP. Der einzige Unterschied, er nimmt eben an und wartet mit der Weiterleitung bis man wieder online ist und verwirft die Mails nicht. Dabei werden alle Mails darüber geroutet. Kleiner Exkurs wofür das eigentlich gedacht ist: zbsp. dann verwenden wenn man keine fixe IP hat / bekommen kann / aus Kostengründen weil Übertragunsrate extrem lausig usw. In einigen Regionen bekommt man beispielsweise keine DLS-Line mit fixer IP mehr bei den normalen Abos. Man braucht also ein Business-Abo wo wiederum die Downloadraten extrem schlecht sind oder das Abo viel zu teuer wäre. Würde also bedeuten entweder separate Anbindung des Mailservers oder eben Dynamische IP. Bei separater Anbindung muss man wieder beachten, dass Mail-Daten zbsp. via Line1 und Surfen via Line2 geleitet werden. Nicht immer so einfach wie man das gerne hätte. Es ist immer sehr einfach und schnell gesagt, das macht man so nicht, das ist gebastelt usw. Aber Fakt ist auch, Kleine haben nunmal nicht das gleiche Budget wie ein Grosser. Die Funktionalität und Flexibilität möchte/muss er aber auch haben. Man kann überall sagen da muss er durch, aber das summiert sich gewaltig und ist irgendwann nicht mehr tragbar. Sei es Lizenzen, Internetanbindung, Support, Hardware usw. Clouddienste sind auch nicht die eierlegende Wollmilchsau. Bezüglich Backup: Da würde ich Mails einfach bei Ankunft direkt an eine Sammelmailadresse auf einem anderen (internen oder externen) Mailserver weiterleiten. Für Notfälle reicht das aus. Der eigentliche Mailserver wird ja entsprechend per Backup gesichert.
  2. Zu deinem Wunsch für ein E-Mail-Abnehmer im Falle eines Downs deines Server gibts (gabs?) zbsp. von DynDNS einen Dienst welcher die Mails annimmt und per smtp an deinen Server leitet sobald er wieder online ist. Quasi Pop für SMTP ;) Nannte sich "Dyn E-Mail Gateway". Geht auch mit fixer IP.
  3. Sag ich doch, das Ding ist eh schon nimmer wirklich supported ;) Und MS würde schon helfen, zumindest wenn man das gleiche Verhalten auch auf ner physischen Maschine reproduzieren kann... Gibt halt Vorbereitungsarbeit...
  4. Wegen virtualisiert supported oder nicht, darüber würde ich mir mal gar keine Gedanken machen. Das läuft problemlos. Was mir eher Sorgen machen würde, ist die Tatsache, dass auch bald die Einstellung von Sicherheitsupdates folgt. Daher lieber auf SBS 2011 upgraden wenns ein eigener Mail-Server sein soll, sonst kommt das preisliche erwachen wenn man weiterhin Exchange betreiben möchte. ;)
  5. Es gibt diverse Möglichkeiten einen SBS oder kleine Serverumgebungen auch zuverlässig inkl. Überwachugn mit Bordmitteln zu sichern ohne dass man auf zusätzliche Backupsoftware zurückgreifen muss, welche zwar Komfort schafft, aber auch zusätzliche Komplexität durch deren Datenbanken, eigene Filesysteme, Software mit Fehlern, Unterstützung neuerer OS manchmal erst später usw. aber vor allem Kosten. Anbei auch noch ein paar Inputs: - Windows Backup ist weder Gebastel noch schlecht. Fehler kommen in der Ereignisanzeige. Entweder prüft man diese regelmässig oder man baut Trigger mit einer E-Mail Warnung für Ereignisse die man überwachen möchte. (zbsp. per E-Mail mit Blat) - Windows kann mit robocopy sehr wohl auch geöffnete Files sichern, wenn auch nicht direkt. Dazu braucht es entweder ein Tool wie DriveSnapShot oder das SDK für VSS für die entsprechende Windows Version. Damit kann man dann per Kommandozeile einen VSS-konsistenten SnapShot erstellen und anschliessend in einem Windows-Ordner bereitstellen und diesen sichern. - Um Files möglichst Rasch wieder griffbereit zu haben, kann man zbsp. einen Robocopy-Mirror auf einem andern Laufwerk vorhalten, welcher zbsp. Stündlich abgelichen wird. -->Zbsp.auf einem PC in einem anderen Brandabschnitt liegt oder dem Rechner des Chefs. Vorteil gegenüber einem einfach NAS ist wie immer die erhaltung von NTFS-Rechten. - Auch DFS Replikation ohne den Ordner in DFS tatsächich zu Verfügung zu stellen (Oder als gesperrtes/deaktiviertes Ziel) ist eine gute Mirror-Variante welche sehr schnell wieder online ist. - Historyproblematik mit Windows Backup bzw. Sicherung des System Volume Infos: Die Recht kann man sich durchaus mit Gewalt aneignen, wenn es sein muss. Notfalls mit einem Script welches einem die Rechte gibt und per Task als System ausgeführt wird. Allerdings gefällt mir schon die Art von Sicherung auf 'normale' NAS-Lauwerke nicht besonders, weil eben häufig die ganzen NTFS-Berechtigungen verloren gehen. Auch sind Schattenkopien von verschiedenen NTFS-Diensten wie USN-Journal abhängig, ich habe keine Ahnung ob das wirklich zuverlässig per reinem Filecopy gesichert und vor allem wieder rückgesichert werden kann. Wäre mir zu heiss und zu kompliziert. - Sicherung mit WindowsBackup auf ein iSCSI-Laufwerk welches auf einem anderen Server liegt: Hat den Vorteil, dass man alle History-Funktionen weiterhin nutzen kann. Recovery ist mühsamer, da erst nach einer Windows-Installation nutzbar. - Verwenden von Virtualisierung: Hat den Vorteil, dass man Laufwerke von verschiedensten Datastores einbinden kann. Also kann auch ein günstiges NAS problemlos als BackupZiel aus einre VM heraus verwendet werden. Oder wiederum ein Dedupeziel wo man die komplette Virtuelle Disk aus dem Host-System drauf kopiert. So hat man wiederum eine History von einzelnen Fullbackups bzw. ganzen Backupketten, die aber nicht viel Speicher brauchen. Vorteil ist hier vor allem, dass bei einer Wiederherstellung direkt auf die Discs zurückgegriffen werden kann. Da ist ein Recovery zu einem beliebigen Datenbestand unter Umständen Ratz-Fatz gemacht. - Betriebssoftware mit Datenbanken etc. --> Jeweils Fullbackup auf ein Dedupe-Volume. --> Schafft auf einfache weise eine riesige Backuphistory ohne viel Speicherplatz zu verbraten. Die Files können wieder mit Robocopy auf ein weiteres Volume kopiert werden. Es gibt X-Varianten wie man viele der Funktionen von modernen Backupsystemen mit Windows-Bordmitteln erreichen kann. Der Einwurf das wäre alles viel zu kompliziert, kann ich nicht teilen. Es erfordert lediglich etwas Kreativität und eine gute Dokumentation. Verwendet man zbsp. SSD's als primären Speicher, sind selbst Full-Recoverys innerhalb kürzester Zeit erstellt. Manche der Dinge wie tägliches Fullbackup aller Files machen natürlich nur bis zu einer gewissen Menge an Daten Sinn. Aber das muss man eben situativ entscheiden. Wenn man vom Desaster-Fall ausgeht wie Brand oder Diebstahl, kommt es auf ein paar Stunden mehr Arbeit auch nicht mehr drauf an. Es reicht meiner Meinung nach deshalb aus, das 'normale' Backup schnell Recoverfähig zu halten und für den Desasterfall ein Szenario zu wählen, welches für das Recovery unter Umständen mühsamer ist und mehr Vorbereitungszeit benötigt. Wichtig ist nur, dass es gut dokumentiert ist. Hier noch Lektüre zu VSS und dessen Bereitstellung als Mount-Points in Verbindugn mit Robocopy (Sicherung von geöffneten Files): - http://serverfault.com/questions/119120/how-to-use-a-volume-shadow-copy-to-make-backups - http://axelilly.wordpress.com/2009/01/15/creating-vss-snapshots-on-windows-2003-server/
  6. Die 2400er Serie ist die abgespeckte von 2600/1600. Die haben nur 3 Memory Channel, die grossen aber deren 4. Deshalb nehme dafür Supermicro. Das heisst ich würde Single Socket Xeons E5 aus der Reihe 1600v2 verbauen: E5-1660, E5-1650, E5-1620 wobei der Schritt von 1620 zu 1650 deutlich spürbar ist. Exkurs zur virtualisierung (in Hinblick darauf, dass es den SBS eigentlich schon gar nimmer wirklich gibt und man mehrere virtuelle Instanzen braucht). Ein E5-1650/1660 reicht bei entsprechend performanten Platten mit genügend IOPS (zbsp. SSD's) sogar für eine komplette kleine virtuelle Umgebung mit ein paar Server und Arbeitsplätzen auf sehr performantem Level. Mir kommen da regelmässig die Tränen, die virtuellen Clients sind deutlich schneller als meine physische Arbeitskiste (Quad wenig GHZ, SSD) bei den gewöhnlichen Arbeiten. Office-Starts usw. Hab in diesem Jahr zwei kleine Umgebungen im produktiven Testbetrieb so eingerichtet und das läuft wie die Hölle. Is halt einfach so, das bei viel GHZ die anfragen schneller bearbeitet sind und der Kern somit auch schneller wieder frei für was anderes. Wenn SSD in Frage kommen, keinesfalls daran sparen (Intel DC3700 zbsp. oder PCI-Express SLC von Micron). Auch Recovery (in der Testphase) sind extrem schnell gemacht. Bei gscheitem Backup-Konzept ist die Umgebung dank SSD's auch bei vielen Daten extrem schnell wieder oben, auch wenn alles tot ist. Ist meine Meinung dazu die niemand teilen muss =)
  7. Hi, setze einige Fujitsu Server ein. Sind alle problemlos bis jetzt. Support ist auch zufriedenstellend. Mühsamn sind sie nur in Verbindung mit VmWare und den angepassten Images. Das dauert ewig und machen Dell und HP besser. Kann man aber auch alles zu Fuss erledigen. Ansonsten: Hohe GHZ-Zahl ist sinnvoll, wenn man Anwendungen hat, die nur auf einem Core rechnen. Da sind die Auwirkungen teilweise ziemlich extrem. Bei Virtualisierung sollte möglichst wenig Kerne gegeben werden (Verwaltungsaufwand bis alle frei sind usw.), mit zwei funktioniert der SBS zbsp. prächtig, die hohe GHZ-Zahl ist aber deutlich spürbarer als nen Kern mehr bei zbsp. WSUS-Übersichtsberechnungen oder Dedupe Vorgänge (neueres OS) Wie man sieht, es kommt wie immer darauf an was und wie man mit der Kiste etwas macht, kann man so pauschal nicht beantworten. Stromverbrauch steigt mit hoher Taktrate auch massiv an. Immer berücksichtigen in der Preiskalkulation. Im Grunde liegt bei vielen Server die CPU ziemlich brach, in dem Moment wo sie gebraucht wird, kann es eh nie schnell genug sein. Ich würde mich nach einem Single-Socket System auf E5 Basis für 1600er/2600er CPU's umsehen. Da hast du Quad-Channel RAM + verhältnissmässig günstige sehr schnelle CPU's zur Auswahl. Die Schnellen CPU's sind auch deutlich preiswerter als solche für die DualSysteme. Die meisten Serverhersteller bieten aber nur den kleinen Xeon bzw. agespeckte Version für Server als Single Socket an und die grosse Serie nur in Workstations. Warum auch immer. Schöne Ausnahme ist zbsp. Supermicro.
  8. Das genannte Tool scheint ziemlich schlau zu sein... Im Grunde gehen solche Dinge auch mit folgender dreckiger Variante. Mittels-PC welcher mit dem ADMT-Tool ausgestattet ist. Mitglied soweit ich mich erinnere in der Ursprungsdomäne. Sowie ein Migrations-User in beiden Domänen jeweils mit Domänen-Admin Berechtigungen mit identischem Namen und Passwort. Ist nicht wirklich schön aber zumindest von 2003 auf 2008 ging das jeweils sehr problemlos. War das/mein Standardvorgehen für den SBS-Server wenn die neue Domäne sowie der Server nach der Migration am Ende identisch heissen sollten ohne das ein Inplace Update gemacht werden kann/soll. Heute sind die Migrationen deutlich entspannter. Fallstricke: Die Benutzer sollten in der neuen Domäne noch nicht existieren. Alle migrierten Gruppen/Konten haben am Ende neue SID's mit der alten SID in der History sowie ein Verfallsdatum (Benutzer)! Das musst du manuell deaktivieren. Entweder per Script oder zu Fuss. Sonst hast ein paar Monate Später die Hölle in der Helpline. Wenn Du nach SBS-Migration mit identischer Domäne und Server Name suchst, solltest die entsprechende detaillierte Guides eigentlich finden und ableiten können. Wenn schon bestehende Benutzer sind, sollte man besser ein Tool verwenden wo man einem bestehenden Benutzer bzw. SID mit einer Tabelle eine oder mehrere weitere SID der History hinzufügen kann. Habe ich auch schon gesehen. Oder eben anders rum, die Berechtigungen auf den Ordner ändern. Da hätte ich aber gemischte Gefühle.
  9. Je nach Definiton von finanziell vernünftig, gibts da verschiedenen Varianten und einige auch günstiger als mit gespiegelten SAN's machbar. Ein Klassiker sind zbsp. Zugangssystem-Anbieter, die sind dauernd mit solchen 'Spässen' konfrontiert. Je nach Aufgabe, benötigtem Speicherplatz, Rechenleistung etc. würden evtl. zwei synchron laufende Maschinen bereits ausreichen. Wenn Ein Ausfall der Maschine und Neustart ausreichen würde, wäre evtl. auch ein Replikatlösung möglich. HyperV kann das oder DoubleTake Varianten: - Xen und der Marathon-Erweiterung für MultiCPU-VM's im Lockstep (braucht nur zwei Standardserver mit eigenem lokalen Storage, sehr clever gemacht, Primäre Maschine wird nur im Totalausfall gewechselt), einigermassen preiswert - Physisches Lockstep mit Stratus-Server, Nachteil: Beide Maschinen selber Standort bzw. ein Gehäuse, theoretisch HyperVisor direkt installierbar, ziemlich teuer - VmWare mit FaultTolerance, Beschränkung auf eine vCPU sowie einem gespiegelten Storage mit transparentem Failover (Datacore, HP LeftHand usw.), sehr teuer
  10. Es ist eigentlich ganz einfach mit dem vor einigen Posts geposteten Ausschnitt aus den PUR's. Du kanns eine Lizenz einem neuen Server erst dann zuweisen wenn dieser ausser Dienst ist. Im Falle von vMotion müsste der Zielserver also bereits vor dem vMotion Vorgang lizenziert sein. Ansonsten würde das faktisch heissen, 1. VM herunterfahren 2. Lizenz verschieben 3. VM auf Zielserver hochfahren. Mit vMotion müsstest du also minimal eine Lizenz zuviel pro Host haben, damit ein solches Konstrukt überhaupt korrekt lizenzierbar ist und ist immer noch alles andere als praktisch. Nicht das ich das wirklich verstehe, finde es auch total beknackt, ist aber so. Fair wäre, wenn die laufende Instanz zertifiziert werden müsste. Völlig egal worauf sie läuft. Aber so ist das nunmal.
  11. Weingeist

    SBS-Kunden, was tun?

    Danke für die neuen Inputs. @Dr. Melzer: Ein Chef der viel unterwegs ist, steigt aus einem vernünftigen Firmenwagen deutlich erholter bzw. eben nicht zusammengestaucht aus als zbsp. in einem Kompaktwagen. Schlägt sich direkt aufs Wohlbefinden und seine Leistung aus. Die Preise dieser Firmenwagen wurden nicht innerhalb von ein oder zwei Generationen im Preis verdoppelt oder verdreifacht. Neue Funktionen und Leistung gibts beim Neuen in der Regel auch dazu, sonst wird der alte behalten. Der Vergleich hinkt also deutlich. So sieht aber die Realität im Kleinkundensegment aus. Bei MS gehts aktuell anders rum, Funktionalität wird teilweise gestrichen und Preise erhöht. Verglichen mit einem SBS 2003 R2 - der zugegebenermassen sehr sehr günstig war - bezahlt ein kleiner Kunde mit sagen wir 5-10 Arbeitsplätzen mit Office, Exchange, SQL-Server für Software-mässig das gleiche mindestens das Vier- bis Fünffache als vor ein paar Jahren. Unter anderem weil eine Lizenz noch eine Lizenz war, egal über welches Programm sie gekauft wurde, man hatte die gleichen Rechte. Komischerweise hat MS zu damaliger Zeit noch richtig Kohle verdient. Da wurde noch mit Innovation von sich Reden gemacht, nicht mit beschneiden von Kundenservice, Funktionen, explodierenden Kosten, Lizenzverschärfungen und und und. Heute werden auf den ersten Blick unrentable Produkte welche mit entsprechendem Marketing richtig geil gewesen wären (ISA/TMG) einfach gekillt, ohne Ersatz. Die aktuelle Entwicklung finde ich wirklich extrem Schade und sehr bedenklich. MS wurde mit dem Kleinkunden-Segment gross (Verbreitung). Sie scheint vergessen zu haben, dass diese riesige Basis abspringen könnte wenn es ein gutes Konkurrenzprodukt gibt wenn sie preislich dermassen über die Stränge schlagen und die Bedingungen so schrecklich gestalten. Wenn Sehr viele kleine das Produkt einsetzen, dann sind auch die grossen nicht mehr weit. Von daher ist das meiner Meinung nach sehr kurzfristig gedacht. Am Ende haben wir wieder den Salat von X Plattformen und für jedes Programm ein eigenes Süppchen weil es nur auf einer Plattform läuft. Es war so schön die letzten 15 Jahre und MS hätte es in der Hand, dass es wenigstens im Unternehmensbereich so bleibt. So wie das aber aktuell läuft, wird das böse enden und weder MS noch seinen Kunden was bringen. Ganz im Sinne von Grossinvestoren und Manager. Fett einsteigen, dirigieren, fett Kohle machen und einen Scherbenhaufen hinterlassen. @Norbert: Den App-Schrott auf Windows 8 bekommt man mit einem kleinen Powershell-Script fast komplett deinstalliert. Den Windows Store sowie AppX-Dienst bekommt man mit einem Registry-Eintrag ebenfalls deaktiviert. Per GUI, Powershell ist Fehlanzeige. Kann man aber (noch) alles in ein wunderbares - mittlerweile riesiges - Script verpacken, zusammen mit den 100 anderen unnötigen Diensten und Aufgaben im Task-Scheduler. Zu 2012 R2, naja, es sind wirklich ausschliesslichen Dinge die früher mit nem SP gefixt wurden. Unterschiede im Funktionsumfang sind marginal und waren bei 2012 eher Beschneidungen bzw. noch nicht fertig (Beschränkter Ram-ReadCache, Dedupe bei ReFS usw.). Aber sehe das auch so, dient dem ursprünglichen Zweck einer SA. Man erhält Produktverbesserungen. Sind auch ein paar gute Verbesserungen mit dabei. Die Cals bleiben ja die gleichen. Die Liste von unfertigem wie Exchange 2013 lässt sich beliebig erweitern, zum Beispiel mit WSUS. WSUS braucht Report Viewer 2008, nicht etwas 2012. Report Viewer 2008 braucht .Net 3.5, .Net 3.5 lässt sich auf 2012 nur mit Powershell vernünftig installieren, weil das Setuppaket auf der DVD zwar vorhanden, aber nicht aktiviert ist. 3.5 ist mittlerweile ein unglaubliches Flickwerk. Wie auch immer, es kommt keine Meldung, schieb DVD rein um .NET 3.5 nachzuinstallieren, nein es funktioniert einfach nicht. Auf den Essentials hatte man es auch gleich deaktiviert bei 2012 und mittlerweile nex fix bereitgestellt. Bei R2 immerhin wieder von Anfang an aktiviert weil einfach zu viele gemeckert haben.
  12. Weingeist

    SBS-Kunden, was tun?

    Hallo Leute, Vielen Dank für die Inputs! :) @kamikatze: Betrifft natürlich nur jene die 2003 R2 und SA hatten, da habe ich aber dafür gesorgt, dass die Verträge jeweils top-aktuell waren oder gleich noch nen neuen abgeschlossen haben kurz vor erscheinen des 2008. Im Wissen, dass so eine Gelegenheit nie mehr kommt und MS bei SA-Kunden und Ersatzprodukten bis dato noch immer fair war. So war es dann auch, man erhielt den TMG ;) Einige haben es auch nachgekauft. Ich kenne kein einfacheres Mittel für einen guten Proxy und Inhaltsbeschränkung für spezifische AD-Gruppen/Mitarbeiter, das so einfach zu konfigurieren ist und zbsp. in der Mittagspause viel mehr zulässt als während der Arbeitszeit. Äusserst Schade wurde es eingestampft. Nur noch Vollwertige Produkte: Ja schon, aber das ist unglaublich was man da in die Software investieren muss. Die halten mich regelmässig für verrückt (ok bin ich vielleicht auch etwas :D ) Finde es kostenmässig ja selbst total übertrieben für ein paar Clients wo man halt trotzdem irgendwo supported unterwegs sein möchte. Zwingt einem halt wieder etwas zu basteln und Dienste zusammenzulegen die einem nicht gefallen, Backupkonzepte wie vor 20 Jahren (keine Replikate) zu machen usw. Schade wird die Software nicht für quasi Umme verkauft und die Cals ein paar Euro teurer. Wäre viel 'moderner' und für die kleinen auch besser bezahlbar. Für MS wärs natürlich wieder ein Grund für einen massiven Preisaufschlag. :(
  13. Weingeist

    SBS-Kunden, was tun?

    Hallo Leute, Vielleicht sind andere in der gleichen Situation. Ich habe einige Kunden und auch mich selbst wo die SA-Verträge auslaufen oder bereits ausgelaufen sind. Die jeweiligen Kunden haben sich an Exchange, SQL, WSUS und TMG gewöhnt. Also das klassiches SBS-Premium-Paket. Folgende Probleme: - Die SA ist für TMG quasi nutzlos und Neukunden können nichts vergleichbares erwerben. Preislich ähnlich interessant wie vorher im SBS sowieso nicht. - Deutliche höhere CAL-Kosten, aber OK, das ist schliesslich für alle so - Massiv höhere Server und Applikationskosten, das fällt richtig heftig ins Gewicht und ist für 5-10 User völlig unverhältnissmässig - Teilweise doppelte bis dreifache Lizenzierung nötig bei Nutzung aktueller Backuptechnologien oder modernen Ifrastrukturen mit Ausfallsicherung Mit HyperV wäre es ja grundsätzlich kein Thema das alles immer noch auf einer Maschine bzw. in der heutigen Zeit auf zwei Maschinen zwecks Ausfallsicherheit laufen zu lassen, nur die Lizenzierung ist haarsträubend teuer für Kleinkunden. Für das gleiche bezahlt man heute ein Mehrfaches. Die Cloud ist keine Alternative, ich wie auch diverse Kleinkunden möchten das nicht. Sei es wegen der Auspioniererei oder schlicht weil man dann noch weniger die Wahl für einen Ausstieg hat und komplett ausgeliefert ist. Beim Mail hat man diesbezüglich keine Wahl, also auch egal wenn das auf nem Server ist. Bei Kalender, Datenbanken etc. hört der Spass bei den meisten aber auf. Lügen auftischen mag ich den Kunden auch nicht. Grundsätzlich fällt es mir schwer auf Produkte und eine Firma zu verzichten, die ich seit DOS 5 sehr schätzen gelernt habe nur weil das aktuelle Management und vermutlich auch ein paar Investoren einen totalen Dachschaden hat und deren Ziel nur noch das maximale Melken und Abhängig machen des Kunden bedeutet - wie leider so üblich auf Konzernstufe. Alles nur, weil sie es sich aktuell einfach erlauben können und kein Patron mehr wirklich hinter der Firma steht. Was sind die Alternativen? Pfannenfertiges gibt es ja eh nichts, ein paar Überlegungen: - Wechsel auf Linux-Systeme und OpenSource-Varianten von Exchange die kein Mensch selber administrieren kann (so übliche Dinge) und Wartungsaufwand grösser sein dürfte - Darauf warten bis die Jungs wieder vernünftig werden? - Verwenden von alter (gebrauchter?) Server-Software auf Clients zwecks längerem Support-Zeitraum für Sicherheitsupdates? evtl. in Virtuellen Desktop-Infrastruktur inkl. RDP - Weiterarbeiten mit veralteter Software, evtl. Konzepte mit von Internet abgeschotteten Oberflächen auf welche man sich nach dem Graphical-Wall-Prinzip verbindet Alle mit aktueller SA können wenigstens auf die aktuellsten Versionen zurückgreifen und haben so noch ein paar Jahre Ruhe. Sie wurden grundsätzlich sehr gut und fair entschädigt. Die Verlängerung wollen und teilweise können Sie sich aber nicht leisten. OEM-Lizenzierungsformen sind wegen Lizenzrestriktionen auch nicht mehr ein gangbarer Weg für moderne Infrastrukturen. Auch wenn man nicht MS-Technolgien nutzt und sie das nicht interessieren müsste. Mich würde da eure Meinung dazu interessieren sowie evtl. Lösungsvorschläge. Herzlichen Dank!
  14. Mit einem einigermassen guten Proxy würde sich das relativ einfach machen lassen... Leider ist das entsprechende MS-Produkt EOL --> TMG Bitte bedenken, dass die Mobilfunkbetreiber solche Dinge normalerweise in den Verträgen verbieten und einem den Zugang sperren können...
  15. Kommt Immer auf die getroffenen Massnahmen an ob man mit eineme Software-RAID gut leben kann oder nicht. Mit Board-Mittel erreichst Du das auf einem Bootlaufwerk nur, wenn Du den SBS virtualisierst und die Bootplatte auf eine Storage-Spaces Laufwerk legst. Steigert halt wieder die Gesatmkomplexität. Betreffend SSD: Ich würde da gleich auf die DC S3700 gehen. Die technischen Werte sind deutlich besser. Auch punkto Alterung. Trim ist eine gute Sache. Auch wenn neue SSD's über gute Garbage Collections verfügen und viele einem weiss machen wollen, dass dies ausreicht, tut es dies einfach technisch nicht. Eine GC kann ohne nähere Filesystem Kenntnisse nie Trim ersetzen. Das einzige was Trim einigermassen überflüssig machen kann ist massives Overprovisioning. Entweder eigenes oder vom SSD-Hersteller. Da man von und zu SSD's unglaublich schnell sichern und recovern kann, kann man durchaus in Betracht ziehen auf einen Spiegel zu verzichten. Das Sicherungskonzept muss diesem Umstand einfach Rechnung tragen die dafür ausgesuchte Hardware ebenfalls. Ich persönlich möchte immer nen Spiegel haben und betreibe SSD's in einer Nichtvirtualisierten Umgebungen mit Hardwarecontrollern und verwende nicht den kompletten gebotenen Speicherplatz. Wie immer, es gibt viele Wege nach Rom. Der Weg dahin muss den Umständen entsprechend geebnet, befestigt und gewartet werden, sonst gibts irgendwann massive Schlaglöcher. ;)
  16. Sehe ich das richtig, Ihr habt bei jedem Kunden einen Entwicklungs-PC von euch stehen? Also im Gegensatz zu früheren Runtime-Versionen ist die Access 2010 wirklich eine komplette Software ohne GUI. Hast praktisch keinerlei Einschränkungen wenn du mit Code arbeitest. Solltest Du also nur testen wollen und zbsp. auf euren PC's etwas entwickeln, dann kannst Dir das eventuell sparen. Einzelprogramme lizenzieren macht nur Sinn, wenn die restlichen Programme nicht gebraucht werden. Wenn Ihr allerdings zbsp. VM's in eurem Hause habt, wo ihr für jeden Kunden eine eigene habt, dann würde es grundsätzlich ausreichen, wenn ihr pro Arbeitsplatz eine Version lizenzieren würdet von wo aus ihr euch auf die VM's verbindet.
  17. Von Micron sind eigentlich nur die SSD wirklich gut welche unter dem Label Micron verkauft werden. Der Rest - meines Wissen vor allem Crucial und diverse Fremde Labeler - ist halt in der Regel einfach Desktop-Ware. Die grossen Hersteller wollen - weil die Kunden es wünschen - ne SSD in ihren Notebooks haben, aber nicht den Preis für ein vernünftiges Modell bezahlen. Der Kunde bezahlt aber natürlich ein Business-Line Modell. Nennt sich kurzfristige Gewinnoptimierung. Ein Notebook muss bei Defekt erst ins Geschäft, ein Mitarbeiter ist total genervt, man wartet auf das Ersatzteil, ein anderer muss ihm sein NB wieder herrichten usw. Das bei einem Teil, das schon immer Ausfallgrund nummer 1 war. Warum da häufig Schrott verbaut wird oder an die MA's ausgegeben wird, kann ich nicht nachvollziehen. Die Arbeitsstunden und Nerven die da verbraten werden sind in der Summe deutlichst höher als die Kosten für gscheite Laufwerke. Daher schmeiss ich die Dinger welche vom Hersteller kommen immer raus und hänge eine Platte rein welche auch im Server-Segment eingesetzt werden. Spare mir den Aufpreis für die SSD und konfiguriere die gelieferte Magnetplatte als Backup sofern nötig. Kommt im Endeffekt deutlich günstiger. Der Anschaffungspreis ist normal auch nicht wirklich höher.
  18. Die Green Festplatten sind normal ziemlich lahme Teile und eigentlich nur für NAS Betrieb wirklich sinnvoll zu gebrauchen. Eine schnelle Festplatte bringt für den gefühlten Betrieb von normalen Anwendungen am meisten von allen Aufrüstungen. --> Anwendungsstart zbsp. Rest bringt bei Office (sofern es nicht 2013 ist) ned wirklich extremst viel. Entweder also SSD (zbsp. eine robuste und gute Intel 520) oder - um bei WD zu bleiben - eine schnelle Magnetplatte aus der Black Serie oder mit 10k Umdrehungen. Viel RAM bringt eigentlich nur was, wenn die Leute sehr speicherintensive Anwendungen nutzen. Die SSD würde ich einfach mal kaufen und bei einem Rechner ausprobieren.
  19. 10Gbit wird die Eternus DX80 S2 sein. Portkonfig wie man lustig ist - FC, iSCSI 10gbit, SAS oder gemischt. Ich habe den direkten Vorgänger, eine DX80 iSCSI mit 1 Gbit. Das Teil läuft gut. Allerdings nach 5 Jahren auch ein Controller ausgefallen bzw. die Netzwerkports des Controllers. In der DX80 heisst das noch Controllertausch, in den neuen müsste nur das IO-Modul getauscht werden. Performance der Anzahl 15k Platten entsprechend. Zuverlässig waren aber sowohl die SX80 als auch die neueren DX80 und DX80 S2. Die Fehlerquote ist - gemäss einer Person die ich selber gut kenne und direkt an er Quelle sitzt - extrem tief und garantiert auf Mitbewerberniveau. Nützt aber natürlich alles nichts, wenn man ein Montagsmodell erwischt oder die Backplane nen Schuss weg hat und zbsp. fälschlicherweise die Controller abhängt. Manchmal hat man aber auch einfach Pech. Manchmal liegts auch einfach daran, dass die Technikfirma zu optimistisch mit Refurbished-Material ist, welches wieder in den Verkehr gebracht wird nach einem richtigen Reset. Ist ja häufig so, dass defekte Teile bei den Herstellern wieder repariert oder Pseudo-Repariert werden.
  20. Hallo Leute, Wie der Titel sagt, geht es um ein Single-Node-Cluster. Also Nutzung der Clustergruppen, Features von MS-Cluster ohne jedoch mehrere Nodes zu verwenden. Gemäss einem älteren Technet-Artikel sei das durchaus sinnvoll um zbsp. verschiedenen Services für verschiedenen Abteilungen mit einem Server bereitzustellen. Soweit so gut, ich möchte jedoch etwas anderes. Ziel: Nutzung des RAM-ReadCaches der Storage Spaces welche nur im Clusterbetrieb verfügbar ist. Aktuell stellen sich mir folgende Fragen: - Hat man durch die gesteigerte Komplexität gegenüber einem 'normalen' Server einen wesentlichen Nachteil bei einem Hard Off? Sprich ist der Server anfälliger für Fehler? - Hat man wesentliche Nachteile in einem Recovery-Szenario mit Windows Backup? Grüsse und Danke
  21. Seine Infos sind nicht ganz falsch, weil mit mind. 5 Platten der Tripple-Mirror verwendet werden kann. Ist ein Raid 10 mit mit jeweils einer dritten Platte anstelle von 2. Ansonsten finde ich die Storage Spaces nicht schlecht bzw. sogar sehr gelungen. Meiner Meinung nach ist das RAID sehr robust. Vor allem unter ReFs. Mit 2012R2 wird da auch Dedupe usw. unterstützt. Hoffentlich auch NFS-Freigaben. Ich konnte es jedenfalls auch unter Vollast nicht wirklich in die Knie zwingen. Nicht mit Stromausfällen, nicht mit Willkürlichem Festplatten entfernen und auch nicht mit der Zerstörung von Sektoren. Die wurden jeweils neu gebildet in einem anderen Festplattenbereich, solange sie nicht ganz ausgefallen war und ein Mirror mit gültigen DAtne verfügbar war. Auch wenn überall Hardware-RAID empfohlen wird, ich würde das abhängig machen was genau Du möchtest. Benutzt Du SSD's sprich imho nix gegen die Storage-Spaces. Der Performance-Impact gegenüber einem Hardware-Controller ist hier gut verschmerzbar bis sogar nicht spürbar. Vorteil ist auch, es wird Trim unterstützt. Was die RAID-Controller nicht können. Vor allem dann von Vorteil, wenn die SSD's nicht über riesige Overprovisioning Fähigkeiten verfügen. Bei Verwendung von gewöhnlichen Laufwerken ist der Performance-Impact aber deutlich spürbar, hier kann ein Hardware-Controller mit WriteCache enorme Vorteile bringen. Bei 2012R2 werden die Funktionen nochmals verbessert.
  22. Auch wenn es eher unwahrscheinlicher ist weil es vorher geklappt hat, aber ist dein (Gigabit?) Netzwerk stabil? Hatte bei nem Kunden mal ein Problem mit den gleichen Sympthomen. Auch in unserem Netz habe ich ein paar Leitungen die ich künstlich herunterfahren muss weil die Qualität der Leitungen nicht für 1Gbit geeignet ist. Ein Paketanalyzer (Wireshark) hat dann hervorgebracht, dass ca. die Hälfte der Pakete verworfen wurden. Die neueren Windows sind diesbezüglich eher heikler geworden mit den ganzen Authentifizierungsmechanismen, da werden gerne auch solche Meldungen geworfen wenn die Kommunikation etwas happert. Wenn es nur bestimmte Clients betrifft würde ich mal einen 100er Switch in die Leitung klemmen oder den Port am Switch auf 100 herunterschalten. Ist ein simpler Test und Ergebnis siehst sofort. Halt darauf achten, dass die Datei von niemandem geöffnet sind, sonst bringts auch wieder nix ;)
  23. Sehr schön und klar beschrieben was geht und was nicht. Eigentlich alles logisch, nur die Hersteller sträuben sich mit aller Kraft dagegen. Jetzt fehlt nur noch, dass das eingeschränkte Verwendungsrecht fällt. Unter anderem - Nutzungsrechte des gleichem Stück Software als physisch oder virtuell muss identisch sein - Übertragung von einer Lizenz von einem Metall zum anderen (Defekt, vMotion in virtuellen Umgebungen, was auch immer) muss generell erlaubt sein, egal welche Lizenzform Auch hier müsste es dem Hersteller egal sein, wie und wo eine Instanz seiner Software eingesetzt wird. Hauptsache diese Instanz der Software wurde gekauft oder gemietet. Auch hier bin ich sicher, dass ein entsprechender Gerichtsentscheid zugunsten der Käufer entschieden würde. Nur laufen die Mühlen der Justiz langsam und ein grosser muss erstmal gewillt sein, die Klage aufzuziehen. Nur machen sie das clever. Jetzt alles mit Miete bzw. Wartungsverträgen durchdrücken weil das andere widerrechtlich sein soll und wenn entsprechend entschieden wird, hat niemand mehr Lizenzen von gekaufter, modernder Software sondern nur noch entsprechende Mietverträge. Problem gelöst. ;) Deshalb: Kauft noch Lizenzen von Office und Windows solange es sie zu kaufen gibt. :cool: Bin aber nach wie vor der Meinung, dass die Hersteller Ihren Effort eher in bessere Software und neue Funktionen stecken sollten als den Leuten irgendwas aufzuwingen, aus Angst, sie könnten das neue Produkt nicht mehr kaufen, weil das alte immer noch den Anforderungen genügt. Absolute Innovationsbremse und immense Geldvernichtungsmaschinerie.
  24. Du hast ein paar Jahres-wechsler drin (2013 anstelle 2012) aber macht nix. ;) Gründe können nur Spekulatitionen sein. Gut vorstellen kann ich mir, dass weil eben der Download im November verfügbar war, die Kunden das teilweise heruntergeladen und installiert haben und mit dem erscheinen der neuen PUR's eigentlich nicht korrekt lizenziert gewese wären. Dies obwohl sie das Produkt welches nicht mehr im Entwicklungsstadium war, während ihrer laufenden SA herunterladen konnten. Irgend ein gewichtiges oder mehrere Unternehmen haben wohl entsprechend gemeckert oder MS ist von selbst drauf gekommen. Vielleicht war Exchange bei einigen sogar schon im Oktober verfügbar, deshalb Oktober und nicht November. Vielleicht wollen Sie auch mehr Kunden zum Umstieg bewegen weil Office 2013 harzt (aus gutem Grund) und erhoffen sich eine grössere Menge an Outlook 2013. Wie gesagt, alles Spekulation, ich tippe aber auf ersteres. ;)
  25. Weingeist

    Windows 8 und TPM

    Ich finde es nur lustig das jetzt alle so unglaublich überrascht sind mit der ganzen Spionage-Affäre. Jeder hohe Regierungsvertreter wusste das und jeder der mit Computer zu tun hat und auf fünf zählen kann, weiss das auch oder vermutete es immerhin. Der CCC und diverse andere Gruppierungen machen seit X-Jahre auf die Problematik der eindeutigen ID's in CPU's, TPM-Chips, RFID's etc. aufmerksam. Auch normales TPM oder die Funktionen der Fernkontrolle der ganzen IntelBoards zwecks vordergründigem Diebstahlschutz laufen in die exakt gleiche Richtung. Die ganzen Spielereien die mit dem RFID-Trend in Kraft gesetzt werden (netterweise hat jede Private Kreditkarte mittlerweile einen, Business nicht) sind auch sehr interessant. Die Bestrebungen laufen in Richtung totale Kontrolle. Konzerne + Regierungen wünschen sich das schon lange. Würden diese Dinge rein für die Verbrechnungsbekämpfung benutzt, sichergestellt sein, dass nur 'saubere' Leute diese anwenden und die Hardware, Software, Mechanismen etc. absolut fehlerfrei sein, dann wäre das nicht mal schlecht. Man kann aber keines davon auch nur im Ansatz garantieren. Zuviel Geld, Macht und Mensch dahinter. Solche Allround-Werkzeuge sind neben den Vorzügen auch excellent dazu geeignet, unliebsame Leute komplett auseinander nehmen, Dinge unterzujubeln usw. Dazu kann man diese Dinger hacken, für Betriebsspionage oder Sabotage benutzen usw. Warum wissen wohl die Konzerne immer innerhalb kürzester Zeit woher und wie ein Hacker-Angriff funktioniert hat? Da muss man unweigerlich an die Mithilfe der Geheimdienste denken, welche wohl den illegalen Part der Ermittlungen übernehmen. Die Konzerne selber bleiben so sauber und bekommen weniger Probleme mit ausländischen Regierungen. Das solche Dinge nicht umsonst sind, liegt auf der Hand. Frei nach dem Motto: Ich schütze Dich, dafür gibts Du mir ein paar Infos. Damit es Dir leichter fällt bekommst noch etwas Geld dafür und wirst mit der Justiz keine Probleme haben. Schutzgelderpressung im Namen des Staates. Wobei der kleine feine Unterschied darin besteht, neben der Hilfe sogar Geld zu bekommen ;) Das ganze läuft übrigens im Detailhandel genau so ab. Nimm mein neues Produkt - auch wenn Du es noch so sc***e findest - + Betrag X pro Laden wo Du es reinstellst oder ich nehme Dir ein anderes Produkt - welches gut läuft und aufgrund der Marke quasi unverzichtbar ist - ebenfalls aus dem Regal. Man kann das ganze als Paranoia abstempeln, aber wer sich mal etwas mit Konzernstrukturen und deren Machenschaften befasst, dem muss speiübel werden. Ziemlich gut recherchiert und aufgeschlüsselt ist solches Gebahren übrigens in Sachen Wasser. Excellente Doku dazu: "Water makes Money". Absolut sehenswert, hochinteressant und gleichermassen erschreckend wie solche multinationale Konzern-Konzepte funktionieren.
×
×
  • Neu erstellen...