Jump to content

monstermania

Members
  • Gesamte Inhalte

    1.393
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von monstermania

  1. Moin, wie wäre es mit SMTP!? :p Kostet nichts und funktioniert! Mal im Ernst. Im Jahre 2013 sollte man nicht mehr diese Bastelösungen mit POP3-Connectoren verwenden! Schon gar nicht, wenn man ein System neu aufsetzt. Gruß Dirk
  2. Moin, so einen Spaß hatt eich auch mal. Bei mir lag es nachher an einem falsch konfigurierten DNS auf dem SBS2003. Es konnnten auf dem SBS2003 keine zusätzlichen Server in die Domäne aufgenommen werden. Es gab dann aber eine entsprechende Fehlermeldung in der Ereignisanzeige des neuen Servers, so dass ich das Problem lokalisieren konnte. Clients konnten ohne Probleme der Domäne hinzugefügt werden. Hier mal der Link zum betreffenden Fred: http://www.mcseboard.de/topic/172847-problem-bei-migration-sbs2003-zu-sbs2008r2/?hl=%2Bmonstermania&do=findComment&comment=1063990 Gruß Dirk
  3. Moin, wir haben hier auch ein NAS. Das von Dir geschilderte verhalten kann ich so nicht nachvollziehen. Auch was der Buffallo-Support Die als Auskunft gegeben hat ist quatsch. Dateien werden beim löschen ja gar nicht wirklich vom Server gelöscht sondern es wird ja nur das Directory bereinigt. Die Daten sind pysikalisch ja weiterhin vorhanden. Natürlich bricht die Performance auf einem Server oder NAS ein, wenn mehrere User gliechzeitig auf unterschiedliche Daten zugreifen. Hier spielen dann Performance und Anzahl der Platten, der Raid-Level und das Caching des Plattencontrollers eine elementare Rolle. Was willst Du nun konkret wissen? Ob Du lieber ein NAS oder pysikalische Platten in einem 'echten' Server einsetzten sollst? So etwas kann man nicht pauschal sagen, da hier das verwendete NAS/Platten eine wichtige Rolle spielen. Eine entsprechend ausgestattete (teure) NAS-BOX hat eine ähnliche Performance wie ein gleich ausgestatteter echter Server. Als konkreter Tip: Eine QNAP 869 Pro mit 8 Platten im Raid 5 (6 Platten effektiv) läuft schon sehr fluffig :) . Die bekommst Du mit Ihren 2 x 1 Gbit NW-Ports kaum voll ausgelastet. Gruß Dirk Gruß Dirk
  4. Moin, also zunächst mal finde ich es löblich, dass Du Dir gedanken um das Backup machst. Allerdings gehört zu einem Backup viel mehr, als nur eine Software. Zunächst mal würde ich mir überlegen bzw. mit den Abteilungen klären, welche Daten über welchen Zeitraum wiederhergestellt werden sollen bzw. müssen. Wenn das geklärt wurde kannst Du Dich auf die Suche nach der geeigneten Software machen. Wir z.B. haben sehr viele CAD-Daten im Netz. Alle diese Daten müssen gemäß Vereinbarung mit der Konstruktion für einen Zeiraum von 6 Monaten tagesgenau wiederherstellbar sein. Andere Daten im Netz werden z.B. nur einmal die Woche gesichert. Datensicherung ist erstmal das Konzept. Dann kommt die Umsetzung! Gruß Dirk
  5. Hmm, kann man sicherlich so machen... Ist aber IMHO eine totale Bastellösung! Sorry, aber so etwas würde ich nicht einrichten und anschließend supporten wollen. Ich halte 64 GB RAM für völlig oversized. Ein Windows 7 läuft super mit 4 GB RAM. Bei 3 Clients wären dass max. 12 GB. Da reichen dann auch 32 GB locker für den Server. Es gibt auch die Möglichkeit ein Windows 7 Prof. als Terminalserver laufen zu lassen. Muss man einfach ein bißchen googeln... :cool: Allerdings steht so etwas lizenztechnisch möglicherweise auf wackeligen Füßen. Rein rechtlich macht man ja damit nichts illegales, wenn man ein Win 7 so pimpt, dass sich mehr als 1 User per Remote anmelden können (sofern man die notwendigen Lizenzen ordnungsgemäß gekauft hat). Welche Faxsoftware wollt Ihr einsetzten? Ich hoffe nicht den Windows Faxdienst. Aber: Als Kunde würde ich ein Systemhaus auslachen, wenn es mir eine solche Lösung anbieten würde... Interessant auch Deine Aussage, dass Eure Hardwareausfälle kleiner sind als bei jedem Markenhersteller :jau: . So etwas hört man doch gerne... Da frage ich mich echt, warum Jemand dann überhaupt noch bei Herstellern wie IBM, HP oder Dell kauft :D . Gruß Dirk
  6. Moin, ich habe solche Lösungen schon realisiert. Ich gehe einfach mal von Sage New Classic Line aus!? Allerdings unter VM-Ware (Essentials-Lizenz). 1 VM-Ware Host auf dem die virtuellen Windows Server laufen (1xSBS2011, 1x2008R2 als Datenbankserver, 1x2008R2 als Terminalserver) Der SBS 2011 übernimmt dabei die Rolle des DC, Exchange und Fileservers. Sicherung des Systems mit Veeam Backup&Replication (Replikation der VM's alle 2 Stunden auf ein QNAP NAS. Backup ebenfalls auf QNAP). Externes Backup dann von der QNAP auf externe USB-Platten. Bei der QNAP sollte es sich allerdings um ein etwas leistungsfähigeres Modell handeln (z.B. x69-Serie). Im Falle eines Chrashes des VM Hosts kannst Du die VM's in ein paar Minuten aus der Replikation wieder hochfahren, sofern Du einen 2. VM Host hast. Der geplante Server hört sich für mich etwas nach Selbstbaulösung an. Ich würde Dir auf jedem Fall empfehlen eine VM zertifizierte HW einzusetzten. Z.B. ein Dell T320 mit Quadcore, 32 GB und HW Raid-5 mit Cache und BBU sollte für die genannten Anforderungen völlig ausreichend sein. Einen Markenserver allein schon, weil Du dann einen entsprechenden Vor-Ort-Service mit anbieten kannst. Wie willst Du den Faxserver realisieren. SBS und die integrierte Faxlösung ist seit 64-Bit Clients keine gute Wahl mehr. Gibt eine Menge Probleme. Außerdem mußt Du daran denken, dass Du die Faxhardware irgendwie an Deinen virtuellen Faxserver anbinden mußt. Bei kleinen Lösungen habe ich so etwas mit einem seriellen Faxmodem an einem Moxa Nport realisiert. Mit dem Nport kannst Du per LAN2seriell auf das Faxmodem zugreifen. Funktioniert einwandfrei bei mehreren Installationen unter GFI Faxmaker. ISDN-FAX gibt es auch Lösungen, wird aber dann sehr schnell teuer. Ach ja, bei TS-Betrieb brauchts Du zwingend MS-Office Volumenlizenzen für das Office-Paket auf dem TS. Bei weiteren Fragen, einfach fragen. Gruß Dirk
  7. Moin, schau Dir mal Drivesnapshot an. Kostet als Servervesrion so um die 80€ und kann dank Steuerung per Batch Alles was Du möchtest. Habe Drivesnapshot selbst bei mehreren Kunden im Einsatz (auch unter einem SBS). Probleme gab es bisher absolut keine. Gruß Dirk
  8. Hallo Andreas, grundsätzlich sind Deine Fragen ja schon beantwortet worden. Aber Backup ist wesentlich mehr, als Daten irgendwo auf ein Medium zu schieben. Backup verlangt immer ein Konzept. Zunächst solltest Du hausintern klären, wie lange Du welche Daten wieder aus der Sicherung herstellen können mußt! Typisches Beispiel sind die Userfiles bzw. die allgemeinen Dateien. Ich habe es jetzt schon mehrfach erlebt, dass User zu einem kommen und einen Dateistand benötigen, der mehr als 4 Wochen zurück liegt! Unser Fileserver wird z.B. so gesichert, dass wir die Daten der letzten 6 Monate tagesgenau zurück sichern können. Andere Server werden z.B. nur 1 mal die Woche gesichert. Deswegen erstmal ein Backupkonzept erarbeiten und anschließend das Konzept umsetzten. Gruß Dirk
  9. Moin, grundsätzlich ist das mit dem USB-durchreichen an eine VM immer so eine Sache. Kann gut funktionieren, muss es aber nicht! Hängt von vielen Faktoren ab. Hat schon einen Grund, warum ich nur VMWare zertifizierte HW in produktiven Umgebungen einsetze. Hilft Dir jetzt nicht unbedingt bei Deinem Problem weiter aber Trotzdem ein Tip: Ich setzte bei kleinen VM-Umgebungen gerne ein kleines NAS ein (z.B. QNAP 119 oder 219). Sicherung erfolgt dann per Backupsoftware auf das NAS. Anschließend dann ein Backup vom NAS per USB2Disk auf eine täglich wechselnde externe FP. Gruß Dirk
  10. Hallo Matthias, was für ein RAID Controller verwendest Du? Ist der Controller auf der Kompatibilitätsliste von VMWare? Ist der Cache auf dem Controller aktiviert? Wie groß ist der Cache? Bist Du sicher, dass es überhaupt ein SAS Controller ist? 1TB Seagate Baracuda klingt für mich nach SATA. Ich hoffe nicht, dass es sich um ein SW RAID (z.B. Onboard Intel Matrix Raid) handelt. Ein solches RAID funktioniert nur mit einem Treiber des Betriebssystem. Solche RAID-Systeme werden von ESXi nicht untertsützt! Du kannst dann eine FP nur einzeln ansprechen. D.h. Du würdest dann die beiden 1 TB-Platten als Einzelaufwerke in VMware sehen. Grundsätzlich kannst Du von einer solchen Konfiguration keine Performancewunder erwarten. Dazu bräuchte es einen richtigen RAID-Controller mit batteriegepufferten Cache und echten SAS-Platten. Nun zu Deinem Mißverständnis mit der Geschwindigkeit wenn Du eine 1 GB-Datei von einer VM zu einer anderen VM über Deinen virtuellen 10 Gbit Switch kopierst. Da kopierst Du physikalisch die Datei von einem Bereich Deiner Festplatte in einen anderen Bereich der gleichen Festplatte. Die Performance wird daher in diesem Fall ausschließlich von der Geschwindigkeit Deiner Platte beschränkt! Bei nur 1 Platte bekommst Du selbst mit einem 1 Gbit NW ohne Probleme klar Prüfe also zunächst mal Deinen RAID-Controller. Evtl. lohnt es sich einen gebrauchten Raid-Controller über ebay zu kaufen. Dieser sollte allerdings auf der Kompatibilitätsliste von VMWare aufgeführt sein! Gruß Dirk
  11. Hmm, nur mal so am Rande. Mit 'lahmen' 1Gbit Netzwerk schaffen wir in der Praxis 70-80 Mb/s beim kopieren großer Dateien über das Netzwerk (Windows Client zu virtuellem Fileserver). Ich habe jetzt Deinen anderen Fred nicht gelesen. Grundsätzlich muss natürlich die HW der VM Infrastruktur Leistungsstark genug sein um 10Gbit NW überhaupt bedienen zu können. Bei 1 Gbit NW sind max. rund 100 MB/s drin. Bei 10 Gbit sind dementsprechend max. 1000 Mb/s zu erreichen. In der Praxis dürftest du bei 10 Gbit NW derzeit so 200-300 MB/s schaffen. Natürlich immer unter der Voraussetzung, dass Deine VM Infrastruktur auch mit diesen Datenmengen klar kommt. Es wäre daher sehr hilfreich, wenn Du hier schreiben würdest, wie Deine Infrastrukur überhaupt aussieht (VM Host Hardware und Speichersystem). Gruß Dirk Edit: Hab jetzt mal Deinen anderen Fred gelesen. Du hast also gar kein 10 Gbit NW, sondern nur das virtuelle NW zwischen den virtuellen Servern auf 10 Gbit aufgeblasen? Wie obn schon geschrieben, macht das natürlich nur Sinn, wenn Dein VM-Host entsprechend Leistungsfähig ist. Kannst Du gut mit einem 'getunten' 60 PS Golf vergleichen. Zwar kannst Du den Golf tiefer legen, Breitreifen und eine Sportauspuff draufmachen. Trotzdem hat der Golf nur 60 PS und läuft 160 km/h!
  12. Hallo, ich hoffe, dass Du ein solches Backup nicht produktiv einsetzen willst. 3 Backups sind m.E. viel zu wenig für ein sinnvolles Backup! Was machst Du denn, wenn ein User eine wichtige Datei gelöscht/zerstört hat und das erst nach z.B. 2 Wochen bemerkt wird? Zu einem vernünftigen Backup gehört zunächst mal die Überlegung wie ein sinnvolles Restore ermöglich wird. D.h. wie lange Du welche Daten in welchem Zeitraum wieder bereitstellen kannst bzw. musst. Wir können z.B. bei allen unseren CAD-Daten den täglichen Stand für einen Zeitraum von 6 Monaten aus dem Backup wiederherstellen. Bei allen Sicherungen > 1 Monat muss man dann aber erstmal die Bänder aus dem Bankschließfach holen (Zeit!). Und ja, wir mußten schonmal mehrmals den Datenstand eines bestimmten Tages (teilweise über 8 Wochen her) wiederherstellen. Bei anderen unserer Server erfolgt z.B. eine Sicherung nur 1 mal wöchentlich (z.B. Mailgateway). Backup ist sehr viel mehr als der bloße Einsatz einer Software. Gruß Dirk
  13. Hallo Michael, wie viele User sind denn betroffen? Ab einer Userzahl von 5 würde ich immer den Weg der Migration gehen. Das MS Dokument ist sehr gut, aber eben auch sehr umfangreich. Ich würde daher immer empfehlen eine Testmigration zu machen. Dabei merkt man dann recht zügig ob und welche Probleme auftreten können. Ich habe bei der Migration schon einige Überaschungen erlebt. Ohne eine vorherige Testmigration wäre bei einigen Kunden eine Downtime von 1 Woche da gewesen! Wenn es sich um ein HW-Problem mit dem alten Server handelt wäre eine mögl. Alternative auch eine Virtualisierung des jetzigen SBS2003. Habe ich auch schon diverse Male bei Kunden realisiert (VM-Ware). Vorteil: Du bekommst den SBS2003 sofort von der alten HW herunter und kannst Dir mit ggf. einer Migration mehr Zeit lassen. Evtl. ist eine Migration dann auch ganz unnötig, da die Funktionalität des SBS2003 ausreicht! ;) Ach ja, Virtualisierung des SBS2003 wird von MS nicht Supportet! In der Praxis funktioniert das aber problemlos. Gruß Dirk
  14. Hallo Peter, da es sich um eine Testumgebung handelt würde ich an Deiner Stelle nochmal ganz von vorne beginnen. Du hast ja in Deinem 1. Post eigentlich den Migrationsweg recht sauber beschrieben. Wenn der SBS2008 incl. AD sauber funktioniert sollte es ja kein Problem sein einen 2012'er Server als 2. Domänencontroller hinzuzufügen. Anschließend dann den 2. 2012'er Server installieren und in die Dömäne bringen. Anschließend dann Exchange 2013 installieren und migrieren. Problematisch (im Sinne von Erfahrungsberichten/Hilfestellungen) dürte es sein, dass gar so viele noch nicht auf EX2013 migriert haben. Wir würden z.B. gerne von Ex2007 auf Ex2013 migrieren. Da aber Schnittstellen von unserem DMS und CRM für EX2013 erst zum Ende des Jahres freigegeben werden ist das Projekt auf 2014 verschoben worden. Gruß Dirk
  15. Moin, irgendwie läuft der Fred hier nen biss auseinander... Zur Hardware kann ich Dir sagen, dass m.E. das Verhältnis von Cores und RAM nicht zueinander passt. Du hast entweder zuviele Cores oder zu wenig RAM. Bei 12 Cores wären m.E. 128 GB sinnvoll. Zum Migrationsproblem: Ich hoffe, dass es sich bei Szenario nur um eine Testumgebung handelt! Eine SBS-Migration von z.B. SBS2003 auf SBS2011ist schon nicht ganz trivial. Und dazu gibt es immerhin einen Leitfaden von MS... Gruß Dirk
  16. Hallo Prinzenrolle, ich kenne sowohl den T110 als auch den T320 recht gut und habe beide schon diverse Male eingesetzt. Einen Server definiert bzw. sized man ja nicht unbedingt nur an den techn. leistungsdaten wie CPU oder RAM. Hier spielen viel mehr Dinge wie System- und Ausfallsicherheit eine wesentliche Rolle. Ob ein T320 für Eure speziellen Anforderungen oversized ist hängt m.E. maßgeblich von den Anforderungen an Ausfallsicherheit die an den Server gestellt werden. Der T320 kann u.a. auch mit Dual-Netzteil konfiguriert werden (T110 nicht). Schon dieser Punkt disqaulifiziert den T110 m.E. für unternehmenskritische Anwendungen. Auch der 3 Jahre VorOrt-Service ist so eine Sache. Standardmäßig ist damit ein VorOrt-Service am nächsten Arbeitstag gemeint. D.h., dass der Ausfall schon mal ein Wochenende dauern kann. Unter Umständen ist es daher sinnvoll einen Supportverttrag mit 4h Reaktionszeit VorOrt abzuschließen. Leider kann ich aus Deinen Angaben nicht entnehmen, ob es sich um einen Einzelserver oder um einen zusätzlichen Server im Netz handelt. Auch das mit dem LTO LW für Datensicherung ist mir nicht klar. Backup nur für diesen Server!? Für einen Einzelserver dieser Größenordnung ist ein LTO m.E. nach Oversized. Ich würde ein Dell RD1000-LW mit entsprechenden Medien empfehlen. Gruß Dirk
  17. Hallo Johannes, Ja Du hast recht. Und ich auch... ;) Grundsätzlich bin ich auch ein Befürworter von Virtualisierung. Aber Virtualisierung braucht ein Konzept. Und einen einzelnen Terminalserver zu virtualsieren ist m.E. überhaupt kein Konzept! Hier wird als einziger Grund die mögliche Snapshoterstellung/Wiederherstellung angeführt. Und allein hier muss ich dann schon hinterfragen, wie z.B. eine Sicherung der einzelnen Snapshots erfolgen soll... Du bringst es ja auch auf den Punkt. Gedanken machen! Gruß Dirk
  18. Hi, na ja grundsätzlich funktionert das mit der Sicherung auch mit Windows Bordmitteln. Aber die Frage ist ja, ob Dir die Möglichkeiten ausreichen. Ich denke hier z.B. an Exchange-Sicherung (Wiederherstellung einzelner Postboxen) oder auch ein Langzeitbackup z.B auf Tape. Aber Veeam wäre auch meine Empfehlung, wobei ich nur die VM-Ware Version von Veeam kenne. Die 7'er soll ja jetzt auch auf Tape sichern können. Gruß Dirk
  19. Hallo Sythus, hmm, auch mit einer Imagesoftware kann ich einen Server sehr schell wieder herstellen :cool: . Nur aus diesem Grund würde ich keinen einzelnen Server virtualisieren. Virtualisierung lohnt sich m.E. immer dann, wenn man Konsolidieren muß/möchte oder Features wie z.B. Hochverfügbarkeit realisieren möchte. Gruß Dirk
  20. Hallo, habe im März meine neue Stelle angetreten und stand vor der gleichen Aufgabe :D. Habe mich schlussendlich für Zabbix entschieden. Mittlerweile überwachen wir damit neben unseren VM-Hosts diverse Netztwerkkomponenten und Dienste auf den Servern. Auch die Umweltumgebungen im Serverraum überwache ich mit Zabbix. Hier findest Du ein recht gute Tutorial zu Zabbix: http://lab4.org/wiki/Hauptseite Sogar den SMS-Versand habe ich zwischenzeitlich eingerichtet. Einfach eine tolle SW! Gruß Dirk
  21. Hallo Peter, ja, ich kenne die QNAP-Geräte. Sind für das Geld echt gut. Und für eine Testumgebung kann man so eine QNAP auch als zentrales Storage einsetzten. Aber produktiv würde ich eine solche Umgebung nicht einsetzten. Ich habe aber schon mehrfach eine QNAP als Backupmedium in kleineren VMWare-Umgebungen eingesetzt. Eine gute Einstiegslösung für ein SAN ist z.B. die DS3000/4000 von IBM. Ich würde Dir aber empfehlen ein komplett abgestimmtes System aus SAN und entsprechenden Servern zu kaufen. Such mal nach den Intel Modular Servern. Hier hast Du abgestimmte HW zu überschaubaren Kosten. Gruß Dirk
  22. Hallo Sythus, grundsätzlich kannst Du fast jeden Server bzw. Rechner virtualisieren. Probleme gibt es eigentlich nur, wenn in den Server spezielle Hardwarekarten verbaut sind. Wir betreiben z.B. unseren Citrix-Server auch virtuell. Der virtuelle Server verhält sich nach einer Virtualisierung genau so, wie ein Server auf realer Hardware. Allerdings brauchst Du für die Virtualisierung ein Konzept. Es macht z.B. IMHO keinen Sinn einen einzelnen Terminalserver zu virtualisieren. Was genau möchtets Du denn damit erreichen? Gruß Dirk
  23. Hallo Peter, klar könntest Du mit einer solchen QNAP arbeiten (iSCSI). Allerdings wird Deine Umgebung dann extrem lahm! Solche NAS-Server sind super um z.B. einen File- oder Backupserver damit zu betreiben. Als SAN-Ersatz taugen Sie aber definitiv nicht! Gruß Dirk
  24. Tja, ich weiß nicht wie Symantec das kopieren der vmdk's handelt. Ich bin auch nur Anwender. :rolleyes: Fakt ist: Die Datentransferrate sowohl von BE als auch eines FP-Imagers bricht beim Schreiben einer 100 GB-Datei auf einen Windows 2003R2x64 mit steigender Dateigröße immer mehr ein. Ich habe das mit 2 Windows 2003x64 Servern getestet. Davon war einer reale HW, der andere war eine VM. Unter Windows 2008R2 oder auch Windows 7 tritt dieses Verhalten nicht auf! Der Imager schreibt die 100GB-Datei während des gesamten Imagevorgangs mit konstanter Geschwindigkeit. Auch getestet, sowohl mit realer HW als auch mit VM. Warum das so ist geht ja aus dem verlinkten Technet-Artikel hervor... Gruß Dirk
  25. Lieber zahni, wenn es doch nur so einfach wäre... :rolleyes: Ich möchte ja den (teuer) gekauften VM-Agent für BackupExec nutzen. Nur kopiert dieser Agent eben 1 zu 1 die vdmk auf den Backupserver... Und nun!?
×
×
  • Neu erstellen...