Jump to content

werner008

Members
  • Gesamte Inhalte

    199
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von werner008

  1. moin, was ich mich frage, gibt es bei gerade mal zwei servern einen guten grund zu virtualisieren? ich glaube, dass zwei kleine einzelserver einfacher und auch nicht wirklich teurer sind als eine große maschine. gruß werner
  2. werner008

    Hyper-V oder vSphere

    moin, ich weiß nicht was deine 5 jahre alten server aufführen, aber wenn du eh schon ein SAN hast, dann kommst auch mit 2 servern aus. du hast gerade mal 11vms - ich habe bei ner umstellung mal 38vms (sql, exchange, linuxe, alles bunt gemischt) auf einem (!) dual quad mit 40gb ram (natürlich mit san, aber auch nur klein mit 13 disks im raid5) betrieben über mehrere wochen um zu schauen, ob es wem auffällt - hat keiner bemerkt. wenns wirklich nicht reichen sollte, dann kannst später immernoch nen dritten server kaufen. um auf deine frage zurück zu kommen: ich tendiere zu vmware, aber eher aus mangelnder erfahrung mit hyper-v. überleg dir, ob du vmotion und co wirklich brauchst (ich jongliere meine 40vms auf zwei servern ohne vmotion und es wäre nur während der umstellungszeit von 3.5 auf 4 ein nice2have gewesen, wobei ich nicht mal weiß ob das überhaupt gescheit geht). vmotion is schön, aber man kann auch ohne leben ;-) für so kleine umgebungen tuts meiner meinung nach das kleinste bundle mit vcenter und 6cpu lizenz. gruß werner
  3. ja leider, wird im prinzip eh nur asynchrone replikation möglich sein da die bandbreite nicht garantiert ist und für andere zwecke mit benutzt wird. wir werdens zwar mal testen, aber ich sehe kaum eine chance unter den gegebenen bedingungen synchron zu replizieren
  4. moin, ok, ich habe etwas mehr vom entwicklerteam bekommen. - es ist von 75% inserts auszugehen, nur wenige lesezugriffe am ende des tages - berechnungen der daten erfolgen auf einem anderen server, der db-server tut nichts weiter, als einfach zeilenweise in die datenbank schreiben - es schaut so aus, als würde es nur sehr wenige fremdschlüssel geben, das meiste dürfte einfach unnormalisiert reingeschrieben werden wenn ich den schlimmsten fall mit 5000 inserts zu je 2kb ausgehe, lande ich gerade mal bei 10MegaByte pro sekunde -für mich klingt das nicht wirklich schlimm, oder seht ihr das anders? ich werde sobald wie möglich eine testapplikation bekommen, und dann testen wir mal... ist halt alles recht zeitkritisch, daher auch der punkt kosten "eher zweitrangig" und einfach zu viel statt zu wenig hardware kaufen. meine "aus dem bauch konfiguration" daher dual quad mit 64gb ram, raid10 aus 16 15k fc-san platten. mit der testapplikation sollten wir dann dem ganzen hoffentlich näher kommen. meinungen? :-) @djmaker: verfügbarkeit wird mit ersatzservern / cluster und ausfallrechenzentrum erledigt danke werner
  5. hallo, die software gibt es noch nicht, die wird erst noch erstellt. die programmierer haben mir ungefähr das mitteilen können was ich geschrieben habe. ich gehe grundsätzlich davon aus, dass sie sql recht gut optimieren können, aber du hast natürlich recht, es hängt viel von der art der abfragen ab. budget spielt eine ziehmlich untergeordnete rolle, geschwindigkeit ist wichtig. danke werner
  6. moin, gibt es so wie für exchange (You Had Me At EHLO... : Exchange 2007 Mailbox Server Role Storage Requirements Calculator) auch eine tabelle mit empfehlungen zur dimensionierung von sql-server hardware? irgendwie finde ich nichts... der server soll zwischen 1500 und 5000 transaktionen mit maximal 2kb datenmenge vertragen, schreiben / lesend etwa gleichviel. die datenmenge wird auf max. 800gb anwachsen, danach werden altdaten entsorgt. hat jemand von euch erfahrungen in diesen größenordnungen? wie gut skaliert der sql server? aus dem bauch heraus hätte ich einen server mit 2x quad xeon mit 64-96gb ram und ein fibre channel SAN mit min. 16hdds im raid10 genommen (workshop mit anbietern folgt demnächst) machen bei vielen transaktionen mehr CPUs sinn, also 4-wege maschine, oder ist das storage eher der limitierende faktor? danke werner
  7. moin, lösung falls es wer braucht: - aufpassen, dass man bei arbeitsgruppen immer den netbios namen nimmt, bei fremden domänen immer den fqdn (sowohl beim setdpmserver als auch beim einbinden des clients) - vorher mal mit net use in beide richtungen gucken, dass die authentifizierung klappt - passwörter entsprechend der passwort-policy wählen (das sagt in der gui allerdings, wenn das zu schwach ist) @mods: könnte bitte wer das topic auf "DPM 2010 ..." statt "DLP 2010..." tun - irgendwie bin ich da mehrfach verwirrt gewesen mit den ganzen abkürzungen... danke werner
  8. moin, ich teile immer die LUNs den controllern zu - das bringt mehr performance meiner erfahrung nach. das raid immer so viele platten wie möglich, aber immer nur innerhalb eines shelfs. gruß werner
  9. moin, zwar ein bisschen off-topic, aber ich hab vor kurzem mal ein lenovo notebook gesehen, wo das umts modem einfach nicht eingebaut war... da wars mit den treibern auch nicht leicht :-/ gruß werner
  10. moin, wie viel platz hast du auf c: frei und ist deine auslagerungsdatei mindestens so groß wie dein ram (lieber hälfte größer). mein gefühl ist, wenn weniger als ca. 3-5gb frei sind und der swap zu klein ist buggt ex2007 extrem. gruß werner
  11. moin, ich monitore nur festplattenplatz per snmp mit nagios, allerdings ist der 4.0 recht ranzig im vergleich zum 3.5er. für den rest reicht mir der vcenter client aus, so hohe anforderungen hab ich da nicht gruß werner
  12. moin, google: rdp multimon wenn das nicht reicht, dann halt upgraden ;-) gruß werner
  13. moin, ich würde trotzdem sagen, dass es sinnvoll wäre erstmal zu überdenken was in ein notfallhandbuch rein soll. das mit dem ausgefallenen server fällt für mich in die ganz normale dokumentation. notfall ist für meiner meinung nach nur ein ausfall der core-router, wichtige datenleitungen und virtualisierungsplattform. alles andere ist erweitertes tagesgeschäft danke für den tip mit verinice, das kannte ich noch nicht gruß werner
  14. moin, das thema data leakage prevention ist ein weites feld und es hat definitiv grenzen die mit technik allein nicht zu überwinden sind. wenn dich das thema auch in der theorie etwas interessiert, kann ich dir folgenden link anbieten. http://kasparick.com/download/data_leakage_prevention_da_kasparick.pdf quintessens ist dass geeignete daten + technik + geeignete gesetzlage + organisatorische rahmenbedingungen + geld datensicherheit zu einem gewissen grad machbar ist, aber der aufwand enorm ist. gruß werner
  15. moin, ich weiß ja nicht was deine rahmenbedingungen sind, aber in einem mittleren unternehmen mit ner hand voll IT-ler und unter 100 (virtuellen) servern kann man das auch mit einem schreibprogramm deiner wahl packen (open office, latex, wörd usw.) gruß werner
  16. ergänzung: ich bekomme die gleiche fehlermeldung bei nicht vertrauten domänen mit windows 2008 sp2 64bit als client
  17. moin, ich versuche gerade im data protection manger 2010 einen client aus einer arbeitsgruppe hinzuzufügen, nachdem das ja ein feature vom dpm 2010 ist. ich verwende die RTM demo server: win2008 r2 client: win XP sp3 ich habe den client installiert auf dem xp rechner, dann mit den client angewiesen den server dlp2010test zu akzeptieren (der heißt dlp... weil ich mich vertippt habe beim einrichten) ich sehe dann in der benutzerverwaltung, dass der benutzer "dpmagent1" mitglied der gruppen DPMRADCOMTrustedMachines und DPMRADmTrustedMachines ist. hier hätte ich eigentlich ein computerkonto erwartet, aber vielleicht passt das ja so. jedenfalls bekomme ich folgende fehlermeldung beim verbinden des clients ich bin mir sicher, das kennwort nicht stundenlang falsch einzugeben :-( ich kann netzlaufwerke in beide richtungen verbinden, das passwort sollte demnach passen hat jemand eine idee, was das sein könnte? google findet kaum etwas zu dem thema und nichts was mir hilft... danke im voraus werner
  18. moin, ich tät sonst unsere alten exchange 5.5 lizenzen verkaufen (gegen bier oder so), aber ich bin mir sicher, dass du das nicht willst ;-) gruß werner
  19. moin, naja, audio input ist afaik erst ab win2008r2 drin... gruß werner
  20. moin, rdesktop bzw. grdesktop - kann aber nicht die features aktueller rdp versionen gruß werner
  21. hallo, danke, werde mal auf preise vom netbackup warten und dann mal testen. sonst noch jemand vorschläge? danke werner
  22. hallo, an DFS habe ich auch schon gedacht. schwierigkeiten die ich da sehe: - es gibt standorte ohne domäne bzw. in domänen ohne vertrauensstellung zur zentrale (dies soll auch nicht geändert werden) - ich fürchte komplexität bei DFS über server zwischen windows 2000, 2003 und 2008, aber das müsste man testen das wäre meine grundidee gewesen und ich hätte nach vorschlägen für software gesucht, mit denen ihr gute erfahrungen habt. zb. backup exec, ms data protection manger (fällt aus wegen domänenübergreifender sicherung) usw. und damit ich beim start der inkrementellen sicherung nicht lange warten muss um einmal eine vollsicherung zu machen, wäre halt das feature gut, dass ich einmal einen grundstand per usb festplatte oder ähnlichem einspielen kann und ab da incrementell sichere danke werner
  23. hallo, weil ich auf der suche nach einer backupsoftware bin und nach erfahrungen suche, welche gut geeignet sind für die anforderungen - bandbreite ist meiner meinung nach deshalb kein thema, weil die änderungsdaten pro tag so gering sind, dass ich sie über die 4mbit leitungen drüber bringe datenbestand: zentrale: - fileserverdaten: 200gb - exchange: 50gb - sql: 50gb außenstellen - 10 außenstellenfileserver mit jeweils 10gb änderungsdaten pro tag: zentrale: - 60gb außenstelle - pro außenstelle nicht mehr als 2gb pro tag, eher im bereich <500MB alle auf DAS auf windows 2000-2008 servern danke werner
  24. hallo, der größte standort hat pro tag ca. 60GB zum sichern, wirkliche veränderungen, alle anderen standorte maximal 2 GB. bandbreitenmäßig ist das ganze kein thema. gesamtdatenmenge sind ca. 400GB, also nichts dramatisches denke ich RPO: die bisher einmal tägliche sicherung reicht aus, als ein tag arbeitsverlust verkraftbar, wobei die option für häufigeres backup vom fileserver natürlich schön wäre. datenbanken werden zwischen alle 2-4h gesichert (full und dann logfiles) RTO: 1-2 Tage je nach dienst beste grüße werner
×
×
  • Neu erstellen...