Jump to content

wznutzer

Members
  • Gesamte Inhalte

    388
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von wznutzer

  1. Es werden nicht mehr als 5 VMs (DC, SQL, Exchange, TFS, TSE). Es ist ja auch ein Backupserver. Der muss die notwendigsten VMs nur ausführen wenn die 6 Stunden Wiederherstellungszeit lt. Supportvertrag beim Hauptserver nicht funktionieren. Die IOs weiß ich nicht. Wenn ich wüsste wie ich das messen soll würde ich das machen. Es gab da mal ein Tool von Microsoft, Ressource Planning irgendwas. Wenn ich den letzten Server nach diesem Tool gekauft hätte, wäre das die komplette Gurke gewesen. Mischt ihr das alles wild durcheinander? Server von Dell, HP, IBM mit DAS, NAS, SAN von Terra? Wenn ich mir die Produktleitfäden von IBM oder Lenovo anschaue sind immer nur bestimmte Konstellationen supportet. Dieses nur mit dem Controller, das andere wieder nur mit einem anderen Controller usw. IBM (xServer) fand ich bisher sehr gut, Qualität als auch der Service, der Preis ist allerdings teilweise recht satt. Auch mit den ICO-Servern nur sehr gute Erfahrungen. Dass man um Lenovo einen Bogen machen müsste habe ich bisher noch nicht gehört, allerdings auch noch keine eigene Erfahrung. Grüße
  2. Guten Morgen, mein Backup-Server für Hyper-V muss erneuert werden, weil es für die Aufrüstung keine passenden supporteten Komponenten mehr gibt. Der Backup-Server sollte alle relavanten VMs ausführen können, deshalb kann es kein absoluter Schmalspur-Server sein. Den Speicherplatz wollte ich zuerst komplett auf ein NAS auslagern, aber nicht zuletzt wegen der Performance und dem Zugriff auf Blockebene spiele ich mit dem Gedanken das Backup der VMs auf ein lokales Storage zu machen. Das NAS als iSCSI anzubinden will ich eher nicht. Den Backup-Server will ich noch für einen zweiten DC (VM) "missbrauchen". Z.B. CPU E5-2620 v3 2,4 GHz 96 GB RAM ca. 6 TB Speicherplatz. 10 GB NIC Den Speicherplatz könnte man locker mit 4 Festplatten in einem Raid 1/10/5 erreichen. Nur nimmt man hier besser SATA oder SAS HDDs? Eher mehr kleinere oder wenige große? Natürlich nur 24x7, aber das gibt es ja für beide Varianten. Wenn ich bei ICO so ein Server konfiguriere komme ich locker mit ca. 4.500 EUR hin. Ein RD450 von Lenovo kommt locker auf knapp 10.000 EUR. Lenovo will für eine 4 TB HD fast 900 Euro. Mich würde noch interessieren wie Ihr das mit einem Backup-Server so macht (lokale Platten SAS/SATA, SAN, NAS, iSCSI, USB :thumb2: ). Ich weiß, ziemlich pauschal diese Frage. Aber vielleicht hat ja jemand Lust ein wenig zu plaudern. Vielen Dank und ein schönes Wochenende P.S. Das hier (http://www.heise.de/ct/hotline/Welches-RAID-Level-fuer-viele-Terabytes-2056731.html) beschriebene kann man ja auch nicht ganz ignorieren.
  3. Das Band ist als Notfall gedacht. Da will ich einfach keine Container-Formate die wieder nur mit speziellen Programmen gelesen werden können, einfach nur die Daten (Microsoft Tape Format). Die VMs selber kommen auf ein NAS. Um das ganz toll zu haben evtl. noch die VMs einmal die Woche auf ein separates Tape. Wenn die Bude nicht abbrennt benötige ich niemals Bänder und kann alle Vorzüge von Veeam nutzen. Ich verwende Veeam derzeit noch nicht. Bevor ich eine Software einsetze oder auch nur teste, lese ich die Doku und Erfahrungsberichte im Web. Wie Dirk oben berichtet gab es das Problem ja wirklich, ist aber jetzt behoben. Jetzt, für mich, gibt es keine theoretischen Unzulänglichkeiten mehr, somit teste ich das jetzt mal für 30 Tage. @monstermania Danke. Das hilft mir. Viele Grüße
  4. Weil ich mit jedem einzelnen Band meines rotierenden Systems in der Lage sein möchte alles (die Daten) wieder herzustellen. Ja, man kann das auch anders machen. Muss man vielleicht sogar wenn das Volumen deutlich höher ist. Das Tape ist das Backup für den absoluten Notfall (alles abgebrannt). Für diesen Notfall will ich keine Hürden, egal was. Mit mehreren Bändern zu hantieren wenn es anders geht ist für mich eine solche vermeidbare Hürde. Ja, man kann auf ein Band mehrere Backupsätze speichern. Das Band muss aber täglich außer Haus, für mich jedenfalls. Im Haus ist nur das Band das beschrieben wird.
  5. Hallo, kann jemand von euch etwas zu der Performance von Veeam File2Tape sagen? Ich habe gelesen, dass Veeam beim Backup von vielen kleines Files auf ein Tape sehr sehr langsam ist. Kann das jemand von euch aus der Praxis heraus bestätigen oder entkräften?Ich müsste zwar täglich "nur" ca. 550 GB sichern, davon sind aber 150 GB Kleinzeug. Ich habe Threads gefunden in denen von KB/s nicht mehr von MB/s berichtet wurde. Ich will jeden Tag ein Fullbackup, auch Umwege über 7Zip gefallen mir nicht wirklich. Derzeit verwende ich Backup Exec. Das läuft mit 80 - 90 MB/s auf ein LTO4-Laufwerk, meiner Meinung nach, recht flott. Veeam müsste da mithalten können. Wenn wir schon dabei sind. Wie sind eure Backupzeiten der Hyper-V VMs bei Veeam? Natürlich hängt das vom Volumen und der Hardware ab, aber so ein paar Zahlen würden mich interessieren. Derzeit verwende ich Altaro Hyper-V Backup. Da sind die Zeiten z. B. so: Xeon E5 2460 2,4 GHz, Quelle interne SSDs, Ziel Qnap 469TS, VM komplett 250 GB, Delta täglich ca. 25 GB, 20 Minuten Xeon X5570 2,9 GHZ, Quelle 12 x 15K SAS, Ziel Qnap 469 TS, VM komplett 650 GB, Delta täglich ca. 50 GB, 90 Minuten Ich ertappe mich dabei ernsthaft zu überlegen warum ich Veeam anstatt jetzt Altaro + Backup Exec verwenden soll :) ? Muss mich noch ein wenig damit beschäftigen. Grüße und Danke
  6. OK! Vielen Dank. In meinen Fall ist es dann schon so, dass die Daten vom Backup-Proxy auf den Backup-Server übertragen werden. Bei mir also das 1GB Nadelöhr. Aber da der Backup-Proxy (der auf dem Hyper-V Host läuft) die Daten deutlich reduziert sollte das jetzt kein großes Problem sein. Gut, verstanden. Dann könnte ich mir die 10GB aber auch sparen. Das Qnap NAS soll tatsächlich über 400 MB/s schreiben und über 1000MB/s lesen können. Ob das aber Praxis ist, weiß ich nicht. Das NAS ist noch nicht gekauft. Aber ich glaube bei Dir rauszulesen, dass du Veeam kennst und damit zufrieden bist :) . Setzt du iSCSI tatsächlich produktiv problemlos ein? Ich weiß was das ist, aber hatte das bisher immer (aufgrund gelesenem) als wackelige Lösung abgespeichert. Aber das hat dann evtl. auch mit sauberer Implementierung beim Storage zu tun. Danke nochmals und Grüße
  7. Die VMs laufen auf einem lokalen Raid (1 oder 10 noch nicht ganz klar). Auf jeden Fall aktuelle Server SSDs, also performant. Das wird ein LTO6 Streamer. Dieser wird per SAS HBA an den Backupserver angebunden. Die VMs will ich jedoch nicht auf das Band sichern. Die Daten für das Band liegen auf einem lokalen Raid mit 15K HDD, also auch performant. Auf das Band kommen aber nur die reinen Produktivdaten (SQL-Server Backups, Exchange, usw.). Bei Veeam heißt das, glaube ich, File to Tape. Dafür könnte ich auch weiterhin Backup Exec nehmen. Aber wenn Veeam das auch kann, warum nicht. Diese Daten will ich nicht in irgendwelchen Container auf dem Tape haben, sondern im Microsoft Tape Format, direkt verwertbare Daten, immer Vollbackup. Auf den Tapes ist alles was ich brauche um alles wieder herzustellen, zwar dann mit viel Arbeit aber vollständig. Die Tapes werden durchgewechselt und bis auf eines immer außer Haus gelagert. Diese Tapes sind für den allergrößten Notfall (alles abgebrannt). Die VM Backups mit Veeam sind für den "normalen" Notfall. Aber auch diese will ich doppelt haben. Das NAS das als Backuprepository herhalten soll, will ich spiegeln. Qnap kann das von Haus aus, oder evtl. mit Veeam selber wenn das geht) muss ich noch schauen. Ja, reverse incremental, das wäre mir sympathisch. Lt. Doku zwar mehr IO (3 statt 1), gefällt mir aber besser. Ist forever reverse incremental etwas anderes? Kenne Veeam noch zu wenig um das ganz zu überblicken. Hatte bisher das Simple Deployment im Sinn. Da lese ich aber gerade, dass das Backuprepository auf dem Backupserver sein muss. Ich will aber das NAS benutzen. Ich muss mich noch ein wenig durch die Doku kämpfen. Ich will kein aufwändiges Szenario mit mehreren Servern für das Backup. Evtl. bleibe ich dann bei Altaro Hyper-V Backup um die VMs zu sichern. Aber auch dann hilft mir eine 10GB Anbindung. Altaro Hyper-V Backup funktioniert bei mir sehr gut. Veeam soll aber eindeutig die bessere Backup-Lösung sein und der Preis (Essential) ist auch mehr als angemessen. Aber wenn es nicht zu mir passt, passt es halt nicht. Da muss ich aber noch ein paar Informationen sammeln. Den Veeam Backup-Server will ich nicht auf dem zu sichernden Host laufen lassen, das kann man lt. Doku ja machen. Aber wenn mir der Host abraucht habe ich ja dann auch keinen Backupserver mehr. Und das booten von VMs direkt aus dem Backup geht ja dann auch nicht. Grüße P.S. Es geht um die Infrastruktur für ca. 65 Arbeitsplätze.
  8. Guten Tag, es ist Zeit für einen neuen Server. In diesem Zug wird das Backup-Konzept auf eine neue Grundlage gestellt. Konkret geht es mir darum ob folgendes funktionieren kann: 1 x Hyper-V Host mit Server 2012 R2, 10 VMs, 4 x 1GB Nic und 1 x 10GB Nic (wenn es was bringt) 1 x Qnap T463-U 10GB 1 x 10GB 24 Port Switch (wahrscheinlich Netgear) Die 4 x 1GB Nic werden auf die VMs aufgeteilt und sind mit einem Stack aus mehreren 1GB Switche verbunden. Dem Hyper-V Host wird die 10GB Nic zugeteilt. Diese ist mit dem 10GB Switch verbunden. Auch das Qnap ist mit dem 10GB Switch verbunden. Der 10GB Switch ist aber nur mit 1GB an den Stack aus 1GB Switche angebunden. Der Veeam Backup Server ist auf einem separaten Server mit Bandlaufwerk installiert. Dieser Server ist mit 1GB an das Netzwerk angebunden. Die VMs des Hyper-V Host sollen nun per Veeam auf das Qnap gesichert werden. Die VMs haben ein Volumen von ca. 1,3 TB. Wird in dieser Konstellation beim Backup das 10GB verwendet oder nehmen die Daten beim Backup den Umweg über den Veaam Backup Server (1GB)? (1) Hyper-V Host (10GB) auf Qnap (10GB) oder (2) Hyper-V Host (10GB) über Veeam Backup Server (1GB) auf Qnap (10GB) oder (3) ? Das Ziel ist, dass die Backups sehr zügig laufen. Veeam soll ja im Fehlerfall eine VM direkt aus dem Backup das auf einem NAS liegt booten können. Hm, evtl. schaue ich mal noch ob es eine supportete 10 GB Nic für den Veeam Backup Server gibt. Das ist ein IBM X3650M2. Wäre vielleicht auch was. Ich hoffe ich habe das einigermaßen verständlich beschrieben. Danke und Grüße
  9. Mist, das wusste ich nicht :mad:. Hatte bisher eine gute Meinung von Netgear. Nicht so teuer und macht was es soll, aber jetzt muss ich das evtl. überdenken. Der meinte, dass STP abschalten richtig ist. Seit dem abschalten von STP ist mein Netz wieder so wie ich das kenne. Zuverlässig, schnell, sauber, nur weiß ich nicht warum nur ohne STP. Evtl. hat Netgear das nur nicht sauber implementiert. Ja, leider auch dann. NIC-Teaming habe ich nicht konfiguriert. Das soll manchmal auch ein Grund sein. Trifft hier leider auch nicht zu. Seit ich STP abgeschaltet habe, haben die Switche die Topologie nicht mehr geändert. Vorher wurde das fast alle 1 - 3 Minuten geändert. Evtl. wirkt sich der Forward-Delay von 15 s hier irgendwie negativ aus. Ich vermute fast, dass solche Dinge der Grund sind, warum ein vergleichbarer Switch von Avaya, Cisco oder HP viermal so viel kostet. Vielleicht kann der Netgear das einfach nicht so gut.
  10. Hallo, ich knoble gerade an einem Netzwerkproblem. An einem Hyper-V Server (W2K8R2) tritt folgendes Event auf. Manchmal bis zu 100 mal in ein paar Sekunden. VMSMP 28 Anschluss "608299C0-3819-4CC3-963D-8FDA1947CCA1" wurde an der Verwendung von MAC-Adresse "00-15-5D-00-02-12" gehindert, da er mit Anschluss "E835DDE1-266A-4597-A8E9-F69F20A296C8" verbunden ist. Auf dem Hyper-V Server laufen 7 VMs. Die VMs sind auf 3 NICs aufgeteilt. Die NICs sind ausschließlich an jeweils einen vSwitch gebunden. Das Problem tritt dann gehäuft auf wenn viel Traffic zu/von einer VM ist. Bei VMs mit wenig Traffic nur sehr selten. Das Auftreten der Events ist immer mit kurzzeitigen Netzwerkabbrüchen verbunden. Das Problem wird oft mit doppelten MAC-Adressen in Verbindung gebracht. Das ist bei mir ganz sicher nicht der Fall. Auch keine Überschneidung der Adressbereiche von mehreren Hyper-V Servern. Die vSwitche habe ich schon gelöscht und neu erstellt. Was habe ich schon gemacht: - MAC Adressen geprüft, nichts doppelt. Kein Hinweis darauf in den Logs der Switche. - vSwitche von Hyper-V + vNICS der VMs gelöscht und neu erstellt. Seit wann tritt das Problem auf: 2 Tage nachdem neue Switche installiert wurden. Die Switche (Netgear GS 748 TPS) sind gestackt. Es werden keinerlei Fehler protokolliert. Ich würde auch sagen, dass ich kein Loop im Netz habe. Der Traffic auf dem Netz ist normal, zumindest meint mein Fluke-Messgerät das. Schalte ich nun STP der Switche komplett ab, scheint das Problem gelöst. Nur aber warum? Und warum glaubt bei aktivem STP nur ein Hyper-V Server, dass seine MAC-Adressen doppelt sind und nicht alle anderen auch? Ein Netzwerk müsste mit aktiviertem STP doch robuster sein. Hat jemand von euch das schonmal erlebt oder eine Erklärung. Grüße und einen schönen Tag wznutzer
  11. Hi iDiddi und danke für deine Antwort. Welche sind das, außer iOS und Linux? Diese Variante wäre mir nämlich sehr sympathisch. Das habe ich natürlich gelesen. Ich verstehe das nur nicht so, dass durch die theoretische Möglichkeit die "stark von der Beschafffenheit des PSK abhängt" unsicherer ist als PPTP. Das wiederum ist ja sozusagen garantiert in 24 Stunden geknackt. Aber die Möglichkeit L2TP/IPSec mit PSK zu knacken besteht. Das ist natürlich nicht von der Hand zu weisen. Da mich das Thema interessiert werde ich mal ein wenig mit IKECrack rumspielen. Cain und Abel soll das ja auch können. Ein komplexer Key aus 250 Zeichen sollte dann ja problemlos geknackt werden. Ich weiß nicht wie das üblicherweise gemacht wird, aber ich kann mir das nur so vorstellen, dass die Remotearbeiter einen Rechner/Laptop bekommen der mindestens einmal über den Schreibtisch des Adminis gegangen ist um das zu konfigurieren (Domänenbeitritt usw.) Das muss ich mir mal ansehen, aber ist RDP nicht auch schon verschlüsselt? Ist in diesem Fall die zusätzliche Sicherheit, dass ich sicher sein kann, dass ich auch mit dem "richtigen" RDP-Server verbunden bin? Das meine ich, ich habe wirklich schon lange gegoogelt oder gebingt (sagt man das so?). Von Sicherheitslücken und bekannten Schwächen einer Technik (PPTP) abgesehen, finde ich keine Belege um ausreichend sichere Kennwörter zu umgehen. Bedenken und Warnungen allerdings zu genüge, dass nur Zertifikate das einzig wahre sind. Klar ist ein Rechner erstmal gekapert, hilft gar nichts auch keine Zertifikate. Aber ich bin kein Sicherheitsspezialist, deswegen will ich ja dazulernen. Vielleicht gibt es aber noch andere Meinungen. Danke
  12. Guten Tag, Ein etwas länger gewordener Beitrag, vielleicht hat ja trotzdem jemand Lust zum Lesen. Ich will zu meinem Netz einen VPN Zugang über das Internet (dynamische IP) einrichten. Nachdem nun bekannt ist, dass man PPTP/MSChap2 nicht mehr nutzen soll, will ich das berücksichtigen. Microsoft empfiehlt in dem veröffentlichten Artikel unter anderem die MSChap2 Authentifizierung in PEAP, also PEAP-MS-CHAP v2, zu kapseln. 1) Gibt es Argumente gegen einen VPN-Zugang der mittels PEAP-MS-CHAP v2 konfiguriert ist? Einfach zu konfigurieren ist das ja. Ausreichend sichere Passwörter sehe ich als selbstverständlich an und auch, dass der Nutzer sorgfältig mit seinem Passwort umgeht. 2) In diesem Artikel (http://www.mcseboard.de/windows-forum-security-47/l2tp-ipsec-einwahl-problem-188556.html) wird geschrieben, dass L2TP/IPSec mit PSK genauso oder sogar noch unsicherer ist als PPTP. Das würde ja bedeuten, dass noch weniger als 24 Stunden (PPTP) für das Knacken benötigt wird. In dem Beitrag gibt es keine Gegenstimmen, dennoch halte ich die Aussage für gewagt und so pauschal formuliert falsch. Das verlinkte Dokument ist genaugenommen auch nur ein Hinweis darauf, dass man ein Passwort halt erraten kann. Ein „guter“ PSK, also komplex mit z. B. 250 Stellen sehe ich auch hier als selbstverständlich an. Ein Angreifer müsste ja auch noch Benutzer + dessen Passwort erraten. Ist es wirklich so, das das noch unsicherer ist als PPTP? Man merkt jetzt natürlich schon, dass ich keine Zertifikate will? Warum? Evtl. habe ich mit Zertifikaten etwas auch nicht verstanden. 3) Wenn ich das richtig verstanden habe, muss der Client an der Zertifizierungsstelle ein Zertifikat anfordern. Nun ist dieser aber an einem entfernten Ort und hat gar keine Verbindung. Das VPN soll ja genau diese Verbindung herstellen. Unter gruppenrichtlinien.de wird beschrieben man soll den Client in die Domäne aufnehmen und anschließend wieder entfernen. Dazu müsste ich ja zuerst eine „unsichere“ Verbindung also PPTP oder L2TP/IPSec mit PSK aufbauen um anschließend mit Zertifikaten arbeiten zu können. Wie macht ihr das in der Praxis? 4) RDP einfach veröffentlichen (passt zwar nicht zur Überschrift aber zum Thema) Oft liest man, dass es ein absolutes Unding ist einfach den RDP-Port freizugeben. Nur warum? OK, es gab dieses Jahr eine Sicherheitslücke aber die kann es künftig für jede derzeit als sicher geltende Zugangstechnik geben. Gehen wir davon aus, dass der Administrator nicht so heißt und das Passwort auch nicht nur „123“ ist. Bsp: Anderer Port, also nicht 3389 Administrator heißt nicht so Benutzer sind schwer zu erraten Passwörter sind komplex und lang (> 18 Zeichen) Sperrung nach 5 ungültigen Versuchen Außer der Last die evtl. Zugriffsversuche verursachen finde ich nichts im Netz, dass das einfach zu knacken ist.Immer nur der Hinweis das nicht zu tun. Wird der Nutzer erraten ist dieser natürlich gesperrt, aber selbst das ist bei Zugriffsversuchen die nicht gezielt sind unwahrscheinlich. Trotzdem wird ständig vor solch einer Konfiguration gewarnt. Aber warum? Bei meinen Überlegungen gehe ich davon aus, dass ich nicht die ganze Welt als Feind habe, sondern mich nur gegen das übliche Rauschen wehren muss. In größeren Umgebungen mag das anders sein, da kenne ich mich nicht aus, ich rede von Umgebungen mit einer Handvoll Server und max. 50 - 80 Clients. Sorry für den längeren Beitrag, aber das Wetter ist halt schlecht :D . Grüße und Danke für das Lesen.
  13. Guten Tag, ich versuche gerade in einer Testumgebung RDS unter Windows Server 2012 einzurichten. Das ist ja grundsätzlich mit dem Setup kein Problem. An folgenden Dingen hänge ich nun jedoch ohne wirklich weiterzukommen. Das Szenario sieht so aus. Die Benutzer sollen sich über den Webbrowser zum RDS-Gateway verbinden und sich da mit Benutzer + Kennwort der Domäne anmelden. Nach erfolgreichem Login soll der Benutzer verschiedene RemoteApps angeboten bekommen, die Möglichkeit sich zu einem Desktop zu verbinden (klassische Anmeldung) soll der Normaluser erst gar nicht sehen. Evtl. könnt ihr mir zu den folgenden Punkten ja was sagen: 1) Der RDS-Server muss zwingend Mitglied einer Domäne sein. Zumindest kann ich sonst nichts konfigurieren, installieren aber schon. 2) So wie es ausschaut, benötige ich zwingend ein Zertifikat einer von Windows akzeptierten Stammzertifizierungsstelle oder ich muss das selbst erstellte Zertifikat auf dem Client halt installieren. Ein "trotzdem verbinden" wie im Browser scheint das RDS-Gateway nicht zu kennen. 3) Gibt es eine Möglichkeit die Option mit der sich der Benutzer direkt zu einem Desktop verbinden kann nicht anzuzeigen? 4) Wenn man eine RemoteApp startet kommt trotz korrektem Zertifikat eine Warnung, dass die Identität des Remotecomputers nicht überprüft werden kann. Diese Meldung lässt sich jedoch übergehen. Ich verbinde mich z. B. mit remote.domain.de zu meinem RDS-Gateway. Nach erfolgreichem Login sehe ich die freigegebenen RemoteApps, diese lassen sich auch starten. Dann kommt diese Meldung, dass das Zertifikat nicht zu dem Rechner passt mit dem mich das Gateway verbindet. Ist auch klar, weil mit remote.domain.de verbinde ich mich extern zu dem Server der intern apphost.domain.local heißt. Der interne Server apphost.domain.local passt nicht zu remote.domain.de, aber das ist ja für dieses Szenario normal. In der Testumgebung ist bis auf den Domänencontroller alles auf einem Server installiert. Weiß jemand wie das konfiguriert werden muss, dass diese Warnung nicht erscheint? 5) Wenn dann mal RemoteApps laufen, ist es ja ohne weiteres möglich noch weitere Dinge auf dem Server zu tun. Mit Dingen wie einem "Datei öffnen Dialog" lässt sich ja problemlos ein Explorer oder eine Shell öffnen. Ruckzuck kann der User dann Dinge tun die er nicht soll. Gibt es da eine Möglichkeit das auf eine komfortable Weise zu konfigurieren? Eine Möglichkeit wäre ja in der lokalen Sicherheitsrichtlinie die Rechte zu beschneiden, aber da ist die Gefahr ja groß, dass der User ein Loch findet. Danke und Grüße
  14. wznutzer

    TSE + Aero Glass

    Hi, uups fälschlicherweise habe ich als Remote-Computer immer an den Client gedacht, dann macht der Satz auch Sinn :o. Gemeint ist dann wohl aber der Server. Ist es dann richtig, dass das Anschalten von Aero-Glass den Server nicht mehr belastet als wenn das eben ausgeschaltet ist? Werde ich mal beobachten. Danke
  15. wznutzer

    TSE + Aero Glass

    Hallo, ich habe kein direktes Problem nur eine Frage zum Verständnis. Wie unter MSDN-Blog beschrieben kann ich den Effekt Aero Glass für TSE-Sitzungen aktivieren. Nun würde mich interessieren ob ich am Server dafür Resourcen einplanen muss, oder ob nur der Client belastet wird. Die Graka am Server wird wohl nichts damit zu tun haben, wobei ich da spekuliere. Vielleicht kann mich da jemand von euch in die richtige Richtung schubsen. Grüße wznutzer
  16. Hallo, @olc Ich habe die Migration nicht durchgeführt, deshalb weiß ich nicht genau wie was gemacht worden ist. @blub Leider hat mir Google nicht geholfen, zwei DCs habe ich auch nicht somit ist bei mir irgendwas anderes kaputt. Ich werde mal den Vorschlag von olc angehen, die CA-Rolle neu zu installieren. Da noch gar keine Zertifikate ausgestellt wurden, werde ich auf Sicherung und Rücksicherung verzichten und einfach mal alles neu machen. Grüße wznutzer
  17. Hallo, ich habe einen W2K8R2 als DC und aktiver Zertifizierungsstelle im AD. Wenn ich nun http://dcserver.xxx.local/certsrv aufrufe wird ein Zugriffsfehler (403 Zugriff verboten) angezeigt. Wenn ich über die MMC ein Computer-Zertifikat anfordern will ist auch das nicht möglich. Es erscheint der Fehler 0x800706ba (WIN32: 1722)) Der RPC-Server ist nicht verfügbar. Dienste sind alle gestartet. Lt. Sicherheitseinstellungen im IIS sollte ich berechtigt sein. Die Rechte habe ich wie in Certificate Services AutoEnrollment Error on Windows 2003 and Windows 2008 Domain Controllers beschrieben kontrolliert, Firewall ist deaktiviert, hat allerdings nicht geholfen. Würde evtl. das Rücksetzten der Standards mittels Defltdc.inf etwas bringen. Da habe ich ein paar Bedenken, dass mir das eher etwas kaput macht. Das AD ist von SBS2003 auf W2K8R2 migriert. Dabei scheint irgendein Recht abhanden gekommen zu sein, das ist aber spekuliert. Hat jemand noch eine Idee woran das liegen könnte bzw. so ein Problem schon mal gehabt und gelöst? Grüße
  18. Hallo, ich bin jetzt zwar kein DPM-Profi. Ich antworte dir trotzdem mal soweit ich kann. Der DPM 2007 sollte das können, wobei ich einen Firestreamer (Kompatibilität?) nicht kenne. Ein guter Anhaltspunkt zur Installation ist askcore. Im IIS musst du in den Handlerzuordnungen noch das Ausführen von Scripten erlauben. Mit der bei den Berichten auftretenden Fehlermeldungen findest du die genaue Lösung schnell, habe den Link gerade nicht zur Hand. Die diversen Meldungen, dass du ein Programm ausführen willst das nicht kompatibel ist (W8K) kommen von der mitinstallierten SQL-Instanz, einfach bestätigen + nachher updaten. Die Installation der Agenten hat bei mir grundsätzlich nicht über die DPM-UI funktionert. Manuelle Installation: Data Protection Manager Client manuell installieren - Dieters Forefront Blog Ich jedenfalls starte erst mit DPM 2010 nochmals einen Versuch. Bis dahin setzt ich auf Symantec, das hat auf Anhieb funktioniert und kommt problemlos mit meiner Tape-Library klar. Die Tape-Unterstützung gefällt mir bei DPM 2007 gar nicht. Grüße wznutzer
  19. Hallo, Ja Ja, im Notfall ist der zeitliche Unterschied egal. Die Daten im Exchange spielen bei mir eher eine untergeordnete Rolle, da diese anderweitig nochmals vorhanden sind. Grüße wznutzer
  20. wznutzer

    Hyper-V und USB

    Hallo, um die Sammlung etwas ergänzen. Die Software von Eltima (USB over Ethernet) funktioniert auch sehr gut. Grüße wznutzer
  21. Hallo, dann antworte ich mir mal selber und stelle nochmals eine Frage. Nein Nein DPM sollte das können, funktioniert aber nicht. Nein, bereits geschützte Computer lassen sich nicht nochmals schützen. Die Sicherung auf Disk funktioniert fehlerfrei, lt. Überwachung werden die Wiederherstellungspunkte auch auf Band gesichert. Lt. DPM fehlerfrei. Allerdings können die Daten vom Band nicht verifiziert und wiederhergestellt werden. Nach wohl erfolgreicher Sicherung behauptet DPM es ist kein Band zum Prüfen verfügbar. Das Sicherungsband wird zur Sicherung automatisch vom Magazin das Laufwerk übernommen. Wenn nach erfolgter Sicherung die Daten auf dem Band verifiziert werden sollen behauptet DPM es ist kein Band im Magazin verfügbar das geprüft werden kann. Das ist klar weil das Sicherungsband ja nicht in im Magazin sondern im Laufwerk steckt. Einstellmöglichkeiten dazu gibt es ja nicht sehr viele. Die gemeldeten Fehler sind ID24052 + 24050. Nun zur Frage: Benutzt jemand der Leser hier DPM 2007 mit einer Tape Library? Wenn ja, funktioniert bei euch der Rücktransport vom Laufwerk zum Magazin nach erfolgter Sicherung und Prüfung? Grüße wznutzer P.S. Alles in allem scheint DPM ein Programm zu sein, dass noch etwas reifen muss. Zumindest was Tapes angeht.
  22. Hallo, ich will versuchen mein Anliegen kurz und knapp zu schildern: Was will ich? Täglich eine Vollsicherung verschiedener SQL 2008 DBs + verschiedene Ordner und Dateien. Es soll sowohl eine Sicherung auf Disk (für einfache Wiederherstellung) + eine Kopie auf Band (zur Aufbewahrung außer Haus) vorhanden sein. Mehr Wiederherstellungspunkte sind nicht notwendig. Nach jeweils 7 Tagen soll das älteste Band wieder überschrieben werden. Auf Disk sollen die Wiederherstellungspunkte der letzten 3 Tage gespeichert sein bevor diese gelöscht werden. Was habe ich? 2K8R2 mit DPM 2007 SP1 2K8R2 mit SQL 2008 DBs + zu sichernde Dateien (Dokumente etc.) IBM TS 2900 Tape Library Warum DPM 2007 und nicht Backup Exec? Lizenz für DPM 2007 ist vorhanden. Wo ist das Problem? Wie das konfiguriert werden muss. Ich muss um auf Disk + Band sichern zu können ja die Disk als kurzfristiges Ziel angeben und das Band als langfristiges Ziel. Kurzfristiges Ziel Beibehaltungsdauer: 3 Tage Synchronisierungsfrequenz: Direkt vor einem Wiederherstellungspunkt Dateiwiederherstellungspunkte: täglich 01.00 Uhr Anwendungswiederherstellungspunkte: täglich 01.00 Uhr Langfristiges Ziel Beibehaltungsdauer: 1 Woche (Tage können nicht eingestellt werden) Sicherungshäufigkeit: täglich (einzelne Tage z.B ohne Sonntag können nicht angegeben werden) Anzahl Sicherungskopien: 1 Sicherungszeitplan: Alle 1 Tage 03.00 Uhr Es soll alles was zuvor per "kurzfristigem Ziel" gesichert wurde anschließend auf Band (langfristiges Ziel)geschrieben werden. Werden für das "langfristige Ziel" die Daten nochmals von den Agenten übertragen? Bin ich mit dieser Konfiguration komplett auf dem Holzweg? Ist der DPM für solch ein Vorgehen überhaupt geeignet? :confused: Ich hoffe ich konnte mich einigermaßen verständlich ausdrücken. EDIT: Muss ich evtl. für die Bandsicherung eine zweite Schutzgruppe anlegen. In dieser Schutzgruppe würden ja die gleichen Daten gesichert nur mit dem Band als Ziel? Grüße wznutzer
  23. Hallo, @WSUSPraxis für die Sicherung selbst will ich wenn möglich und sinnvoll keinen Umweg über die Platte. Für mich ist es vollkommen ausreichend jeden Tag eine Vollsicherung aller benötigten Daten auf Band zu haben. Wiederherstellungspunkte innerhalb eines Tages sind nicht nötig. Den Umweg der Exchange-Sicherung mittels Windows Backup über die Platte habe ich als notwendiges Übel angesehen. Meinst Du, dass die Exchange-Daten einfach per Filecopy über den Agent gemacht werden können? Werde ich mal ausprobieren. Wenn ja müsste die Meldung im Eventlog, dass der Schattenkopiedienst den Exchange VSS-Writer anstößt ja auch beim Sichern per DPM-Agent erscheinen. @ASR Warum ist das Backup per DPM direkt auf ein Band suboptimal? Ist das tägliche Band nicht eine Vollsicherung aller per DPM gesicherten Daten? Danke und schönen Rest-Abend :)
  24. Hallo, danke. Werde das mal versuchen so einzurichten ohne Umweg über die Platte. Für den Exchange 2010 wird es dann wohl erstmal bei der Sicherung mit Bordmittel lt. MSXFAQ.DE - E2010 Sichern bleiben. Grüße
×
×
  • Neu erstellen...