Jump to content

S.R.

Premium Member
  • Gesamte Inhalte

    489
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von S.R.

  1. Hallo, ich beschäftige mich das erste Mal intensiver mit MS SQL und den Möglichkeiten für höhere Verfügbarkeiten. Sehr interessant finde ich die Möglichkeit der AvailabilityGroups, da hierfür kein SAN benötigt wird. Nun habe ich gelesen, dass ein zentraler File-Share benötigt wird, wo die DB-Logs abgelegt werden - habe ich das so richtig verstanden? Was ich mich dann frage: muss dieses File-Share dann auch hochverfügbar sein? Weil was nützt es mir, wenn ich zwei Nodes mit AvailabilityGroups habe und dann raucht der File-Share-Server ab und dann steht das ganze System auch... oder wird das nur als Witness-Server genutzt, falls ein DB-Server nicht erreichbar ist? Als Gedanke kam mir, dass ich einen Hardware-Server nutze, der auch entsprechend Performance bieten kann. Als zweiten Node grübel ich über eine virtuelle Kiste nach, die ich auf unserem vorhandenen XenServer-System platziere. Damit könnte ich entsprechend Hardware sparen und für den Fall eines Ausfalls kann ich durchaus damit leben, dass die SQL-Performance etwas sinkt - Hauptsache der SQL-Dienst ist noch da. Kann man dies so machen? Ich warte gespannt auf eure Einschätzung und Erfahrung :-) Gruß Stefan
  2. Hallo, ich habe hier einen Exchange 2010 mit DPM 2012 in Betrieb. Nun muss ich eine Postfach vom Stand 04.01.2015 wiederherstellen - dann erhalte ich allerdings immer den DPM Fehler 2033, wenn ich in eine recovery-Datenbank zurücksichern möchte. Daher habe ich jetzt die Option "In einen Netzwerkordner kopieren" aktivieren, was tadellos wohl geklappt hat - zumindest liegt dort jetzt eine die DB.edb; Änderungsdatum stimmt und DPM schmeißt auch keinen Fehler. Doch hilft mir das jetzt weiter? Mein Ansatz wäre jetzt zu versuchen, diese edb irgendwie als Recovery-Database zu mounten, oder ist das der falsche Ansatz? Bin für jeden Tipp dankbar! Gruß Stefan
  3. Hallo, wir haben hier einen WSUS und einige Server stehen. Bisher liefen die Updates immer reibungslos. Seit n' guten Woche haben wir allerdings das Problem, dass einige Server keine Updates mehr erhalten. Das sieht dann grob wie folgt aus: - Server sagt "keine gesucht, keine Updates verfügbar" - WSUS behauptet "erforderliche Updates: 6, teilweise bis zu 36" - einige Server haben sogar den Status "seit 7 Tagen nicht gemeldet" Mir ist bewusst, dass in den letzten Monaten Microsoft arge Probleme mit den Updates hatte und teilweise Updates zurückgezogen wurde. Kann es sein, dass evtl. diese Server schon Updates eingespielt bekommen haben, die später zurückgezogen wurden und dass dadurch das Problem auftritt. Gibt es irgendwo n' Anleitung, wo man die Fehler der MS-Updates nachlesen kann bzw. wie diese zu prüfen und dann zu reparieren sind? Warte gespannt auf eure Tipps und Anregungen :-) LG Stefan
  4. Den ExMon habe ich mir gerade runtergeladen und der läuft noch für Exchange 2010: http://www.microsoft.com/en-us/download/details.aspx?displaylang=en&id=11461 Werde jetzt nach und nach ein paar Dienste abschalten bzw. anschalten und schauen, ob sich am Verhalten was ändern und dabei den ExMon immer im Auge behalten: 1) nur einen CA-Server; dann sollte die NLB-Thematik nicht greifen 2) den Backup-Dienst (MS System Center) tagsüber abschalten und nur nachts laufen lassen 3) mich mit Wireshark intensiver beschäftigen Wenn ich grundsätzlich irgendwo Spikes hätte, müssten dann nicht alle Postfächer betroffen sein? Das ist ja in der Tat nicht der Fall *grübel* Das Problem ist nur, dass der Fehler sooooooooo selten auftritt - maximal ein bis zwei Mal bei Mitarbeitern in der Woche für ein paar Minütchen... Ich liebe solche Fehler :-P Danke! Gruß Stefan Ich habe im ExMon festgestellt, dass ein Postfach bei der "Max. Server Latency (ms)" weit ausreist - liegt bei 30.634; die anderen Postfächer zwischen 13 und 104. Das lässt mich in der Tat wundern... Das scheint ja drauf zu deuten, dass die Festplatte zu langsam antwortet bzw. am Kämpfen ist. Dann habe ich im Ressourcenmonitor vom aktiven DAG-Server geschaut und dort ist die store.exe für die Datei D:\EDB\DB009.edb mit 640.000 bis teilweise 8.000.000 B/s am rödeln - aller anderen Datenbanken sind hingegen "ruhig". Die hat zur Folge, dass die Datenträger mit ungefähr 6 MB/s belastet sind, was laut Ressourcenmonitor rund 10% entspricht. Bei ~170 Postfächern und 96GB Ram sollte doch fast alles -zumindest alles aktuelles- im Ram liegen und daher "gar keine" Festplattenaktivität notwendig sein, oder verstehe ich das falsch? Das erwähnte Postfach ist gerade mal 180MB groß und da gegen am Tag maximal 15 Mails rein und raus - also Langeweile ohne Ende! Habe ExMon jetzt mal ein paar Minuten länger aufzeichnen lassen - da ist jetzt aber wieder Ruhe im Schacht und die Auslastung normal... sehr, sehr komisch
  5. Hi, das ist schade... wäre ja nichts wildes, diesen einen Parameter noch einzubauen :-/ Blamiere ich mich, wenn ich nachfrage, was "intern in pg" bedeutet? :-) Da ich aktuell nur zwei Kalender freigeben möchte, habe ich mich damit zufriedengestellt, dass ich die E-Mails mit den URLs selber sende und die URLs vor Versand einfach anpassen - weil der Zugriff via https klappt perfekt - es hapert ja nur an der Linkerstellung :-) DANKE! Gruß Stefan
  6. Hallo, ich habe hier einen Exchange 2010 und habe diesen soweit eingerichtet, dass ich externen Partnern einen Kalender zur Verfügung stellen kann. Die Veröffentlichung klappt soweit ganz gut - nur muss ich die URL leicht anpassen: z.B. https statt http, weil der Exchange nur über https von extern erreichbar ist. Daher meine simple Frage: welchen Befehl muss ich in der Powershell eingeben, damit die Kalenderlinks direkt richtig erzeugt werden? Vielen Dank für eure Tipps! Gruß Stefan
  7. Aktuell laufen 161 Postfächer auf dem Exchange-System. Davon nutzen 68 Nutzer Outlook 2010/2013; 88 nutzen IMAP4/SMTP; 5 sind meine Testpostfächer. Das Verhalten der Benutzer wage ich mit "minimal" anzugeben und da Outlook das Postfach ja auch lokal cached, geht ja zum Exchange noch weniger. Wenn es grundsätzliches Lastproblem geben würde - müssten dann nicht alle Postfächer "gleich langsam sein"; weil ich habe ja das Phänomen, dass nur eines für einen Moment langsam ist und danach wieder zackig läuft... und müsste dann nicht auch im Ressourcenmonitor von Windows die CPU bzw. die Festplattenauslastung am Limit sein?
  8. Auf jedem DAG-Server sind 96GB Ram installiert; die Systemplatten sind 15K 142GB Platten und die edb-Daten liegen auf 4 600GB 10K Platten im RAID-10 (282 GB von 1.09 TB belegt); die Log-Dateien liegen auf 2 600GB 10 Platten gespiegelt. Dies sollte ja eigentlich mehr als ausreichen. Eingebaut ist ein HP Smart Array P420i, der in dem Array Configuration Utility von HP keine Fehler aufweist. Der Controller scheint Cache-Optionen zu haben - da hab ich aber nie was dran geändert und auch noch nie reingeschaut :-) Das Trennen ist aus geschichtlichen Gründen entstanden. Erst war der Zugriff auf Exchange über unverschlüsselte Kommunikation möglich und dann habe ich nach und nach auf Verschlüsselung umgestellt. Somit konnte ich damals recht einfach https einrichten und testen, ohne dass ich die Mitarbeiter gestört/beeinflusst habe. Wir dann https lief, habe ich einfach n' Weiterleitung gemacht, fertig. Grundsätzlich könnte man sicherlich überlegen, den IIS-NLB aufzugeben und die Weiterleitung im IIS entsprechend zu verknüpfen. Ich bin mir eigentlich ziemlich sicher, dass die Netzwerkkomponenten meiner Infrastruktur Multicast fähig sind - daher hat mir dies als "Überlegung" gereicht. Die Umstellung hat auch sauber funktioniert... Zumindest läuft alles nach wie vor; einzig die Verbindung zu Outlook wurde natürlich einmal kurz unterbrochen und direkt wieder aufgebaut - aber das war ja OK/bekannt und damit konnte ich leben.
  9. In der Kürze liegt die Würze :-) *sorry* Ich habe vier virtuelle Netzwerkkarten auf jedem der beiden CAS-Server: - Backup - CAS (Port 443) - IIS (http-Port 80, Weiterleitung auf Port 443) - LAN Entsprechend habe ich zwei "NLB-Netze"; eines für den CAS (wichtigste) und eines für den IIS (nur für die Weiterleitung auf den https-Port). Ich habe jetzt mal auf Multicast umgeschaltet. Ich meine mich aber daran erinnern zu können, dass ich bei meiner ersten Recherche zu dem Problem im Netz gelesen hatte, von Multicast auf Unicast umzustellen *grübel*...
  10. Der Clusterparameter "Clusterausführungsmodus" steht auf "Unicast".
  11. Den Clientrechner schließe ich in der Tat aus, da das Problem auch im Browser über OWA auftritt - auch wenn ich OWA auf einem anderen Clientrechner aufrufe. In der Tat setze ich CAS auf zwei Servern ein und dort ist dann ein NLB eingerichtet. Da Outlook und OWA ja über die CAS und somit über den NLB laufen, könnte dies in der Tat eine Ursache sein. Was mich dann allerdings wundert: wenn ich die Datenbank von einem DAG-Server auf den anderen verschiebe, dann löst sich das Problem von selbst. Dies wäre dann aber doch von einem CAS-Server zu einem DAG-Server die Verbindung und hier würde doch NLB nicht verwendet werden, oder? Hast du evtl. noch einen Tipp auf Lager, wie ich am CAS/NLB schauen kann, ob hier eine Verbindung hängt?
  12. Hallo, ich habe hier ein Exchange-System mit grob folgender Konfiguration: - 2 HP DL360G8 mit W2K8R2 für die DAG - 5 Datenbanken, die sich über die DAG replizieren - Exchange 2010 - ForeFront Protection 2010 - CAS, HT, MX,... läuft auf VMs auf zwei separaten HP-Servern Das System läuft soweit sehr zufriedenstellend. Wir haben allerdings immer mal wieder das Problem, dass ein Mitarbeiter anruft und berichtet, dass sein Postfach oder sein Archiv-Postfach langsam ist. Dieses Phänomen können wir dann ebenso ist OWA reproduzieren - somit schließen wir Outlook bzw. die Verbindung zwischen Outlook und Exchange schon mal als Ursache aus. Bisher gab es immer zwei Möglichkeiten, dass Problem zu beheben: 1) der Benutzer wartet ein paar Minütchen, manchmal round about 15 Minuten und das Problem löst sich von selber 2) ich schiebe die Datenbank von einem DAG-Knoten auf den anderen und dann läuft das Postfach direkt wieder gewohnt schnell Wenn der Benutzer sich bei mir meldet, dann läuft das Exchange-System bei allen anderen Postfächern schnell - z.B. auch auf meinem Rechner. Wenn ich mir dann auf dem Server die wichtigsten Auslastungs-Parameter anschaue (Festplatten, CPU), dann behaupte ich, dass der Server sich durchweg langweilt. Ich habe jetzt im Virenscanner eine "Scan bei Bedarf" nur für mein Postfach im Virenscanner eingerichtet, dann gestartet und kann dann ich problemlos in OWA durch mein Postfach inkl. Archiv navigieren und E-Mails öffnen. Gibt es einen PowerShell-Befehl, mit dem ich auslesen kann, "wie es einem einzelnen Postfach geht" oder "was gerade mit einem einzelnen Postfach passiert"? Oder welche Möglichkeiten habe ich noch, dem Problem auf die Schliche zu kommen? Ich bin für jeden Tipp mehr als dankbar! Gruß Stefan
  13. Hi, stehe gerade vor dem selben Problem. Konntest du es damals lösen oder wie bist du weiter vorgegangen? Dankend! Stefan
  14. Hallo, wir haben mit IIS + php sehr unterschiedliche Erfahrungen gemacht :-) Unsere eigenen php-Scripte rennen hervorragend. Es gibt aber Systeme (z.B. WordPress, phpMyAdmin) die sind sowas von langsam, da verzweifelt man dran. Daher haben wir eine extra Linux+Apache+php-VM installiert und können jetzt flexibel entscheiden, wo welches Script läuft. Gruß Stefan
  15. Hallo, ich beschäftige mich seit ein paar Tagen das erste mal "so richtig" mit Terminalservices bzw. Remote Desktop Services unter Windows Server 2012 R2. Zum besseren Verständnis und zum Lernen habe ich mir daher eine kleine Testumgebung aufgebaut: zwei Server mit XenServer zur Virtualisierung mit entsprechenden W2K12 R2 VMs und einem Admin-Rechner für die zentrale Verwaltung. Mein Ziel ist eine möglichst hochverfügbare RDS-Umgebung :-) Dazu habe ich allerdings noch ein paar Unklarheiten im Konzept... 1) AD / DNS Je Server eine VM; damit kann ich z.B. bei Updates eine VM problemlos neu starten und wenn ein Host ausfällt, dann hab ich noch eine zweite VM auf dem zweiten Host. Standard würde ich sagen - schon ein paar Mal so gemacht :-) 2) FileServer Hier entweder DFS (Distributed File System von Microsoft) oder ein Synology HA-NAS oder gar ein Windows Cluster mit SAN - hier gibt es aus meiner Sicht genügend mir bekannte Optionen. Auf den FileServer kommen dann die User-Profile und die eigenen Dateien. 3) RDS-Lizenzserver Bisher plane ich einen Lizenz-Server ein und die Lizenzierung per User. Fällt dieser aus, dann bleiben bestehende Sitzungen aktiv, neue können hingegen nicht aufgebaut werden. Richtig? Im Netz habe ich schon an diversen Stellen gelesen, dass man hier einfach einen zweiten Lizenz-Server installieren kann und dieser wird dann mit Temp-Lizenzen versorgt. Hier habe ich mich noch nicht vertieft reingelesen, dies scheint aber kein größeres Problem bzw. keine größere Herausforderung zu werden. Schätze ich das richtig ein? 4) RDS-Sitzungshosts Auch hier schein es keine größeren Herausforderung zu sein, mehrere Sitzungshosts in eine Sammlung aufzunehmen. Laut Galileo Open Books (http://openbook.galileocomputing.de/windows_server_2012r2/19_012.html) ist auch dies schnell gemacht. Somit kann auf jeden Host ein Sitzungshost und schon habe ich die Ausfallsicherheit deutlich erhöht. 5) RDS-Verbindungsbroker Dieser ist ab 2012 (und somit auch 2012 R2) ja zwingend erforderlich. Fällt dieser Server aus, dann bleiben bestehende RDP-Verbindungen bestehen, neue können aber nicht aufgebaut werden - deute ich das richtig? Wenn ich nur einen Verbindungsbroker im Netz habe, dann muss ich mir also schon mal Gedanken machen, wann genau ich an dieser VM die Windows-Updates einspiele oder andere Wartungsarbeiten durchführe. Laut obigen Link zu Galileo Computer (letzte Zeile vom Artikel), kann der Verbindungsbroker auch "recht einfach redundant gemacht werden". Bisher finde ich nur die Option im Netz (z.B. http://blogs.msdn.com/b/rds/archive/2012/06/27/rd-connection-broker-high-availability-in-windows-server-2012.aspx), dass hier ein SQL-Server zum Einsatz kommt, auf den dann mehrere Verbindungsbroker zugreifen können. Ist dies die einzige Option? Folgendes stört mich daran: 5.1.) Damit verschiebe ich die Verfügbarkeit vom Verbindungsbroker zum SQL-Server => d.h. es muss dann ein SQL-Cluster aufgebaut werden, weil sonst habe ich bei einem SQL-Server einen Single Point of Failure. 5.2.) Neben dem Aufwand im Betrieb eines SQL-Clusters fallen dann dafür auch noch SQL-Lizenzen hat. Die RDS-Cals für jeden User finde ich ja noch OK und vertretbar, dann aber noch mit SQL-Cals aufzufahren, halte ich für kleinere Unternehmen (25 bis 75 RDS-Arbeitsplätze) eine harte Nummer. Ohne vertretbare Redundanz geht es in dieser Größenordnung meiner Meinung nach nicht; einen SQL-Cluster zu betreiben finde ich aber auch schwer vertretbar. 6) RDS-Gateway und RDS-Webseite Dies ist in der ersten Version meiner Umsetzung noch nicht geplant. Somit ist mein Interesse hier "noch" sehr begrenzt :-) Wenn ich mein Konzept so richtig verstehe, dann ist die größte Sorge der Verbindungsbroker. Wie löst ihr diese Herausforderung oder bin ich absolut auf dem falschen Weg? Bin für jeden Tipp und Ansatz mehr als dankbar!!! DANKEND Stefan
  16. Vielen Dank für den Hinweis! Es wird aber keine weitere Software auf den virtuellen Maschinen installiert :-) Die Windows-Cals sind verständlich - die werden ja schon für den "normalen Win7" Arbeitsplatz in der Domain benötigt und sind entsprechend vorhanden. Da pro Benutzer lizenziert ist, werden keine weiteren Windows-Cals benötigt.
  17. Einen wunderschönen guten Morgen und einen recht herzlichen Dank für die rege Teilnahme - ich bin mal wieder schwer beeindruckt!!! Leider gibt es da meist einen Unterschied zwischen dem, was ich machen muss, möchte und was dann nachher bei rum kommt - aber das kennt ihr ja sicherlich :-) Ich möchte in dem Sinne kein Terminal-Server nutzen, da jeder Anwender tatsächlich seine eigene Windows Server Instanz erhalten muss/soll. Dies bedeutet aber nicht, dass ich keine TS-CALs beschaffen will - wenn man sie denn zwingend braucht :-) Ich interpretiere die UseRights ähnlich wie Wingeist: ein RDS Cal ist dann für jeden der 10 Mitarbeiter notwendig, die ich einfach in der Schublage liegen habe. Ich installiere dann einfach die 10 VMs auf dem Host-System (ohne TS und entsprechend auch ohne TS-Lizenz-Server), aktiviere RemoteDesktop und fertig ist. Somit sollte ich eigentlich absolut konform sein, oder? Ein Client-Windows kann ich nicht nutzen, somit entfällt leider die übliche VDI/VDA-Lizenz. Die Arbeitsplätze an denen die Mitarbeiter normal arbeiten, ist Win7 bzw. teilweise schon Win 8.1. Darüber bauen Sie dann bei Bedarf eine RDP-Verbindung zur persönlichen VM (Windows Server 2012 R2) auf und nutzen darüber dann die spezielle Software. Ich glaube, dann sollte alles im Lot sein, oder :-) DANKE! Gruß Stefan
  18. Hallo, vielen Dank für deine schnelle Antwort. Das Dokument habe ich mir entsprechend angeschaut und deine Auszüge stammen wohl von Sete 27. Beziehen sich diese Zugriffslizenzen nicht ausschließlich auf die CALs? Dass CALs für die Benutzer benötigt werden, steht für mich außer Frage. Mir geht es aber explizite um die TS/RDS-CALs. Oder deute ich hier noch etwas falsch? Dankend und Gruß Stefan
  19. Hallo, ich habe hier eine spezielle Software für den Maschinenbau, die vom Hersteller ausschließlich für Windows Server 2012 bzw. 2012R2 freigegeben und unterstützt wird. Dies finde ich zwar doof, kann ich aber nicht ändern - ist einfach so :-/ Diese Software soll bei 10 evtl. später 12 Mitarbeitern laufen. Nun war die Überlegung einen Server zu beschaffen mit Windows Server 2012 R2 DataCenter und für jeden Mitarbeiter eine eigene virtuelle Maschine via XenServer (evtl. auch Hyper-V) bereitzustellen. Dann können sich diese speziellen Mitarbeiter an jedem beliebigen Arbeitsplatz via RDP auf ihrer Maschine einloggen und mit der Software arbeiten. Da kein TS bzw. RDS installiert ist, hätte ich jetzt nicht an entsprechende CALs gedacht, da ja in der Version bereits zwei gleichzeitige RDP-Zugriffe vorhanden sind. Hier scheint es nach einer Recherche im Netz aber Behauptungen zu geben, dass diese nur für Admins sind und Benutzer/Anwender immer auch einen RDS-Cal benötigen. Da ich Fakten haben möchte: wo finde ich dies bei Microsoft? In welchem Dokument der Lizenzierung finde ich genau diese Stelle, damit ich dies prüfen kann und meinem Chef auch schwarz auf weiß vorlegen kann? Vielen Dank für eure Mühen! Stefan
  20. Hallo, vielen Dank für deine Antwort! Ja - ich betreibe DC und Fileserver auf einer Maschine. Für 12 Clients, die hin und wieder ein paar Word-Dokumente öffnen, sollte das auch reichen :-) Das SMB Signing etwas die Performance geht, steht außer Frage - dies würde aber ein permanentes Speed-Problem darstellen, kein "ich lauf zwei Tage problemfrei und dann hab ich mal n' Stündchen keine Lust" :-) Deute ich es auch richtig, dass netio gar nicht SMB für die Übertragung nutzt? Weil dann dürfte sich doch bei dieser Messung das SMB Signing nicht auswirken, oder? Entsprechend müsste ich bei netio ja dann doch die "volle Performance" erhalten... Dankend Stefan
  21. Hallo, ich habe hier zwei IBM x3650 M3 Server mit jeweils 2 Gig-Ports (Broadcom BCM5709C NetXtreme II GigE). Auf den Server läuft Windows Server 2008 R2 mit allen aktuellen Patches. Die Server sind als DC, DNS, DHCP und FileServer konfiguriert für 12 Clients (W7) und langweilen sich eigentlich den ganzen Tag :-) Problem ist allerdings, dass immer mal wieder einige Anwendungen temporär auf den Clients extrem langsam sind - z.B. in Word der Öffnen-Dialog (Anzeige von Dateien auf einem Netzwerk). Im TaskManager ist auf dem Client und auf dem Server absolute Ruhe bei CPU, Ram und Netzwerk. Daher habe ich zum Testen des Netzwerkes netio auf dem Server gestartet und dabei festgestellt, dass immer mal wieder bei der package size 16k bzw. 32k die Rate im kb-Bereich lag. Entsprechend habe ich folgende drei Standard-Aufgaben durchgeführt: 1) aktuellen Netzwerktreiber auf den Servern installiert 2) Firmware vom Switch aktualisiert 3) Server, Switch, Client neugestartet Nun tritt das Problem aktuell nicht mehr auf - allerdings kann ich auch noch nicht sagen, ob es wirklich gelöst ist, da es in der Vergangenheit immer sehr spontan aufgetreten ist. Jetzt habe ich zum weiteren Testen Port 2 von Server 1 direkt mit Port 2 von Server 2 verbunden, eigenen IP-Kreis vergeben und dann netio wieder gestartet - mit folgendem Ergebnis: NETIO - Network Throughput Benchmark, Version 1.32 © 1997-2012 Kai Uwe Rommel TCP connection established. Packet size 1k bytes: 55.31 MByte/s Tx, 60.18 MByte/s Rx. Packet size 2k bytes: 62.63 MByte/s Tx, 59.31 MByte/s Rx. Packet size 4k bytes: 66.03 MByte/s Tx, 61.60 MByte/s Rx. Packet size 8k bytes: 67.95 MByte/s Tx, 63.82 MByte/s Rx. Packet size 16k bytes: 65.83 MByte/s Tx, 66.86 MByte/s Rx. Packet size 32k bytes: 66.34 MByte/s Tx, 69.97 MByte/s Rx. Done. Ich bin leicht über diese Werte verwundert. Bei GBit/s müssten die Werte (inkl. Einrechnung von Teleranz, Schwankungen, ...) doch bei einer direkten Verkabelung (Crossover nannte man das doch früher) so zwischen 100 und 120 MByte/s liegen - oder nicht? Das wären dann ja 800 bis 960 MBit/s. Entsprechend bekomme ich im Windows Task-Manager auch nur so 50% bis 60% auf der NIC 2 angezeigt, was in meinen Augen für dieses Szenario viel zu wenig ist. Was kann ich noch testen/umsetzen um den Speed entsprechend nach oben zu schrauben...??? Bin für jeden Tipp dankbar und warte gespannt auf eure Antworten! Gruß Stefan
  22. Hi, das alles ist meine Testumgebung :-) Aber du hast Recht - die Testumgebung der Testumgebung ist manchmal auch sehr schön, keine Frage! Es gibt in de Symantec Backup Utils (BEUtils) aber einen passenden Eintrag: http://www.symantec.com/business/support/index?page=content&id=TECH66780 Den hat mir freundlicherweise der Symantec-Support genannt! Damit werde ich jetzt gleich mein Glück versuchen - we will see... Dankend Stefan
  23. Hallo, ich habe hier einen Backup Exec 2012 Server, der zwei Windows-Server sichern soll. Die Sicherung der zwei Server läuft erst seit ein paar Tagen. Nun habe ich einiges in Backup Exec probiert, da ich die Software das erste Mal zu Gesicht bekommen habe. Nun würde ich gerne die gesamte Datenbank zurücksetzen, so dass ich Backup Exec meint, dass es gerade den Zustand nach einer Installation hat. Ist dies möglich? Habe im BEUtil schon auf "Datenbank löschen" geklickt, aber das scheint nur eine schlecht Übersetzung zu sein - da würde "alte Datenbankeinträge löschen" wohl besser passen :-) Leider habe ich bisher keine passende Lösung im Internet gefunden und ich habe eigentlich keine Lust, den Backup-Server vollständig neu zu installieren :-) Daher bin ich für jeden Tipp mehr als dankbar! LG Stefan
  24. Hallo, ich arbeite mich geraden in MS SQL ein - Datenbanktechnisch hatte ich bisher nur das Vergnügen mit MySQL. Ziel ist es, einen recht hochverfügbaren SQL-Cluster zu haben, der auf zwei Knoten läuft, kein Shared-Storage hat und bei Ausfall eines Knotens trotzdem noch läuft. Eingesetzt werden soll MS SQL 2012. Nun habe ich mir auf der Microsoft-Seite (http://www.microsoft.com/de-de/server/sql-server/2012/editionen.aspx) die verschiedenen Editionen angeschaut und grübel darüber, ob die Standard-Edition es tut - immerhin steht dort bei AlwaysOn ja "grundlegend". Doch was ist unter dem Zusatz "Grundlegende Verfügbarkeit durch 2-Knoten-Failover-Clustering" zu verstehen? Heißt das, dass ich dem AlwaysOn-Cluster maximal zwei Knoten hinzufügen kann oder ist dort noch mehr drunter zu verstehen? Was ich auch noch nicht so ganz verstehe, ob AlwaysOn etwas ganz anderes als Failover-Clustering ist. Wenn ich die Einleitung auf der Seite http://msdn.microsoft.com/de-de/library/hh270278.aspx richtig verstehe, dann ist Failover die Basis für AlwaysOn, oder etwa nicht? Bin da grad noch etwas verwirrt :-) und bin daher für jeden Tipp/Hinweis mehr als dankbar! Dankend! Stefan
  25. Hallo, ich habe hier einen Lexmark C782, der seit Neuestem beim Ausdruck ein Problemchen hat: Linien werden sehr schwach ausgedruckt, soll heißen - es sieht so aus, als würde nur jeder zweite Punkt tatsächlich gedruckt und dadurch wirkt eine Linie einfach blass. Dies tritt z.B. bei Linien in Excel aus, aber auch bei selbst gemalten Linien in Word oder Paint. Wenn ich allerdings Text ausdrucke, dann wirkt dieser wie üblich schön kräftig. Auch bei ausgedruckten Bildern wirkt alles sehr blass. Kann sich das jemand erklären, woran dies liegt bzw. ob es dafür einen Fachbegriff gibt, nach dem man googeln kann? Bin total ratlos, was dies sein könnte. Hatte schon eine Art "Toner-Spar-Modus" im Visier, aber dazu habe ich nichts gefunden... sehe ich mittlerweile allerdings auch nicht mehr so, weil ja Text richtig gedruckt wird. Warte gespannt auf eure Antworten :-) Danke und Gruß Stefan
×
×
  • Neu erstellen...