Jump to content

GTRDRIVER

Members
  • Gesamte Inhalte

    233
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von GTRDRIVER

  1. Hallo zusammen ich hatte es schon mal wo anders erwähnt - ich ziehe hier aktuell in einem Projekt von einem 2003 auf einen 2012R2 um. Der 2003er lief auf einem ESXI als Virtuelle Maschine mit knapp 40 Usern relativ Problemlos und sogar noch einigermaßen performant. Bei meinen Tests mit dem 2012R2 (der WTS läuft als einzige Maschine auf einem Hyper-V host - der eigentlich ca 40% mehr Leistung mit bringt als die alte ESXI Maschine auf der noch 5 andere VM´s gelaufen sind) - stellte ich fest dass so ab 20 Usern alles so langsam zäh wird. - Es geht .. - aber man merkt dass hier eine Grenze ist. Wenn man nun RAM Auslastung / CPU Auslastung / IO Auslastung des Raid so anschaut dann ist das eigentlich noch massiv luft nach oben - dennoch ist die gefühlte Leistung deutlich reduziert. Woran liegt das ? In meinem Fall kommt ein 2. Physikalischer Server hinzu (per 10GBps) angebunden - das läuft nun auch schon und die Performance ist wirklich SEHR gut. Produzieren aktuelle Win SErversysteme so viel Overhead ? - Braucht das RemoteFX so viel Rechenleistung ? Mir geht es eher darum zu verstehen wo ich die Engstellen erkennen kann und ob es eine grundsätzliche Empfehlung XX User / WTS gibt ? CU GTR
  2. Hi was meinst du mit "Drucken aus der TS selbst" ? Wie gesagt es sind eigentlich fast alles Netzwerkdrucker die per TCPIP Port am TS Host angebunden und installiert sind. Das ganze in einem VPN über ein WAN (am Serverstandort mit 100mbit down/30mbit upload Die Standorte sind allesamt mit einer standard 16000er DSL1 Anbindung versorgt (leider DSL RAM - also je nach Leitungsqualität und Störung auf der Leitung) - aber das ist schon ok. Druckt man viel "textlastiges" also echter TEXT mit Grafiken und Tabellen geht das wirklich flott - wir haben hier aber auch stark Grafik-lastige Dokumente oder PDF´s in denen der TEXT grandioserweise als Grafik eingebunden ist - dann kommt das schon mal in s stocken - aber jetzt nicht so dass man wirklich warten muss. Der Gau sind Leasing Verträge - das sind 34Seiten pro Vertrag in 3 Ausführungen mit extrem viel Text, Tabellen und kleinen Grafiken - aber selbst das geht relativ flott - ich würde sagen dass der Druck 15-20% länger dauert als lokal. Die Testseiten kommen rasend schnell - aber da ist ja eigentlich nur TEXT und oben das logo drauf... cu GTR PS: wir bremsen hie aber - da sonst bei so großen Druckaufträgen die Leitung komplett verstopfen würde und damit alle RDP Sitzungen verlangsamt werden würden - daher haben wir die Ports über die das Drucken läuft gedrosselt (in der Firewall/VPN) - mir ist jetzt kein WIN Boardmittel bekannt mit dem das sonst gehen würde - aber evtl ginge das auch per Software auf der WTS Seite... CU GTR
  3. Hallo Also. Nach den bisherigen Tests bleibt der standard Drucker in der session so wie zugewiesen. Ich hab bisher von keinem user etwas gegen teilifes gehört .... Immer u ter dee Prämisse dass das am client die Weiterleitung abgeschaltet ist. Ansonsten setzt er stur den weitergeleiteten standard drucker des Clients Damit kann ich aktuell leben.... Alternativ hab ich noch ein tool gefunden mit dem man den Drucker per bat oder script setzen kann. Nachtrag. Im vorliegenden Fall sind 95% aller Drucker per TCP port am Server installiert. Dank schneller dsl Leitungen ist das auch bei grossen Aufträgen kein Problem. Hatte gestern testweise ein 20 seitiges PDF gedruckt. Das ging flott obwohl im VPN Router der Drucker Datenverkehr pro gerät sus 2mbit gedeckelt ist um die Leitung für RDP nicht zu verstopfen ...
  4. Hi sehr interessanter Artikel ! ich bin auf jeden Fall schon mal auf der Richtigen Spur bei diesen Performance Problemen auf EasyPrint zu verzichten ... Das mit den Standard Druckern muss ich mir mal genauer anschauen . Danke jedenfalls
  5. Hi Echt ? - Ist das so ? (wenn ja bei welchen OS Versionen) Das ist mir noch NIE aufgefallen.... CU GTR
  6. Hallo zusammen ich bin noch recht neu mit SERVER2012R2 unterwegs und aktuell grad ein wenig am austesten der Drucker Konfiguration. Vorab ein paar Infos zur Situation: - Firmen VPN - großteils Arbeitsplatzdrucker oder Zentrale Drucker mit LAN Anbindung (über das VPN erreichbar) - einige wenige lokale Drucker ohne Lan Anbindung (USB am Client) - Clients: Win8 - Alle Drucker mit LAN sind am RDS Host angelegt und für alle User sichtbar Ich habe nun mal grundsätzlich die Easy Print funktion in 2012 aktiviert - somit werden erstmal alle lokal am client vorhandenen Drucker in der TS Sitzung gemappt und der lokale Standard Drucker wird in der RDP Sitzung auch als STANDARD gesetzt. Prinzipiell klappt das auch (entgegen einiger Berichte) recht gut bisher keine Probleme) - bis auf eins: Das Drucken von größeren PDF´s dauert eine Ewigkeit (ich vermute das Hängt mit der Kovertierung für das Univesal Print zuammen). Druckt man direkt auf einen der im RDS Host angelegten lokalen Netzwerk Drucker (auch über WAN) geht das SUPER schnell. Nun habe ich ja die Möglichkeit die Druckerumleitung auf der client Seite abzuschalten (im RDP Client) - dann wird (nach meinen bisherigen Tests´s) irgendein am RDS Host installierter Drucker als Standard Drucker genommen. Wenn ich dann einen anderen Standard Drucker setzt bleibt dieser bisher (bisherige Test´s) Nun zu meiner Frage: Ist das so ? - Kann ich (sofern die Druckumleitung) deaktiviert ist in einer Benutzersitzung einen Standard Drucker definieren - und dieser bleibt dann Standard Drucker so lange bis das jemand "per hand" ändert ? Warum ich Frage: ich komme bisher von SErver 2003 und SErver2008 und hier hat mich dieses Thema oft "wahnsinnig" gemacht weil grad beim thema Standard DRucker hier irgendwie ein Eigenleben entwickelt wurde. CU GTR
  7. Hallo zusammen ich wollte mich nochmals für die Beratung und Hilfe bedanken ! Habe die letzten 4 Tage die beiden WTS in Betrieb genommen und kann nur sagen WOW - in diesem speziellen Anwendungsfall ist das 10GBE der Wahnsinn. Die Performance ist wirklich grandios und man sieht auch im NETON sehr gut wie stark die Verbindung bei 20 Benutzern ausgelastet ist - die ist jetzt nicht permanent am Anschlag - aber vor allem die ständigen Peaks zeigen dass das SEHR viel bringt. Ich hatte das Gespann ja schon seit einigen Wochen im BETA Betrieb laufen (mit Teaming von 4 1GB Intel Karten) aber das ist kein Vergleich zum aktuellen Zustand. Kann nur jeden ermuntern der einen ähnlichen Anwendungsfall hat das zu testen. Die Kosten sind überschaubar: 2x 350 Euro für die Intel Dualport 1x 640 Euro für den DLINK 10GbaseT Switch. Normale CAT7 Patchkabel - kein Glasfaster - Super ! CU GTR
  8. Hallo das ist jetzt OT - aber Diesen Dienst gab´s damals von DATEV noch nicht - wurde dann ca. 1 Jahr später eingeführt.
  9. Hallo ich hatte sowas mal in einer DATEV Umgebung am laufen - Prinzipiell hat das super funktioniert - die Anbindung übernahm allerdings ein VPN so dass der Backup Server nicht direkt von NETZ aus zugänglich war. Zudem hat der Hoster damals das DAtenschutz-Thema ernt genommen und entsprechende Garantien gegeben (Zutrittskontrolle etc...) - das ist gar net so ohne wie meine Vorredner schon sagten ... Ganz schlimm ist das bei Daten, an die man erstmal gar nicht denkt - in einem anderen Fall war das genau der Grund warum ein Online Backup verweigert wurde - hier sollten auch CRM Daten eines Datendienstleisters gesichert werden und dieser war damit nicht einverstanden. CU GTR
  10. Hallo Ihr beiden. Korrekt - 3 "Blech Kisten" die allesamt Virtualisierer sind - besser so ? Ich hab heute das 10GbaseT In Betrieb genommen und ich konnte es nicht lassen - bei den Windows Servern mit Dualport und Link Aggregation bei ESXI hab ich die Link Aggregation nicht zum laufen bekommen - hab die gängigen How To Do´s befolgt - aber wollte nicht - mal sehen. Nun mal zur grundsätzlichen Erkenntnis: Das Rennt wie die Hölle ! Die Benchmark Tools (Datei-Basierend) weisen werte aus die Annähernd den lokal gemessenen entsprechen - SUPER Um die Link Aggregation zu testen 2 spezielle Tools die die Daten im RAM Cachen und quasi auf Belastung schicken - der Vergleich war schön - "2 Züge nebeneinander" - denn genau da hat der Test ergeben - 2x10GB (eben nur 10GB pro Verbindung) - aber immer noch Wahnsinn. Das Daten kopieren - Grandios - sogar die lahmen JET Datenbanken rennen nun wie auf dem Lokalen Server. Ich werde mal weiter testen und berichten ! CU GTR
  11. Hallo zusammen es gibt hier 3 HARDWARE Server die allesamt Virtualisiert sind (1x ESXI 2x WIn2012R2 mit HV). Es werden nur Daten zwischen diesen 3 Servern (Hardware) kopiert. - daher werde ich diese 3 Hardware Server nun per 10GBE verbinden. Eigentlich sollte das Equipment schon da sein - aber leider sind die Intel DUalport auf rückstand.... Daher - ich werde von den Ergebnissen berichten - bin schon gespannt ...
  12. Hallo zusammen Punkt1: hier ist kein NAS im Spiel - Server1 (Win2012R2) spielt auch Dateiserver für Server2 Punkt2: D-Link - das mag mit dem Verwendungszweck zusammenhängen. Ich nutze D-Link Switches bisher ausschließli8ch als "normalen Switch", mit VLAN und Link Aggregation - dazu das ganze bisher nur mit 1GBE mit Kupfer oder Glasfaster. Ich habe trotz der stattlichen Anzahl an bisher eingesetzten Switches noch niche Probleme oder Schwierigkeiten mit der Konfiguration gehabt. aber wie gesagt - es mag durchaus szenarien geben bei denen etwas anders nötig ist. Punkt3: Ja - es werden oft große Datenmengen (>1GB) kopiert und wenn ich mir hier so den NETMON anschaue dann steht der 1GB Adapter regelmäßig am Anschlag - daher erhoffe ich mir von einer 10GBE Lösung mehr Power Ob das dann auch so ist wird sich im laufe dieser woche Zeigen. - evtl liege ich auch vollkommen falsch... - aber wie gesagt - ohne Versuch werden wir´s nicht erfahren
  13. Hi ja - das war jetzt nach "oben gestapelt" - aber ich hab mir jetzt mal ne Intel Single Port rausgesucht - die liegt EK netto bei knapp 350 Euro (10GbaseT) PS: Hab grad gesehen das es von DLINK nen schönen 8Port 10GbaseT Switch gibt - die Marke ist mir sympatisch :-) CU GTR
  14. Hallo zusammen also - ich hab jetzt mal beide Server in kombination getestet - so richtig begeistert bin ich nicht (mit1GBE) - daher werde ich nun mal den Versuch mit 10GBE starten (denn nur Versuch macht Klug) - dann schaue ich mir das mal an - wenn das auch keinen signifikanten Vortel bringt dann muss ich wohl die Konstellation überdenken ... @Nilsk: Ich hab jetzt mal parallel mit einem NET Mon mir den Live-Load angeschaut und hier ist das Netzwerk ganz klar die Engstelle da die Last hier permanent auf dieMAX Performance der NIC steigt - das jetzt nur mal mit 2 (von 20) Test Usern (zugegeben etwas gestresste User) ... Zum Thema "Leisten können oder Leisten Wollen" - na ja - ich spreche hier ja nicht von Rechenzentren oder Mittelständlern wir Scheffler mit 10000 Beschäftigte. Wenn ich einer firma mit 50 Angestellten die sonst gewohnt ist für einen managed Swptich 200 Euro zu zahlen einen 1000 Euro switch rein stelle - dazu noch 2 NIC´s die zusammen nochmals knapp das kosten was der Switch schon kostet - dann geht die Fragerei schon los..... Es ist ja nicht mein geld :-) CU GTR
  15. Hi relativ einfach: eine möglichst schnelle verbindung zwischen den beiden Servern .... - ob 10GBE das so leistet wie ich mir es vor stelle wird sich zeigen. Mal eie ganz andere Frage: Da ich vorerst bei diesem Fall keine weiteren 10GBE Geräte benutzten möchteund 10GBE Switche wirklich SEHR teuer sind dachte ich daran die beiden Server direkt zu verbinden (ohne Switch) Ich bin jetzt nicht der voll Netzwerk Profi - aber irgendwas sagt mir dass das nicht geht - denn beide Server müssten ja für den RDP Zugriff und den Zugriff auf das restliche Netzwerk über ein weitere NIC verfügen welche wiederum ja im gleichen Subnet arbeiten würde. - irgendwas wie gesagt sagt mir dass das dann so nicht geht ... Ihr könnte mich aber gern eines besseren Belehren ! CU GTR
  16. Hallo ja - ich bin halt oft in kleineren mittelständischen Umgebungen unterwegs - wenn man da 1000Euro für nen Switch sagt fallen alle um .... Wegen dem "effekt Zeigt" bin ich höchst angespannt - denn ich weiß es auch nicht ... Fakt ist dass ich auf dem SErver 2 Szenarien habe: 1: SQL Server - da sollte es vermutlich garnix bringen 2: Häufige Bewegung großer Datenmengen und hier sollte es definitiv Geschwindigkeit bringen - so hoffe ich ... CU GTR
  17. Hi ja - genau so sehen die Ergebnisse mit 2012R2 auch aus ... Was mich aber eben irritiert dass es z.b: unter Linux zu einer deutlichen Steigerung kommt - seltsam.... Na ja - dann bestellen wir mal 10GBE Adapter... und nen Switch (die Adapter wären es ja nicht - aber die Switche kosten ein Vermögen)
  18. Moin gewünschter Effekt: zwischen 2 Servern eine optimal schnelle Datenverbindung - optimalerweise so als wäre wäre das RAID Airray von Server1 in Server2... Ich hatte die Tage ein wenig zeit zu experimentieren und so ganz blick ich nicht durch - wobei das aber wiederum die Aussagen hier bestätigt: Versuchsaufbau1: DLINK GB Switch mit LACP Trunking Server1:Synology NAS mit 2 GB Ports als Trunk Client1: Linux Rechner Gemessener Datendurchsatz: 190-210MB/s - ganz gut - aber auf den lahmen Prozessor des NAS zurückzuführen Versuchsaufbau2: DLINK GB Switch mit LACP Trunking Server1:Linux Rechner mit INTEL Quad Port karte - alle 4 Lanes in 1 Trunk des Dlink Client1: Linux Rechner mit INTEL Quad Port karte - alle 4 Lanes in 1 Trunk des Dlink Gemessener Datendurchsatz: 360-420MB/s Versuchsaufbau3: DLINK GB Switch mit LACP Trunking Server1: Win2012R2 mit INTEL Quad Port karte - alle 4 Lanes in 1 Trunk des Dlink Server2: Win2012R2 mit INTEL Quad Port karte - alle 4 Lanes in 1 Trunk des Dlink Gemessener Datendurchsatz: 110-119MB/s (für 1 Datenverbindung) - werden mehrere Transfer´s gestartet dann macht er zwar schon eine Lastverteilung - aber pro Transfer eben genau 1GB Ethernet Geschwindigkeit. Bleibt also doch nur der Einsatz eines 10GBE Netzwerks oder ? CU GTR
  19. Hallo möchte auch mal was dazu beitragen: Hatte hier einen ähnlichen Fall bei 2 Clienten - witzigerweise auch datev und der Maßgabe dass mehrere Mitarbeiter ebenfalls weit entfernt verteilt mit 08/15 PC´s und teilweise abenteuerlichen Druckern (vom Tintendrucker bis hin zum 10000Euro Druckcenter drucken wollten. Auch hier war ursprünglich das lokale Mapping des lokalen Druckers getestet und für "nicht gut befunden worden". Die Verbindung erfolgte direkt (ohne VPN etc..) Wir haben bei beiden einen vollkommen unkonventionellen Weg gewählt: ARM Basierender Mini PC in der Firma und bei den Außenstellen und Port Tunneling via SSH. Damit wird bis heute der TCP/IP Drucker in das Firmennetz getunnelt und die RDP Verbindung. DAs hört sich jetzt etwas abenteuerlich an und wäre sicher auch mit entsprechenden Routern/Firewall/Software VPN machbar - jedoch hat es den Vorteil dass es quasi Out of the BOX in jedem Netzwerk und jedem Router läuft sofern SSH nicht gesperrt ist. Läuft bis heute grandios und alle Druckprobleme sind vergessen da alle Drucker am RDS installiert sind und die Druckdaten einfach nur durch das SSH getunnelt werden. Nur mal als anderer Ansatz .... cu
  20. Hallo zusammen erstmal danke für die Beiträge - ich denke ein Stichwort ist 'overhead" .. - das klingt durchaus logisch. Ich werde jetzt trotzdem mal einen Test mit LACP und Teaming machen - dazu dann mal einfach Tests mit div. Benchmark Tools - mal sehen ob das in der Umgebung in der ich es einsetzen will den gewünschten Effekt bringt - wenn nicht habe ich mich inzwischen bei 10GBE soweit fortgebildet dass ich hie rmal einen Versuch starten kann ... CU GTR
  21. Hallo Nilsk Das sind onboard Intel NICs und dann komtm eine Intel Quad NIC rein (da sind ja definitiv alle Ports gleich) Notfalls nehme ich halt die Quad als hauptkarte und definiere die beiden Onboard ports als REserve Werde das mal testen. Ich wollte eigentlich 10GBe machen - aber die Switche kosten ja ein vermögen... (zumindest für einen kleineren Mittelständler) Nachtrag: (auch wenn es hier schon erwähnt wurde) Was ist an LACP eigentlich so schlecht oder Kritisch ? Ich setzte das bisher auf 2 ESXI (in Verbindung mit DLink Switches) ein - zudem in Verbindung zwischen mehreren Linux Servern und ebenfalls DLink Switches Zudem in verschiedenen Firmen wo mehrere Dlink Switches per Glasfaster miteinandere verbunden wurden (jeweils 4 Glasfaster Ports als 1 Trunk mit LACP) Das läuft alles teilweise seit jahren absolut stabil und zuverlässig. Von da her hatte ich an LACP irgendwie nie gezweifelt - wenn man aber alleine in diesem Board nach LACP sucht findet man viele Einträge die eher dagegen sprechen.
  22. Hallo Ok. Habs verstanden und gespeichert. Kommen wir zum eigentlichen Thema teamimg zurück. Ist das so wie ich beschrieben habe machbar und sinnvoll (abgesehen von dem nun besprochenen Thema ) Cu gtr
  23. Hallo Ich habe niemals behauptet dass es ein Problem ist ! In diesem Fall brauche ich einfach maximale Performance für den Datenbankserver - schlicht weil die Datenbank für den Firebird Server zu groß ist - aber ich kann leider weder das Datenbank Format noch das Design beeinflussen sondern muss nur versuchen das maximale raus zu holen. Daher dachte ich daran den FB Server auf dem Host laufen zu lassen - aber gut - wenn das keine gute Idee ist - ich bin auf jeden Fall lernfähig !
  24. Hallo So war das mal angedacht - aus Performance Gründen - da aber keine weitere Physikalische Maschine her soll würde das bedeuten ich lege auf Server1 einen weiteren Gast an und lasse auf diesem File + DB Server laufen. Ich bin zugegeben neu bei HyperV und hatte bisher nur mit ESXi zu tun - und nein - ich würde auf dem ESXI Host keinen Web-Server installieren :-) CU GTR
  25. Hallo Vielen Dank für für die Info - könntest du das mit dem "Mach sinn" genauer ausführen ? Ich beschreibe am Besten mal was ich vor habe: 2 Identische Server (einer hat ein stärkers SSD Raid) - ansonsten alles gleich. Auf beiden läuft HyperV Server1 spielt auf DB Server und Fileserver - zudem läuft im HyperV als Gast ein 2012R2 als RDS Server (für diese File und Datenbankanwendungen) Server2 - hier läuft nur in dem HyperV als Gast ein 2012R2 als RDS Server (greift auf Server1 (File und Datenbank) zu Da hier auch große Datenmengen geschaufelt werden ist hier das NIC die Engstelle - daher hatte ich an Teaming gedacht. Oder sagst du (ihr) das ist murks und ich soll auf 10 GBE gehen CU GTR
×
×
  • Neu erstellen...