Jump to content

Performance erhöhen - Server


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Geschrieben

Wir wollen die Performanz des Servers erhöhen. Auf dem Server läuft einzig eine Datenanalyse Software eines Drittanbieters. Die Software soll schneller Daten berechnen. Die Software ist veraltet und rechnet (wohl) auf 32bit.

 

  • Windows Server 2016
  • CPU Dual 2.20 GHz Intel Xeon(R)E5-2698 v4
  • 8GB RAM
  • Standard Disk

 

DeviceManager shows two identical entries for the CPU as specified above.

TaskManager zeigt an:

  • Max Speed 2.19 GHz
  • Sockets: 2
  • Virtual Processors: 2
  • Virtual Machine: 2
  • L1 cache: N/A

 

Vorschläge:

  • SSD statt standard disk
  • 32 statt 8 GB RAM
  • Zusätzlicher physischer CPU
  • Dual Core durch Quad Core ersetzen
  • Besserer CPU
  • Mehr Cache
  • anderes...?

 

Danke für jegliche Erfahrungen und Erläuterungen

Geschrieben

Hi,

 

vermutlich wirst du hier sinnvoll nur mit dem Hersteller der Datenanalyse Software weiterkommen. Evtl. ist ja die datenliefernde Software der Flaschenhals.

Ansonsten hilft viel (CPU / RAM / Disk) sicherlich "viel". Nur manchmal ist "viel" auch viel zu viel und am Ende weg geschmissenes Geld. ;)

 

Welche Datenanalyse Software ist denn im Einsatz? Evtl. ist hier ja jemand unterwegs, der die Software kennt und sich dazu äußern kann / will.

 

Gruß

Jan

Geschrieben

In einem ersten Schritt würde ich mal prüfen, ob die vorhandenen Ressourcen ausgelastet sind. Wenn die Software fast keine Diskzugriffe macht, bringen auch die schnellsten SSDs nichts. Und auch wichtig: läuft die Berechnung auf einem oder auf mehreren Cores?

 

Falls sie auf einem Core läuft, wird eine neue CPU mit möglichst hohem Takt sehr wahrscheinlich eine Verbesserung bringen. Ansonsten eine neue CPU mit vielen Cores.

 

Kannst Du die Berechnung testweise auf einem aktuellen Arbeitsplatzrechner laufen lassen? Das gäbe mal einen Anhaltspunkt.

 

Hatte kürzlich so einen Fall und war erstaunt, dass das mooresche Gesetz immer noch zu gelten scheint: eine nicht parallelisierbare Datenbankabfrage dauerte auf einem Xeon von 2015 eine Minute und 40 Sekunden, auf einem Arbeitsplatzrechner mit i7 8700 nur noch 20 Sekunden.

Geschrieben

Danke für die Bemerkungen

 

Frontsitebus - Ich denke der erwähnte Prozessor ist moderner

SSD, I/O - Gibt es eine möglichkeit herauszufinden wie viel zwischendurch auf Disk geschreiben wird?

Hersteller fragen - Ist nicht leicht, die Software wird über eine Zwischenfirma vertrieben, aber ja klar trotzdem versuchen...

32bit 4 GB Grenze - Richtig, das gilt es echt rauszufinden, wie? Kann man 64bit kurz temporär disablen :)

Datenliefernde Software der Flaschenhals - Das ist sicher so, ja

Nein die Software kennt wohl niemand

Die Software ist veraltet - Keine installation, lediglich eine exe mit directories und dlls, Windows Access 2007 database

Updates - Files muss man selbst reinkopieren / überschreiben

Resourcen Auslastung - Prozessor punktuell bei 100%, aber nicht ständig, RAM nicht ausgelastet ca 50% aber konstant bis kill

Cores / CPUs - Jep, sollte ich unbedingt rausfinden ob die Software mehrere CPUs ansprechen kann, sonst macht nur höherer Takt Sinn.

Nope ich darf/sollte die Software nicht wo anders laufen lassen, ich wäre jetzt auch auf Azure virtul machine und hätte mit unterschiedlicher hardware rumgetestet

i7 - ich glaube auch das Takt mehr bringt als mehrere prozessoren bei dieser alten software

 

 

Geschrieben

Für Access Anwendungen zählen eigentlich nur zwei Dinge. Niedrige Latenz und hohe Single Core Leistung. Dann rennts wenn keine Designfehler gemacht worden sind. ;)

 

Sprich: Enterprise SSD mit möglichst tiefer und konstanter Latenz. Intel Optane oder DC's zum Beispiel.

 

Dann kann man noch Code in DLL's auslagern für alles was irgendwie lahm ist und berechnet werden muss (VB6 bzw. C++ ist besser da schneller als .NET --> .NET sind etwas lästig beim Programmstart).

Alles in allem sind die Access Lösungen nicht per se schlecht, auch wenn Sie tendenziell anfälliger sind als "richtige" Software. Aber bei grossen Projekten ist das manchmal einfach zu teuer in der Neuentwicklung. Access Lösungen habe ich noch immer portiert, bei neuen .NET ist das nicht immer der Fall. Insofern ist die Portabilität eigentlich sogar eher besser. ;)

Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...