Jump to content

Performance erhöhen - Server


Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Empfohlene Beiträge

Wir wollen die Performanz des Servers erhöhen. Auf dem Server läuft einzig eine Datenanalyse Software eines Drittanbieters. Die Software soll schneller Daten berechnen. Die Software ist veraltet und rechnet (wohl) auf 32bit.

 

  • Windows Server 2016
  • CPU Dual 2.20 GHz Intel Xeon(R)E5-2698 v4
  • 8GB RAM
  • Standard Disk

 

DeviceManager shows two identical entries for the CPU as specified above.

TaskManager zeigt an:

  • Max Speed 2.19 GHz
  • Sockets: 2
  • Virtual Processors: 2
  • Virtual Machine: 2
  • L1 cache: N/A

 

Vorschläge:

  • SSD statt standard disk
  • 32 statt 8 GB RAM
  • Zusätzlicher physischer CPU
  • Dual Core durch Quad Core ersetzen
  • Besserer CPU
  • Mehr Cache
  • anderes...?

 

Danke für jegliche Erfahrungen und Erläuterungen

Link zu diesem Kommentar

Hi,

 

vermutlich wirst du hier sinnvoll nur mit dem Hersteller der Datenanalyse Software weiterkommen. Evtl. ist ja die datenliefernde Software der Flaschenhals.

Ansonsten hilft viel (CPU / RAM / Disk) sicherlich "viel". Nur manchmal ist "viel" auch viel zu viel und am Ende weg geschmissenes Geld. ;)

 

Welche Datenanalyse Software ist denn im Einsatz? Evtl. ist hier ja jemand unterwegs, der die Software kennt und sich dazu äußern kann / will.

 

Gruß

Jan

Link zu diesem Kommentar

In einem ersten Schritt würde ich mal prüfen, ob die vorhandenen Ressourcen ausgelastet sind. Wenn die Software fast keine Diskzugriffe macht, bringen auch die schnellsten SSDs nichts. Und auch wichtig: läuft die Berechnung auf einem oder auf mehreren Cores?

 

Falls sie auf einem Core läuft, wird eine neue CPU mit möglichst hohem Takt sehr wahrscheinlich eine Verbesserung bringen. Ansonsten eine neue CPU mit vielen Cores.

 

Kannst Du die Berechnung testweise auf einem aktuellen Arbeitsplatzrechner laufen lassen? Das gäbe mal einen Anhaltspunkt.

 

Hatte kürzlich so einen Fall und war erstaunt, dass das mooresche Gesetz immer noch zu gelten scheint: eine nicht parallelisierbare Datenbankabfrage dauerte auf einem Xeon von 2015 eine Minute und 40 Sekunden, auf einem Arbeitsplatzrechner mit i7 8700 nur noch 20 Sekunden.

Link zu diesem Kommentar

Danke für die Bemerkungen

 

Frontsitebus - Ich denke der erwähnte Prozessor ist moderner

SSD, I/O - Gibt es eine möglichkeit herauszufinden wie viel zwischendurch auf Disk geschreiben wird?

Hersteller fragen - Ist nicht leicht, die Software wird über eine Zwischenfirma vertrieben, aber ja klar trotzdem versuchen...

32bit 4 GB Grenze - Richtig, das gilt es echt rauszufinden, wie? Kann man 64bit kurz temporär disablen :)

Datenliefernde Software der Flaschenhals - Das ist sicher so, ja

Nein die Software kennt wohl niemand

Die Software ist veraltet - Keine installation, lediglich eine exe mit directories und dlls, Windows Access 2007 database

Updates - Files muss man selbst reinkopieren / überschreiben

Resourcen Auslastung - Prozessor punktuell bei 100%, aber nicht ständig, RAM nicht ausgelastet ca 50% aber konstant bis kill

Cores / CPUs - Jep, sollte ich unbedingt rausfinden ob die Software mehrere CPUs ansprechen kann, sonst macht nur höherer Takt Sinn.

Nope ich darf/sollte die Software nicht wo anders laufen lassen, ich wäre jetzt auch auf Azure virtul machine und hätte mit unterschiedlicher hardware rumgetestet

i7 - ich glaube auch das Takt mehr bringt als mehrere prozessoren bei dieser alten software

 

 

Link zu diesem Kommentar

Für Access Anwendungen zählen eigentlich nur zwei Dinge. Niedrige Latenz und hohe Single Core Leistung. Dann rennts wenn keine Designfehler gemacht worden sind. ;)

 

Sprich: Enterprise SSD mit möglichst tiefer und konstanter Latenz. Intel Optane oder DC's zum Beispiel.

 

Dann kann man noch Code in DLL's auslagern für alles was irgendwie lahm ist und berechnet werden muss (VB6 bzw. C++ ist besser da schneller als .NET --> .NET sind etwas lästig beim Programmstart).

Alles in allem sind die Access Lösungen nicht per se schlecht, auch wenn Sie tendenziell anfälliger sind als "richtige" Software. Aber bei grossen Projekten ist das manchmal einfach zu teuer in der Neuentwicklung. Access Lösungen habe ich noch immer portiert, bei neuen .NET ist das nicht immer der Fall. Insofern ist die Portabilität eigentlich sogar eher besser. ;)

Link zu diesem Kommentar
Der letzte Beitrag zu diesem Thema ist mehr als 180 Tage alt. Bitte erstelle einen neuen Beitrag zu Deiner Anfrage!

Schreibe einen Kommentar

Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor-Fenster leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...