Jump to content

Weingeist

Members
  • Gesamte Inhalte

    1.566
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Weingeist

  1. Eigentlich nicht. Im Gegenteil. Waren hochperformante SSD. Der Durchsatz stieg quasi proportional zur Menge Cores die ich einer VM zugewiesen hatte an. Bei weniger Cores, dafür aber höherer Taktung (neue CPU) waren aber die Auswirkungen auf den Host bzw. das Benutzerfeeling der Desktops die auf der gleichen Maschine liefen deutlich entspannter. Beim Copy auf den lahmen Storage war die CPU-Auslastung tief. Wie auch immer: Ich sage ja nur, dass man ned in jedem Fall von 5-6% ausgehen kann. Insbesondere nicht bei - Spitzenbelastung von VM's zur Arbeitszeit - Hohe Belastung durch virtuelle Hardware, insbesondere bei VDI oder extrem hohem LAN Traffic - Überbuchung von Cores/Threads wenn obiges zutrifft Zudem muss auch noch der Handlager der Hosts (z.B. vCenter) mit einberechnet werden, der in kleinen Umgebungen verhältnissmässig viel Power verbratet. Wenn überbucht wird, ist es ja eigentlich kein fairer Vergleich physisch und virtuell und eigentlich auch zu allgemein gesagt mit Overhead. Ist ja dann streng genommen ned Overhead... Aber jetzt driftets wirklich ab. Wollte beim Overhead aber auch vor allem auf die mehr Kerne = mehr Verwaltungsaufwand zielen. Aktuelle Vergleiche P/V habe ich keine zur Hand. Mit aktueller Hardware kann ich nur auf Erfahrungen im praktischen Umfeld zurückgreifen. Bei reinen, gemischten Server-Workloads sind ja meist eher die IO's der Flaschenhals, nicht die CPU.
  2. Naja, bin ich anderer Meinung. Schon die Fragestellung ist allgemein gesprochen. Wenn meine Verallgemeinerung - wenn auch zu Recht - zu wenig tiefgründig bzw. heute teilweise falsch ist, dann kann man relevante Punkte welche die Performance/Overhead der Virtualisierung unter Umständen massgeblich beinflussen, nicht als abdriften bezeichnen. ;) Fakt ist aber nach wie vor - daran ändern alle modernen Features nichts - dass je mehr Cores oder von mir aus aus CPU-Sicht auch Threads (Hyperthreading ergibt einen gewissen Performance-Vorteil, den haben aber auch physische Maschinen) pro VM zugewiesen sind, desto mehr Verwaltungsaufwand für das Host-OS entsteht und dies die Performance gegenüber physischen Maschinen beeinträchtigt. Ich würde mich aber sehr stark wundern, wenn dies bei einem gut ausgelasteteten sowie Kerne oder noch schlimmer Thread überbuchten Host bei den 5-6% bleiben würde (Je mehr Cores einzelnen VM zugewiesen wurden). Bei RAM-Überbuchung siehts noch schlimmer aus. Das ist aber mittlerweile eh vom Tisch, macht fast niemand mehr. Bevor ich da keine aktuellen Tests vorliegen habe, kann ich da aber nur von meinen Erfahrungen mit der CPU-Taktung zehren. Wenn hier ein paar Aktionen die Performance spürbar in den Keller ziehen, muss dass massiv mehr als 5-6% sein. Auch Grafikkarte kann ziemlich Overhead verursachen. Im Serverumfeld eher weniger relevant sondern Desktopvirtualisierung. Am Ende kann heute vieles an zusätzliche Hardware ausgelagert werden, mann muss dann aber dennoch so ehrlich sein, dass es dann nicht mit 5-6% getan ist, wenn einfach mehr spezifische Rechenleistung hineingebracht wird, die z.B. in kleinen Umgebungen in der Regel gar nicht finanziert und eingebaut wird. ;) Das war mit VmWare. Normale Netzwerkkarten E1000 sowie VMXNET3, Host 5.5. Also keine physisch durchgereichte Karte oder SR-IOV aktivierte Karte.
  3. Tatsächlicher Overhead: Gibt/gab doch zuhauf Benchmarks zum Thema physisch und virtuell. Bis hin zu Extrembeispielen wo der Overhead extrem hoch liegt. In Spezialfällen über 100%. Da gibts die unterschiedlichste Bandbreite. Wobei ich mir da wohl aktuellste Lektüre einverleiben sollte. @Zahni: Habs durchgelesen und widerspricht dem fett geschriebenen. Bin ich nimmer up to Date. Danke für die Richtigstellung inkl. Doku. Allerdings ist das meiner Meinung nach trotzdem nur die halbe Miete. Bin nach wie vor überzeugt, dass Kernüberbuchung sowie anzahl Kerne pro VM's Ihren Anteil am Overhead haben. Sehr oft verteilt ja das GuestOS seinen Kram auf mehrere Kerne. Wären da z.b. nur zwei anstatt vier zugewiesen, wäre der allgemeine Verwaltungsaufwand für den Host mit Sicherheit kleiner. Unter Umständen ist der Guest ja darauf angeweisen das eine Op des anderen Kerns abgeschlossen ist bevor er auf dem anderen weitermachen kann. Irgendwas muss das verwalten. Dann gibts noch das Problem mit der virtuelle Netzwerkkarte. Herrscht da viel Traffic, dann ist die Performance bei anderen CPU-lastigen Tätigkeiten total im Eimer. Diese verursacht einen enormen Overhead. Ein Beispiel aus der Praxis: Mit einfachen Kopieraktionen kann man - genügend IO-Leistung der Storage vorausgesetzt - mehrere Kerne mit hoher GHZ mit der virtuellen Netzwerkkarte komplett auslasten. Für die eigentlichen Operationen innerhalb der VM bleibt dann nicht viel Rechenleistung übrig. Das gibt dann einen riesigen Overhead bei viel Schreibleistung die nicht auf "lokale" Platten gehen und somit dem Host seine Kerne "belasten". Mit ein paar einfachen Kopieraktionen zieht man unter Umständen die Performance des ganzen Hosts in den Keller. Ich konnte dabei feststellen, dass mit einer höheren Taktrate und dafür weniger Kerne pro VM das Problem deutlich entspannter wurde. Die Performance war besser obwohl im Host weniger Gesamt-GHZ vorhanden waren und weniger Kerne.
  4. Wollte weder jemanden verunsichern noch angreifen. Hätte wohl auch etwas weiter ausführen sollen. Wie auch immer. Logisch kommt es neben der Power des Hosts auf den Workload und vor allem die Konfig der VM's sowie der Core-Überbuchung an. Die meisten sind mit 5-6% aber etwas gar optimistisch. Trifft aber sicher in grösseren Umgebungen zu wo die hungrigen VM's auf verschiedene Hosts verteilt werden können. In solchen Umgebungen gibts aber eh reichlich mittel das ganze besser zu strukturieren und zu steuern. Da die meisten VM's eh ned besonders Ressourcenhungrig sind, "klauen" die den anderen ned allzuviel Rechenleistung und die Performance ist oft unmerklich tiefer und bewegt sich sehr oft in dem genannten Bereich. Einfach weil den CPU's eh langweilig ist. Bei einer VM mit einem Core ist der Unterschied kaum merklich, auch wenn viele VM's auf einem Host sind und die Kerne überbucht sind. Auch mit zwei Kernen hält sich das meist noch in Grenzen. Mit jedem Kern mehr steigt der Nachteil bzw. Overhead rapide an. Wird etwas besser wenn die VM die Leistung explizit zugewiesen bekommt. Aber selbst dann steigt der Overhead spürbar an, je mehr Kerne die VM hat. Vor allem wenn mehrere solcher Multi-Core VM's auf einem Host laufen. --> Der Grund ist - wie oben schon genannt - dass der Host alle Kerne die zugewiesen sind, gleichzeitig für eine Operation verfügbar haben muss. Selbst wenn für die Operation nur ein Kern benötigt wird. Ist die Maschine Core-Technisch überbucht, ist der Overhead unter Umständen enorm und der Host viel zu tun mit der Organisation. Je höher die Taktfrequenz sowie die IO-Leistung, desto tiefer ist der Overhead wieder, so meine praktische Erfahrung. Wird alles zügig verarbeitet, sinkt auch der wahrnehmbare Overhead deutlich. Auch kann man dann unter Umständen auf nen Core verzichten und hat trotzdem mehr Leistung. Das gilt natürlich auch bei physischen Maschinen. Aus diesem Grund nehme ich zum Beispiel gerne Single-Socket-Maschinen mit über 3GHZ getakteten CPU's. Das fliegt deutlich besser - auch mit vielen VM's - als niedrig getaktete Dual Socket-Maschinen und mehr Kernen aber meistens tieferen Taktraten. Oder es wird extrem teuer. --> Ist bei kleinen Umgebungen relevant.
  5. Also bei ordentlich ausgelasteten System würde ich da eher in Richtung 10-20% Verlustleistung tendieren. Je weniger Auslastung und je weniger VM's mit mehreren Kernen definiert sind, desto besser und einfacher wirds für den Host die Ressourcen freizuschaufeln und somit sinkt die Verlustleistung. ABER: Das spielt bei ordentlicher Hardware ned wirklich eine Rolle. CPU-Leistung ist in der Regel eh mehr als genug vorhanden, RAM auch. Nur IO-Leistung muss man etwas mehr einrechnen. Bitte nicht einfach davon ausgehen was für einen Server OK ist, ist auch für viele VM's i.O. Ansonsten: Gibt durchaus auch Serverdienste die Mühe mit der Virtualisierung haben. Ein Kunde hat eine Zeiterfassung wo der Serverdienst gerne mal stolpert und die Syncro deaktiviert wird. Es muss dann zwar einfach nur der Dienst neu gestartet werden, lästig ist es aber trotzdem. Angeblich tritt das nur bei virtualisierten Systemen auf und habe etwas mit dem Timing zu tun. Die ganzen Vorteile der Virtualisierung überwiegen aber eigentlich fast immer.
  6. Versionssprünge sind neben dem hoffentlich grösseren Funktionsumfang (fast) immer auch mit grösserem Performancehunger gepaart. Kennt man ja von Windows. Da wird mit jeder Version behauptet, dass der Ressourcenverbrauch/Startgeschwindigkeit sinkt und alles daran gesetzt, einem das mit Nachladen von Bibliotheken etc. zu suggerieren. ;) Unter Umständen musst ihnen aber auch demonstrieren, dass dieses Problem eben auch mit der frisch aufgesetzten Maschine und der Standardwebsite von Joomla der Fall ist damit sie tätig werden (müssen).
  7. Konnte ich leider auch schon öfter beobachten bei den CMS-Geschichten. Das Zeug ist zwar toll aber auch einfach extrem "überladen". Wie siehts den mit der Power der Maschine aus? CPU? RAM? IO-Leistung? Bei nem dedicated Server sollte das eigentlich kein Problem sein, aber man weiss ja nie. Ich würde mich da an den Provider wenden, die müssen Dir helfen zumindest die Ursache zu finden. Die machen das schon bei günstigen Angeboten, bei den teuren dedicated managed sowieso. Die haben für alles ihre Spezialisten. Bei meinem letzten solchen Fall war es eine Fehlkonfiguration des Servers in der Anbindung an das Netzwerk seitens des Providers.
  8. Malware: Nun, wenn sie die richtigen Sicherheitslücken ausnutzt, dann ist egal welche Rechte der User hat. Auf dem betreffenden Desktop war kein einziger User mit mehr als Userrechten unterwegs. War ein aktuelles 8.1 System. Kein Ahnung worauf die gesurft waren, Logs war alles geleert. So richtig schön aufgeräumt... User: Können Normale natürlich nicht... Auf Produktionsmaschinen sind Admin-Rechte auf der lokalen Maschine für die Entwickler der Automatisation leider oft notwendig. Musste ich bei nem Kunden auch so einrichten. Die nehmen gerne mal den bequemen Weg und disablen den Dienst anstatt entsprechende Regeln zu definieren. Ist ja nur für kurz und am Ende bleibts aus.
  9. @Daniel: OK, warum eigentlich? Ein Block-All wäre da doch sinnvoller oder? Ich weiss nicht wie der TMG das macht, aber bei dem ist - soweit ich mich richtig erinnere - Schluss mit traffic wenn die Firewall down ist. Zumindest von und nach extern. Und dieses Ding klinkt sich ja in die Advanced Firewall ein. NAP: Danke für den tipp, werde mich mal durchwühlen.
  10. @daabm: Ich nutze neben XP sogar noch W98, DOS und Windows 3.11. Geht hier aber schon um neuere OS, sonst wärs nicht die Advanced =) @Beide: Das ist eben die Frage. Wenn ich den Dienst manuell deaktiviere ist ja voller Durchzug. In wie Out. Eine Malware macht ja im Grunde nix anderes. Zumindest die letzte mit der ich Kontakt hatte, hat alles sauber deaktiviert (Virenscanner, Firewall) und teilweise sogar deinstalliert (Windows Update, Bits), Update Status auf aktuell gesetzt usw. Volles Programm. Die Kiste selbst hat sich überall als komplett durchgepatcht zu erkennen gegeben. Keinerlei Warnungen. Ziemlich perfid. Wenn nun eine Malware die Firewall abschaltet, oder auch ein User, möchte ich dem PC die Kommunikation ganz verweigern. Sprich die Malware müsste dann selber Firewallregeln erstellen. Klar auch das ist möglich, aber zumindest etwas unwahrscheinlicher.
  11. Hallo Leute, Gibt es eine Möglichkeit - z.B. einen Registry-Flag - um sämtlichen Traffic zu blocken wenn der Firewall-Dienst down/beendet ist? Standarmässig wird ja dann alles durchgelassen. Grüsse und Danke
  12. In den Druckeinstellungen unter Register "Seite einrichten" kannst ein Benutzerdefiniertes Format erstellen (Button unten links). Dieses kannst dann dem Fach zuweisen und für den Drucker gebrauchen. --> Wichtig: Oben ein Name sowie X und Y eingeben, danach auf Registrieren drücken. Nun gibt es das Format. Dieses kann dann hernehmen. Möglicherweise ist es auch ein "Regional-Standard-Format" dann kannst anstelle von X und Y (Länge / Breite) auch das Regionalformat auswählen. --> Ob es auch in Windows direkt registriert wird oder nur auf dem Drucker erinnere ich mich nicht. Wäre wichtig, dass Du überhaupt Dokumente mit z.B. Word erstellen kannst. Ansonsten: Die Manuals von Canon sind gar nicht so verkehrt. Die Hilfe im Druckertreiber auch ned... Einfach mal draufdrücken =) Normalerweise jammert er beim Mehrzweck nicht rum, wenn das Format im Druckertreiber nicht mit dem Format im Drucker übereinstimmt. Zumindest sofern man bei Format = Bdef bzw. jedes mal bestätigen eingstellt hat (am Drucker). Bei den anderen muss das Format auch im Drucker selbst erstellt werden und dann in den Treiber geladen werden. --> Geschieht automatisch sofern Firewallports offen sind! --> Falls es dennoch eins braucht: Setting Menü-Knubbel drücken, als Admin einloggen dann: Präferenzen>Einstellungen Papier>Auf der zweiten Seite ein benutzerdefinierten Format erstellen (S1-S5).
  13. Weingeist

    ReFS vs. NTFS

    Passt hier grad: ReFs hat(te?) einen unsäglichen Bug welcher wohl durch die neue Speichermethode verursacht wird. Es kann sein, dass ReFs ned bemerkt, wenn die Festplatte voll wird. Das Volume wird dann unbrauchbar. Wenn jemand grad infos zur Hand hätte ob das nun gefixt ist, wärs cool. Ist ne gute Zeit her seit ich den Kram getestet habe.
  14. Firewallports der Remoteverwaltungstools alle noch offen? zugreifender Client ebenfalls mit Updates hochgezogen? Sollte mindestens gleichen oder höheren Level der Remote-Verwaltungstools haben, falls es da Änderungen gab
  15. Du müsstest quasi alle Benutzer welche die Infrastruktur benutzen bei einer Firma anstellen und anschliessend Ihre personelle Tätigkeit als Dienstleistung weiterverkaufen. Eigentlich reichts nämlich meines Wissens noch ned mal aus - korrigiert mich wenn ich falsch liege -, wenn Du für beide sämtliche Lizenzen kaufst, weil es bei einer Firma nie die eigene Hardware ist. Ist relativ umständlich bis nahezu unmöglich das korrekt aufzugleisen. Für reine Büorarbeit geht das noch, sind beidseitig Produktionsmaschinen involviert die im Netz hängen sollen, wird es mühsam bis nahezu unmöglich sinnvoll zu regeln. Man müsste quasi die Maschinen ebenfalls an diese Firma verleasen und wieder Rückvermieten. Da diese auch gerne geleast werden, quasi unmöglich. Auch gesetzliche Vorschriften sollte man ned ausser Acht lassen wenn Strohfirmen zur Personalbeschäftigung genommen werden. Auch die Banken sind über solche Konstrukte nicht unbedingt erfreut, wenn der Inhaber nicht identisch ist. Zu guter letzt: Der Worst-Case: Wenn eine Firma hops gehen sollte, kann das für den zweiten sehr unangenehm werden. Man ist durch die gemeinsame Firma etwas gar eng miteinander verzahnt. Alles in allem kann man sagen, ein unnötiger, aufwendiger, bürokratischer Nonsens. Sprich eigentlich gibt es gar keine Möglichkeit das irgendwie sinnvoll mit MS-Software zu regeln. Eventuell klappts wenn einer nen SPLA-Partner wird. Was das wiederum bedeutet und wie das geregelt wird, habe ich keinen blassen Schimmer. Auf alle Fälle gibts sicher keine Kauflizenzen mehr sondern nur noch Mietlizenzen. ;)
  16. Weingeist

    Kanaleinbauswitch RJ-45

    @Otaku19: Stimme ich Dir zu. Ich meinte mit dem Latenz-Vergleich eigentlich weniger die Kabelart an sich, sondern viel mehr die im vorherigen Absatz beschriebenen Nebeneffekte welche in der Summe eine hohe Latenz verursachen. Ein LWL ist einfacher top zu verlegen. Das Bewusststein ist grösser. Die Kabellänge bei zentraler Verwaltung ist weniger kritisch. Je länger das Kabel bei Kupfer, desto weniger Spielraum bei der Verlegung. Oder kurz mit LWL ist es einfacher zu erreichen, dass ein Paket schon vor Ort nur einmal durch die Leitung gehen muss als mit Kupfer. Somit ist die Gesamtlatenz bis etwas sinnvolles, vollständiges beim Gegenüber ankommt unter Umständen spürbar geringer. Natürlich bestreite ich keinesfalls, dass es besseres gibt als den Traffic über ganz norrmale Ethernet-Protokolle und Switche zu schicken. Das ist aber nunmal gerne der Fall, weils eben günstig, erprobt, zuverlässig und vorhanden ist. Aber auch die Spezialhardware bevorzugt eine gute Kupfer-Leitung, selbst wenn die Hardware und Protokolle in der Lage sind, einiges zu interpolieren. @Lefg: Wenn Du was änderst, dann würde ich wirklich darauf pochen, dass Du überall passive Anschlüsse bekommst. Mein Lehrgeld mit der Einplanung von kleinen Switches durfte und darf ich noch immer bezahlen. Habe jahrelang immer nen äusserst zuverlässigen Switch in sehr vielen Installationen verwendet (100er und anschliessend die 1000er). Die 5-10 jährigen Teile laufen noch wie am ersten Tag, keinen einzigen Ausfall. Dann hat der Hersteller vor einiger Zeit kosten sparen wollen und andere Netzteil mitgeliefert, seither gehen die Dinger teilweise noch vor dem Ablauf der Garantiezeit über den Jordan. Was das insgesamt schon Zeit und vor allem Nerven gekostet hat, ist unglaublich. Vor allem weil es sich anfangs nur so bemerkbar macht, als wäre die Leitung Schrott. Tausch man bei den ersten Sympthomen das NT, dann läuft wieder alles wie geschmiert. Wartet man zu lange - weils ned auffällt - dann ist auch die Elektronik futsch. Für die Stunden die so insgesamt schon verbratet wurden, hätte man sehr sehr viele Meter Kabel verlegen können. Vom Ärger ganz zu schweigen. Läuft unter der Kategorie am falschen Ende gespart. ;)
  17. Weingeist

    Kanaleinbauswitch RJ-45

    @Lefg: Nun, dein T-Switch ist easy mit Marke Eigenbau. Ist relativ einfach zu realisieren. Nen kleinen stabilen Switch den es auch mit 19 Zoll Adapter gibt. Daran dann ein L Profil mit Nasen für die auflage auf der Tischkante vom Metaller um die Ecke machen lassen. Habe kleine Switches auch schon an einer Bildschirm VESA-Aufnahme adaptiert und Kabel über Bildschirm weggeführt. Geht auch gut, sieht sauber aus, ist nirgendwo im Weg und man kommt gut hin. :)
  18. Weingeist

    Kanaleinbauswitch RJ-45

    Das meiste wird in unseren Breitengraden von Profis erledigt. Dafür erlernt man nen Beruf. Überall arbeiten Menschen. Überall wo Menschen arbeiten, wird sehr gerne und oft der für den Moment als bequemer erscheinende Weg genommen. Das liegt in der Natur. Bei manchem wie LWL wird man aber förmlich gezwungen das richtig zu machen, weils sonst einfach ned funktioniert. Da gibts wenig Spielraum zwischen top und flop. Das sieht bei LAN ganz anders aus. Du willst gar nicht wissen wie viele Gigabit-Anschlüsse grottig verlegt sind sind. Bis zu einer gewissen Grenze bemerkt man das kaum, irgendwann fällts auf. Spätestens bei VoIP. ;) Bei Bild und Ton über TCP-IP merkt man die Latenz bzw. die Summe davon sehr wohl. Das hat nix mit der eigentlichen Übertragungsleistung zu tun sondern wie schnell eben das "Paket"/der Ton da ist. Der Mensch reagiert da sehr sensibel. Es braucht ned viele Milisekunden Verzögerung damit man zum Beispiel die Synchronisation von Bild und Ton im Fernsehen oder bei VoIP als störend empfindet. In Computersprache: Eine kleine SLC-SSD muss gegenüber einer Magnetdisc ned eine höhre sequentielle Schreibleistung aufweisen um trotzdem eine deutlich höhere gefühlte Performance im Alltag aufzuweisen. Daran ist hauptsächlich die Latenz schuld.
  19. Weingeist

    Kanaleinbauswitch RJ-45

    Spleissen ist super easy, schnell und sicher. Das schenkt sich ned viel. Der Vorteil resultiert eher dadurch, dass man gezwungen ist entsprechend baulich anzupassen. Zudem kriegt man mehr Leitungen durch das gleiche Loch. Bei vielen Kabeln ist das ein nicht zu unterschätzender Part und man kommt so mit dem zu Verfügung stehenden Platz viel besser aus. Bestehende Serviceschächte sind meist baulich vorhanden und oft zu klein demensioniert. Da sind dünnere Kabel ein Segen. ;) Folglich: Man hat es bei der Verlegung sehr viel einfacher, weil die Erfüllung der Voraussetzungen absolut Pflicht sind. Bei LAN Kabel wird gerne auch supoptimal gearbeitet, was dann halt gerne mal so halb funktioniert aber eben ned immer (Streckung). Bei LWL stellt sich dann die Frage gar ned ob man Durchbrüche entsprechend macht oder ned, man muss einfach.
  20. Weingeist

    Kanaleinbauswitch RJ-45

    Fiber anstatt LAN-Kabel wäre schon sehr sexy. Kabel sind viel dünner und einfacher in der Verlegung. Leider sind Endgeräte noch rar und schweinisch teuer. Auch die Koppler trotz einfacher Technik unverhältnissmässig teuer. Bei PCoIP Zeros hatte ich diesen Gedankengang auch schon. Wäre schon sehr cool, vor allem keinerlei Latenzprobleme mehr und locker genügend Speed und auch für Audio/Video geeignet. Da kost aber das Gerät je nach Hersteller 50 bis 100% mehr. Finde ich dann aufgrund des Flexibilitätsverlust insgesamt schon etwas fragwürdig. Die Einbauswitches sind in der Handhabung und Fehlersuche auch ned zwingend das gelbe vom Ei. Da ist dann Unter Umständen Essig mit mal eben abstecken und nen Ersatz hinmachen und nochmals testen. Braucht dann neben dem IT'ler auch gleich den Elektriker weil am Strom hantiert werden muss wenns ned via PoE gelöst ist. Daher aktuell am liebsten die Variante mit zwei Anschlüsen pro Arbeitsplatz. Auch wenn es auf den ersten Blick etwas Luxus ist. Es gibt nix schöneres als möglichst alle Kabel von einem grossen Patchpanel. Wenn man zuviel Kohle hat, gleich auch noch nen Fiberglas mit rein und man ist für die Zukunft gerüstet. :D
  21. Weingeist

    Kanaleinbauswitch RJ-45

    Gibt noch ne Lösung: Zwei LAN Kabel pro (möglichen) Arbeitsplatz + ein paar Reserven pro Arbeitsplatzgruppe. Habe das letztes Jahr bei zwei Kunden in Ihren Büros so umgesetzt damit die ganzen Mini-Switches in den neuen Büros komplett wegfallen. Dazu jede Menge Steckdosen (CH-Steckdosen gibts da immerhin 3er aufm Platz von einer). Sprich die Kanäle sind da wirklich voll. In den zwei Umgebungen läuft alles über den bzw. die zentralen Switches. Die Kunden sind auf alle Fälle total happy und würden nix anderes mehr wollen. Wenn ich alleine an die Zeit denke welche ich schon mit der Fehlersuche, Telefonaten etc. verbracht habe aufgrund von kleinen Switches wird mir schlecht. Auch sind es ja immer mind. zwei Leute die betroffen sind (IT'ler und PC-Bediener). Meist schlägt sich der Bediener erstmal ne Weile mit Ärgernissen rum, bis er sich an die IT wendet. Also schon viele Stunden verbratet. Kost im Moment einiges mehr, aber auf lange Sicht rechnet es sich aber meiner Meinung nach. Wenn man es gleichzeitig verlegt, isses nimmer so extrem, weil ja mit mehreren Kabelrollen gearbeitet werden kann beim einziehen.
  22. Habe nen kleineres Modell von dem Teil, dürfte aber genau identisch sein. Nen eigenen Drucker für das Mehrzweckfach erstellen. Unter: Register Allgemein>Einstellungen die gewünschten Werte/Fach einstellen Register Erweiter>Standardeinstellungen die gewünschten Werte/Fach einstellen Danach als Netzwerkdrucker aufm Client verbinden. Fertig. Tipp: Darauf achten, dass Du auch die nötigen Firewallports freigibst damit erweiterte Einstellungen bei Canon Printer funktionieren (Vorlagen)
  23. Also ich würde das schon mit den Kunden absichern. Sind ja gerne auch mal sensible Daten auf Servern. Ich würde das als Kunde jedenfalls keinesfalls akzeptieren!
  24. Inplace: Naja, ich bin da ausnahmsweise mal ziemlich optimistisch. Wenn man bedenkt, was am Component-Store in den letzten Jahren alles verbessert und freigeschalten wurde ist das schon bemerkenswert. Man kann offline oder online das Image bereinigen, Features hinzufügen etc. Das ganze ist mittlerweile sogar sehr zuverlässig, hatte schon länger keine defekten Images mehr. Denke das wird vom Installer als erstes hochgezogen und damit gearbeitet. Der vom 2012 R2 ist auf alle Fälle bereits schon sehr sehr gut. Wenn mit W10 und drüber bei Updates tatsächlich nur noch mit dessen Funktionen "gespielt" wird, dann ist ein Inplace-Update gar nicht so abwegig wenn Sie die Zugriffspunkte auf die OS-Funktionen nicht komplett über den Haufen werfen bzw. einen zuverlässigen Weg gefunden haben um die Zugriffspunkte auf OS-Funktionen bestehen zu lassen und unter Umständen Wrapper oder dergleichen im Hintergrund laufen wenn daran etwas geändert wurde. Das Interesse dass es funktioniert, ist bei MS bestimmt enorm gross und es wurde mit Sicherheit sehr viel Ressourcen da reingesteckt wenn Sie Cloud-Anwendungen so sehr pushen. Da rechnet sich für MS ein funktionierendes Update- und vor allem Feature-Upgrademanagement innerhalb kürzester Zeit. Ob das tatsächlich auf bestehende, alte Maschinen zutrifft wird sich zeigen. Bei W10 auf irgendwas Upgrades bin ich aber extrem zuversichtlich. Ansonsten: Irgendetwas muss ja positiv sein, wenn man davon ausgehen kann, dass die Lizenzbedingung nochmals drastisch verschlechtert werden und die Spyware Tätigkeit nochmals auf ein vielfaches ausgebaut wird. Also kräftig den Mund wässrig machen mit sprechenden Features wie dem Startmenü, Upgrademanagment etc. Die Mitarbeiter werden sich W10 dann sehnlichst wünschen, die Admins auch. =)
  25. Von den professionellen Drucker aus dem Industriebereich kann man eigentlich jeden einsetzen. Mein Datamax hat z.B. schon weit über eine Million Etiketten gedruckt (zweiter Druckkopf). Die üblichen verdächtigen sind Zebra, Sato, Datamax. Sato dürfte aktuell das modernste am Start haben. Die Produkte können meistens auch direkt in Produktionslinien integriert werden. Die Druckkosten sind bei hohem Etikettenaufkommen deutlich geringer. Neutrale Etiketten von der Rolle kosten praktisch nix, da wird richtig Geld verdient bei den kleinen Druckern sowie den Bögenhersteller für Bürodrucker. Wenn es nicht UV-Beständig sein muss (direkte Sonneneinstrahlung über länger Zeit), kann man sehr gut Thermopapier nehmen. Die heutigen Beschichtungen sind deutlich stabiler als früher. Ansonsten mit Farbbänder auf Harzbasis (Kratzfest). Es empfiehlt sich, die Etiketten bei einer professionellen Etikettendruckerei zu beziehen. --> gleichbleibende Qualität, Beschichtungswünsche (z.B. das Harzfarbband überhaupt hält), sehr günstiger Preis usw. Windows-Treiber der Hersteller sind aber wie hier schon öfter genannt wurde, fast immer unbrauchbar. Die machen das nur, damit sie sagen können, sie habens. Normalerweise werden die eben mit einer weit flexibleren, professionellen Druckersprache gefüttert. Man sollte auch darauf achten, dass mit der Verwendung des Windows-Treibers die Funktionalität gerne deutlich eingeschränkt wird. Insebesondere für Variablen, Counter etc. Zumindest wenn man nicht jedes Etikett einzeln übermitteln will ist das problematisch und bei höherem Druckaufkommen untauglich. Sofern diese Funktionen eben gebraucht werden. Normalerweise verwendet man eine professionelle Label-Software wie z.b. CodeSoft. Die können viel (inkl. DB-Zugriff), sind aber schweineteuer und haben meistens keine sinnvolle Schnittstelle um sie z.B. aus einem ERP direkt die Funktionen der Software zu nutzen. Alternativ eben Programmierung in deren Druckersprache. Das ist dann meist direkt auf neuere Printer übertragbar, aber super aufwendig. Richtig Geld wird gespart, wenn man auf die Etikettendrucker verzichten kann und z.B. Pakete, Briefe, Paletten direkt bedruckt werden. Dazu gibt es mittlerweile auch für 2D Barcodes sehr gute Produkte. Um ein paar (sehr gute) Hersteller zu nennen: VideoJet, Domino, Matthews. Die verkaufen Thermo-Inkjet, Cotinues Inkjet, Piezo, Laser teilweise auch Etiketten (Videojet). Die bieten dann auch Schnittstellen an um Vorlagen zu laden sowie Variablen zu befüllen. Sprich Gestaltung in deren Software und befüllung mit Daten z.B. aus dem ERP. Laser, Piezo und Thermal sind für 2D Codes geeignet. Für sehr kleine 2D-Codes eignen sich nur die Thermo-Inkjet sowie der Laser. Thermal ist die günstigste Methode in der Anschaffung (Printer inkl. Software um die 10-20k), dann kommt Piezo und anschliessen die Laser. Wobei die kleinsten 10W Laser auch schon ab 10k verfügbar sind. Je nach Power die gebraucht wird. Auf Metall/Glas gehts dann ab 30 bis 60 Watt los. Thermal: Günstig in Anschaffung, Druckhöhe pro Kopf auf ca. 25mm beschränkt (kann kombiniert werden --> Neuer Patrone = kurz den Versatz justieren oder gleich berücksichtigen beim Layout), gleiche Technik wie in Desktop-Druckern. Köpfe gibts von HP und Funai (ehemals Lexmark). HP ist tendenziell etwas besser und zukunftsstabiler. Preise sind eine Frechheit, sowohl Tinte als auch Geräte, abe so ist das nunmal mit Industrieprodukten. Piezo: Höhere Druckbreiten mit einem Kopf möglich, gibts glaub bis ca. 100mm, Auflösung tendenziell etwas tiefer als bei thermal. Längere Standzeiten sind etwas problematisch (eintrocknen), Anschaffung ist teurer, Tintenverbrauch etwas höher als bei thermal (durch spülintervalle). Auf keinen Fall NoName nehmen. Laser: Teuer in der Anschaffung, spottbillig im Unterhalt. Die Vektor-Laser kommen eigentlich alle guten aus dem gleichen Haus (Deutschland) und werden als OEM eingekauft. Ansteuerung ist aber Herstellerspezifisch. Druck durch wegbrennen oder Thermoaktivierbare Farbe. Habe alle Techniken in Produktionslinien im Einsatz. Am unproblematischsten ist der Laser, gefolgt vom Thermal und Piezo. Thermal ist bei Störungen am schnellsten wieder betriebsbereit, da einfach eine neue Tinte inkl. Druckkopf eingesetzt werden kann. Generell sind die Geräte aber für 3-Schichtbetrieb konzipiert und punkto Störungen sehr resistent.
×
×
  • Neu erstellen...