GerhardG
-
Gesamte Inhalte
1.305 -
Registriert seit
-
Letzter Besuch
Beiträge erstellt von GerhardG
-
-
generell würde ich von einer mischinstallation von virtual server UND vmware abraten, der resourcen overhead wäre deutlich höher.
-
3gb sind für 15min am tag mehr als ausreichend wenn deine eltern nicht massiv musik/filme/wwi herunterladen.
-
bei virtual server kann keine usb hardware genutzt werden.
pci hardware ist zb mit xen auch in den vm´s nutzbar.
-
ein paar genauere angaben wären nicht schlecht.
-) welches programm wird verwendet?
-) wohin gehen die mail? smtp server?
-) fehlermeldungen? firewalls?
-
dafür würde ich eher backtrack verwenden, da ist deutlich mehr dabei und es geht noch schneller ;)
es spricht auch nichts dagegen ipcop in der vm laufen zu lassen, zb für tests oder interne zwecke.
-
www.smokinggun.de/?p=78
folgendes sollte man vielleicht auch lesen: www.ipcop-forum.de/unipcop.php
-
-
Dank deutscher gründlichkeit u. Bürokratie kommt man innerhalb einer Verwaltung gut u. gerne auf 10-15 Fachanwendungen pro Client die jeweils einzeln lizenziert sein will. (Die Marktführer (AKDB u. Komuna) in Bayern bieten keine Linuxapplikationen (letzte Nachfrage meinerseits Systems 2005).
in münchen wird das scheinbar mit citrix gelöst.
ich persönlich bin gegen reine monokulturen, egal ob linux/windows. benötigt der user wegen einer anwendung windows, oder spricht die kosten/nutzen rechnung gegen linux => wird es eben ein windows client.
mit zen kein mehraufwand...
die mischung von linux/windows kann extreme kostenvorteile bringen, welche mit einem system alleine nicht machbar wären. ein kleines beispiel?
zielsetzung:
eine veraltete serverumgebung mit 7 nt4/w2k/linux server soll virtualisiert werden, die ausfallsicherheit und gleichzeitig redundant ausgelegt werden. eine cluster lösgung mit w2k3 enterprise, shared storage, vmware/vs,.. ist dem kunden jedoch viel zu teuer. ebenso die clusterlösung eines drittherstellers (doubletake/legato).
lösung:
2 linux server als hostsystem für vmware, die vm´s werden über drdb/heartbeat gespiegelt. die komplette windows/linux server umgebung wird in vmware abgebildet und auf die beiden server zwecks lastverteilung auftgeteilt.
das ganze zu einem bruchteil der kosten reiner monokulturen...
Da kommst es schonmal vor, dass die Anwendungen 250.- pro Client ausmachen o. mehr...
LG Gadget
was teilweise immer noch ein geschenk ist verglichen mit einer extra angepassten sap lösung.
es ändert auch nichts daran das ab einer gewissen client zahl eine lösung wie zen billiger kommt als alles "von hand" mit gpo/ris zu verwalten. was mit snake´s 200 clients und 36 servern vermutlich gut funktionieren mag, kann mit +10.000 clients und 5x sovielen servern nicht wirklich verglichen werden.
-
Und genau da sehe ich nicht unbedinngt den Fortschritt. Vieleicht hat ja Linux in 5 Jahren ebenfalls soetwas Grundlegendes wie GPO's etc. entwickelt. Ich denke, dass es mehr Aufwand ist ein vorhandenes OS anzupassen als einfach was Neues zu installieren, was "up to date" ist. Das ginge schneller da keine Entwicklungsarbeit notwendig ist und daher kann dies mit weniger personellen Aufwand realisiert werden. Generell halte ich die Personalkosten für Admins und Co. in einer Linux Umgebung für wesentlich höher, da viele Prozesse wie z. B. Softwareverteilung, Patchmanagement, RIS sich unter OpenSource noch nicht in dem Maße automatisieren lassen bzw. dies nur mit hohen Investitionen für Zusatzsoftware zu realisieren sind.
die zusatzsoftware kommt auf etwa 25 euro pro client, ein lächerlicher betrag verglichen zu einer xp pro lizenz und den erforderlichen cal´s. gpo´s, ris und co sind nett, aber bei +10.000 clients nur noch mühsam und umständlich.
Beispiel: Ich administriere alleine eine Umgebung von 36 W2k/W2k3 Servern mit rund 200 angeschlossenen Clients. Warum kann ich das alleine? Weil alles was man automatisieren kann, auch automatisiert wurde und ich somit nur überwachen muss. Berichtet ein User, dass ein neuer PC installiert werden muss, so muss er lediglich eine Netzwerkverbindung herstellen und im richtigen Moment F12 drücken. Dank RIS installiert sich der PC von alleine. Sobald der PC fertig installiert ist, meldet mir der User ledlich, welche Sofware er benötigt. Sein PC wird dann in die entsprechenden Gruppen aufgenommen und schon wird alles dank Softwareverteilung alles automatisch installiert. Selbst Outlook wird via VBScript automatisch eingerichtet. Wie schon erwähnt will ich hier keine Grundsatzdiskussion starten, aber ich bin mir sicher, dass in einer Linuxumgebung da mehr Handarbeit notwendig ist was wiederum mehr Personal verlangt und somit die Gesamtkosten steigen lässt ...
jetzt hast du mich endgültig überzeugt das du keine ahnung von einer mischumgebung hast (sorry). ris und co sind ja keine microsoft erfindung, vergleichbare lösungen gibts schon weit über +15 jahren und nicht erst seit nt4/5. selbst ads ist nichts anderes als eine mischung diverser standard protokolle die woanders schon deutlich länger verwendet werden (grob ausgedrückt).
ich kann eine linux umgebung problemlos voll automatisiert mit boardmittel OHNE lizenzkosten mit vergleichbaren zeitaufwand aufsetzen. dazu gibt es mehr als eine pxe lösungen die nicht anders als ris funktionieren. aber auch hier muss ich genauso wie bei ris hand anlegen und diverse scripte anpassen (vergleichbar mit deinen vbs scripten und riprep images). im gegensatz zu ris kann ich aber genau abstufen welche pakete installiert werden sollen ohne ein neues image anzupassen. ich muss nichtmal f12 drücken, der pxe server weiß schon ob der client nun installiert werden soll oder nicht.
-
vmware hat einfachen 3d support (ws 5.5), aber für aktuelle spiele ist dieser nicht geeignet. mit xen könnte es durchaus funktionieren, hier kann die hardware direkt in die vm durchgereicht werden.
-
a) etwa 150-200 user intensiv, 500-700 weitere gelegentlich via wan
b) alles standard server mit scsi raid, kein online virenscanner am server
-
ev wären die 2960 ciscos eine vergleichbar günstige lösung. diese gibt es mit bis zu 48 10/100/1000 ports.
-
mit der aktuellen pxe spezifikation ist das (noch) nicht möglich. linux/bartpe/winpe kann mit etwas basteln über ris gebootet werden.
es gibt auch spezielle pxe-spy server welche die dhcp anfragen entsprechender clients "abfangen" und einfach schneller beantworten als ein normaler dhcp server.
-
hat jemand erfahrungen mit abe bei größeren datenmengen und ordner strukturen (400-800gb, etwa 500-800 root folder im entsprechenden share).
mit wenigen ordnern und 20-25gb gibt es kaum merkbare verzögerungen, wie sieht es aber in größeren umgebungen aus? sind nennenswerte cpu/disk i/o lasten am server zu erwarten?
-
Ich vertrete lediglich die Meinung, dass ich es in Zeiten leerer Staatskassen persönlich als stark unwirtschaftlich ansehe, ein Komplettsystem was es bereits gibt neu konstruieren zu wollen, nur damit man "unabhängig" ist. Es gibt mit Sicherheit passende Systemlösungen (Betriebssysteme, Office, Anwendungssoftware incl. passender Schnittstellen), die bereits vorhanden sind und daher keine Neuentwicklung von den o. g. Unterpunkten benötigen.
Um das Ziel der Unabhängikeit zu erreichen, werden jetzt sehr viele Gelder in Forschung und Entwicklung neuer Anwednungen und Betriebssysteme gesteckt, was meiner Meinung nach in diesem Maße überflüssig ist. .
ziel war es eine veraltete nt4 umgebung abzulösen und die günstigere variante wurde gewählt (wegen der leeren kassen). wie du schon gepostet hast gibts nun ne menge neuer arbeitsplätze da die ganze migration recht umfangreich ist.
Es gibt aus dem Hause MS sehr gute, sichere und stabil laufende Betriebssysteme für Clients und Server. Auch der adminstrative Aufwand wurde meiner Meinung nach stark reduziert und steht in keinem Vergleich mehr zu Windows NT Zeiten. Der "Turnschuhadmin" kann somit seine Turnschuhe an den Haken hängen und löst seine früheren Alltagsprobleme heute durch den überlegten Einsatz von GPO's und Systemrichtlinien. Und sollte es dann doch mal eine größere Hürde zu überwinden geben, hat man mit VBScript zahlreiche Möglichkeiten, die noch vor 5 Jahren undenkbar gewesen wären. Warum also ein Betriebssystem einsetzten wo man sehr wenig Erfahungswerte hat und wo GPO, RIS und DFS noch in den Kinderschuhen stecken bzw. nur mit reichlich Mehraufwand zu realisieren sind? .
ich sags mal aus meiner perspektive, das soll kein flamewar sein:
gpo´s und ris sind sehr nett, aber keine komplette lösung. ohne ein ordentliches desktop management system wird (kann) es in großen netzen weiterhin jede menge bastelei und turnschuh administration geben.
fazit: was vor 5 jahren mit einer ordentlichen desktop/software management lösung möglich war (komplettes inventory, replikation über standorte, verschieben von client installation auf andere standorte/hardware, patchmanagment für clients/server,...) kann heute mit ris/gpo´s alleine nicht abgedeckt werden.
microsoft versucht einige dieser anforderungen zu erfüllen und erweitert seine produkte verstärkt in richtung interpolarität mit unix/linux (sms/mom/vs/..).
Klar, MS ist Monopolist und Marktführer, doch haben wir nicht alle unseren Teil dazu beigetragen das dies so ist? Sorry, aber ich sehe an der heutigen Lage auch in 10 Jahren keine Änderung und denke, dass OpenSource immer eine Randerscheinung bleiben wird.
denkste, siehe südamerika/asien. ohne oss würde es wohl auch kein internet in der heutigen form geben.
aus meiner sicht wird die mischung verschiedener betriebssysteme in größeren netzen weiter massiv ansteigen. jedes system hat seine vorteile und kann diese je nach anforderungen gegenüber anderen ausspielen.
-
Sorry GerhardG, aber ich denke nicht, dass du das wirklich beurteilen kannst. Ich fühle mich ein wenig auf den Schlips getreten.
Ich wollte mit meinem Posting lediglich aufzeigen, dass eine Fehlersuche auf Linuxsystemen oftmals wesenlich umfangreicher gestaltet werden muss als auf einem vergleichbaren Windowssystem. Das sind zumindest meine Erfahrungswerte und die, die ich in vielen Firmen angetroffen habe. Aber dies nur btw ...
sorry, aber deine postings kommt deutlich anders rüber. deiner meinung nach muss man ein ganzes team von kernel hacker anstellen um ein linux problem lösen zu können.
aber vielleicht hast du ja einige beispiele, ich kenne nach fast 10 jahren gemischten linux/windows betrieb keine der von dir geschilderten "probleme". eigentlich ist gerade das eine stärke von quelloffener software...
-
Der ersten Grp helfen 2-3 Tage Schulung (die gehen auch freiwillig dorthin), der zweiten Gruppe würde selbst 2-3 Jahre Schulung nichts bringen - egal ob auf MS Office, Staroffice, Open Office oder sonstwas.
erinnert mich an die umstellung von 3270 terminals auf windows nt4 :D
-
Das ist jetzt aber nicht dein Ernst oder?? :suspect: :suspect:
Wir können von Glück reden wenn die User überhaupt noch wissen wo der Power Knopf ist. Vielleicht haben wir auch eine spezielle Sorte User, aber die hier raffen echt nicht viel....umstieg auf ein anderes Office wäre wohl der Terror.
das war überraschenderweise das kleinste problem, die kostenvergleiche haben wirklich jeden überzeugt. aber ohne schulung und ausführliche vorbereitung würde ich es nicht wagen. man kann (noch) nicht jeden betrieb umstellen, insbesondere wenn viele aufgaben mit umfangreichen access/vbs lösungen erledigt werden.
-
Aber lassen wir das mal bei Seite. Gehen wir mal in eine Firma.
Es gibt sicher viele Server-Dienste, die auch auf einen Linux einwandfrei umgesetzt werden können. Aber gerade im User-Bereich würde ich eher davon abraten, Linux und Open-Office einzusetzen.
Sehen wir's doch mal so: Der weitaus größte Teil der "normalen" User, speziell der DAU's, kennt nur Windows und MS Office. Klar, Open-Office wurde im Laufe der Zeit immer mehr an die Microsoft-Welt angepasst, z.B. von der Kompatibilität her, aber setz mal nen Otto-Normal-User vor ne Linux-Maschine, wo die Knöpfe nun mal doch nicht exakt an der gleichen Stelle sind und halt doch nicht das gleiche Look-and-Feel wie bei MS herrscht.
wer mit word klarkommt, hat mit openoffice kein problem. bei größeren umstellungen sind locker 4-8 tage schulung drin, verglichen mit den lizenzkosten fast ein pappenstiel. die enduser freuen sich unheimlich über schulungen, besonders ältere mitarbeiter haben nur minimale kentnisse mit tabellenkalkulationen.
look-and-feel sind eher egal, das kann sich auch bei windows "gröber" ändern (themes). der durchschnitts user hat nur 3-5 programme in verwendung, die bedienung des linux desktops war für den enduser keine umstellung.
wenn man 100%ige microsoft integration will, wird man mit oo oder anderen alternativen natürlich nicht weit kommen. die volle integration in sharepoint (oder domino doc) ist derzeit noch nicht möglich.
Dann kommen so komische Sachen dabei raus, wie z.B. bei einer Firma (allein beim hiesiegen Standort ca. 1000 User), die ich recht gute kenne. Manche Maschinen starten mit Linux, dann startet Citrix um letztendlich eine Windows-Umgebung zu starten. :shock: Wow, sehr effektiv. :rolleyes: Auf die Frage, warum das so umgesetzt wurde, meinte ein Admin, dass halt mal einer ne "gute" Idee hatte, letztendlich das ganze vom Aufwand her total schwachsinnig ist, man hält aber aus "politischen" Gründen daran fest..
das macht durchaus sinn da er so keine windows lizenz für den thinclient braucht. ich kenne die verwendete umgebung des betriebes nicht, aber mit pxes/thinstation ist sowas in kürzester zeit auf hunderten/tausenden clients installiert.
Zugegeben, das Lizenz-Model von Microsoft ist sehr kompliziert.
Betrachtet man aber professionelle Linux-Umgebungen, kann man auch nicht gerade von einer kostengünstigen Lösung sprechen.
ack, support kostet immer ordentlich geld. das linux = kostenlos argument zählt insbesondere bei serverumgebungen schon lange nicht mehr.
-
Sollte dies wirklich mit einer der Gründe gewesen sein, ist das mehr als traurig!!! Das wäre kein Fortschritt sondern ein ganz klarer Rückschritt in meinen Augen! Ich sehe es auch so, dass mit dem Einsatz von W2k3 ebenfalls die Größe von internen IT Abteilungen schrumpfen könnten, wenn sie nicht sogar ganz überflüssig wären?
vielleicht sollten wir bei uns mal "forschen", weil trotz "troubleshooting" administrieren sich unsere w2k3 server immer noch nicht von alleine. :p
Mit Linux passiert dass so schnell nicht, denn man muss ja mit hohem Personalanteil weiterforschen sobald Probleme auftreten ... Ebenfalls Irrsinning -> tritt bei MS eine Störung auf so heist die Abhilfe "Troubleshooting", welches in vielen Fällen meinstens sehr schnell erledigt ist. Bei Linux heist der gleiche Vorgang "Forschung" und man braucht Stäbe von Akademikern und Professoren um die Störung zu lokalieren und abzustellen.bitte nicht mitreden wenn man eindeutlig keine ahnung hat.
Mit meiner Aussage "Rad neu erfinden" meinte ich, warum muss nun ein komplettes Verwaltungssystem neu konstruiert werden? Für die Abläufe wie sie in der Stadtverwaltung München und Bundestag laufen, gibt es mit Sicherheit schon vorhandene Softwarelösungen wie z. B. SAP. Warum also "neuerfinden" und einen Haufen von Entwicklungs- und Forschungsgeldern investieren?
weil das anpassen von sap unmengen von geld und resourcen verschlingt? weil dann das ziel (weniger abhängigkeit) noch weiter in die ferne rückt? ;)
-
ob etwas teuer oder günstig ist, entscheidet die kosten/nutzen rechnung ;) zenworks mag zwar ~30-40% teurer als andere lösungen sein, diese decken aber nie den selben umfang ab.
-
wäre es möglich beim thema zu bleiben. beide systeme haben ihre ganz besonderen vorteile die jeder gute administrator kennen oder kennenlernen sollte.
-
weil die sid/name nicht mehrfach vorhanden sein darf. damit diese neu erzeugt wird, einfach sysprep laufen lassen. nach sysprep läuft noch mal ein "mini-setup" ab, hier kann auch die aufnahme in die domain automatisch erledigt werden.
-
http://otrs.org/ oder lotus domino mit ticket workflow
Software für NetzlaufLW über INET verbinden ohne SMB-Port Forward
in Windows Forum — LAN & WAN
Geschrieben
wie wäre es mit vpn?