Jump to content

DAUjones

Members
  • Gesamte Inhalte

    430
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von DAUjones

  1. Wenn man die Kommandos bis ins Detail kennt, ja. Das tun aber nur Experten, die taeglich damit arbeiten. Mit ein Grund fuer die Entwicklung von GUIs. Klar. Ging auch nicht um Linux an sich, sondern um sinnvolle Ordnung. Ich haette vielleicht gar keine Gegenbeispiel nennen sollen. Schiesst sich nur wieder jeder drauf ein. Hat nichts mit Dramatik zu tun. Ich habe nur erlaeutert, warum sich der Threadstarter aufgeregt hat. Das sind einfach kleine Details in der Oberflaeche, die einfach nerven, wenn man damit konfrontiert wird und wo man sich dann fragt, warum die das nicht gleich vernuenftig gemacht haben? Es waere ja nicht schwierig oder aufwendig. Man muesste nur dran denken. Genau das habe ich ziemlich oft mit Windows und das durch alle Versionen, die mir untergekommen sind. Ich schliesse daraus eine gewisse Nachlaessigkeit im Design der GUIs. Solch ein "einmaliger" Task gehoert trotzdem adressiert...vor allem weil er sehr wichtig ist. Schliesslich kriegt man auch das Eventlog voll wenn's nicht passt. Wieso nicht gleich direkt nach dem Setup per Wizard konfiguriert und gut? Der User wuerde vielleicht bemerken, dass es sowas ueberhaupt gibt und dass es wichtig ist. Gleichzeitig waere es gleich ueberprueft und erledigt. Genau nach dem Ding sucht man als erstes und zweifelt an seinen Sinnen. Holst Du Dir einen hochbezahlten Spezialisten ins Haus um Deine Uhr zu stellen? Kann man mit Windows Menschen toeten, wenn man nicht aufpasst? :D Ich finde, in manchen Dingen ist die Entwicklung viel langsamer als sie sein koennte, wie gerade im Bereich Userinteraktion und -komfort bzw. Intuitivitaet.
  2. Zum Problem ist wohl genug gesagt und es ist Wochenende, also fuehr ich mal das Off Topic weiter. :) Das erwartet da auch keiner. Der Punkt war, dass man dort findet, wo man nach "gesundem Menschenverstand" sucht. Erfahrungsgemaess wird man per Google schneller fuendig als ueber MS-Webseiten, lustigerweise sogar wenn man nach MS-Sachen sucht. Die Aufgabe eines User-Interfaces ist es aber nicht den User zum Lernen zu zwingen. Es soll ihm ermoeglichen eine Aufgabe zu erfuellen. Wenn das nur ueber den Umweg eines ellenlangen Artikels geht, ist das...suboptimal. Btw, der User weiss doch schon, dass er Zeitsynchronisation benoetigt. Gib ihm ein Interface an den ueblichen Administrationsstellen und er wird zufrieden sein. Es wuerde ihn wahrscheinlich sogar davon abhalten irgendwas zufaellig zu verkonfigurieren, vorausgesetzt es ist vernuenftig vorkonfiguriert. Stell Dir vor, Du wuerdest ein Auto kaufen und Du muesstest erstmal durch eine aehnliche Prozedur gehen, bis das vom Hof fahren kannst. Ich will aber gleich vom Hof fahren, ohne erst einen Mechaniker konsultieren zu muessen. Ist das technisch ein Problem, oder wie? 1. Ich reg mich nicht auf. ICH NICHT!!!!! ;) 2. Wenn wir alles unwidersprochen hinnehmen, wird sich nie was aendern. 3. Du muesstest nicht zwingend die Branche wechseln, sondern lediglich die Softwareplattform. Sollte ein Verzicht auf MS einen Verzicht auf die Branche bedeuten, haben die eindeutig noch zu viel Macht.
  3. Wie? CPU? Platten? Letzteres ist das groessere Problem. CPU-Power kann man sich quasi beliebig dazu kaufen. Dann ist halt der Storage der Single Point of Failure, wenn auch ein relativ ausfallsicherer. Das liegt an den SQL-Servern. Wenn man wirklich volle Perfomance (Platten im Speziellen) braucht, kann man die Hardware nicht teilen und das passt mit Virtualisierung nicht zusammen. Virtualisierung ist super, wenn man viel wenig ausgelastete Hardware im Betrieb hat. Man kann leider nichts wirklich genaues sagen, da einfach zuwenig Informationen ueber Euer System vorliegen. Da muesste man wirklich genau hineinhorchen. Dass die Treiber nicht mehr 100%ig passen. Es gibt aber Methoden fuer sogenanntens 'bare metal restore', sprich auf beliebige Hardware. Bei Euren Verhaeltnissen, mit bis zu 4 h Ausfallzeit brauchste auf jeden Fall Spare-Hardware, also mindestens einen Server, der im Bedarfsfall auch die Rolle des anspruchsvollsten Servers uebernehmen kann, und dann ein erprobtes Konzept den mit einem Backup in der geforderten Zeit in Betrieb zu bringen. Das wird auch die billigste Variante sein.
  4. Ich habe gerade Sunny Menschen erklärt. Weisst schon, diese komischen Kreaturen, die immer Deine IT durcheinander bringen. ;)
  5. Was ist denn das eigentliche Ziel der Operation? Hochverfügbarkeit? Serverkonsolidierung? Oder einfach nur allgemeine Modernisierung? Wie sehr hochverfügbar soll es denn sein, sprich wie lange darf denn das System mal down sein? Muss alles komplett hochverfügbar sein? Was für Server sind denn jetzt im Einsatz? Reichen die aus oder werden die schon als langsam empfunden?
  6. Warum muss ich überhaupt erst googlen? Wozu braucht man da überhaupt erst einen Artikel für? Warum ist nicht eine Konsole dafür an der Stelle, an der sie ein normaler Mensch erwarten würde? Mal ein Beispiel: Wer auch nur ein wenig Ahnung von Linux hat, würde auf den entsprechenden Server gehen und im Verzeichnis /etc nach irgendwas mit "ntp" suchen...und er würde fündig werden. Wer etwas Ahnung hat von Windows, würde unter "Administrative Tools", der Systemsteuerung oder gar nach einem MMC-SnapIn suchen...und nicht fündig werden. Natürlich, wer schon alles weiss, weil er's schon tausendmal gemacht hat, muss gar nicht nachschauen und wundert sich auch nicht mehr...ausser über "normale" Menschen die frustriert auf MS schimpfen, weil die oft keiner "normalen" Logik folgen.
  7. Ich reg mich nur dauernd darüber auf, dass MS es nicht wirklich einfach und intuitiv gelöst hat. Als Unbedarfter würde man nämlich eine grafische Möglichkeit zur Konfiguration erwarten, bei der man den/die NTP-Server einstellt und gut. Btw, auf dem DC in der Konsole: net time /setsntp:ptbtime1.ptb.de net stop w32time && net start w32time (oder w32tm...bin mir jetzt nicht mehr ganz sicher) Das sollte es gewesen sein. Wenn das nicht langt, musste genauer googlen, weil dann mehr nicht stimmt, wie die Kollegen über mir schon gesagt haben.
  8. Du hast "hohe Verfügbarkeit" gesagt. Ich hoffe Ihr habt noch Geld auf dem Konto, denn davon werdet ihr einiges brauchen. Ich schätze jetzt mal grob 20.000,- für die Hardware 15.000,- für VMware (Virtual Center Enterprise) Ohne Gewähr. Bei VMware mal die Sonderangebote und Bundles (Acceleration Kits) durchsehen. Sinn macht es, wenn die HA und VMotion gebraucht bzw. genutzt werden. Wenn das Ganze in einem kleinen Bladecenter realisierst, spart Ihr Euch auch Stromkosten und Platz im Serverraum.
  9. DAUjones

    Daten sicher löschen

    Linux (z.b. Knoppix) hätte da das Kommando dd dd - LinuxWiki.org - Linux Wiki und Freie Software reintechnisch.de - FestplattenLoeschen
  10. DAUjones

    RDP Version

    Alles vor XP SP3 und Vista hat die Version 5 von RDP. Ich denke da gehört auch WinCE 3.31 mit zu. Und selbst da wird man höchstwahrscheinlich einen aktuelleren RDP-Client installieren können. Aber probiers doch einfach aus! Downloaddetails: Remotedesktopverbindung (Terminaldiensteclient 6.1) für Windows XP (KB952155)
  11. Ja, den Begriff hält man gerne vor. Meine Frage war eher nach tatsächlichem Gewinn an Performance oder sonstwas. Ich glaub da irgendwie nicht so dran. Ich bezog mich auf die Standalone-Version. Es sind offenbar die Komponenten geladen, die für die Erzeugung und Darstellung von Fenstern notwendig sind, sprich eine GUI ist vorhanden. Nur ist die halt nicht als solche zu gebrauchen. Das wirkt auch mich sehr improvisiert. Naja, wenn ich eine offiziell veröffentlichte Software des grössten Softwareherstellers der Welt installiere, erwarte ich eigentlich nicht erst auf irgendwelchen versteckten Blogs eine Antwort auf ein Problem zu finden, dass zwangsläufig auftritt, bevor man das Ding verwenden kann. Sowas sollte eigentlich schon im Vorlauf abgestellt sein. Ich würde mich jedenfalls nicht trauen solch Schludereien anzubieten. Man kann hier nur positiv erwähnen, dass die Software kostenlos ist. Eine Einstellung, die ich bei einem Produzenten nicht tolerieren will. Im Gegensatz zu MS passiert es da aber nicht, dass man durch nicht-updaten das System in Probleme bringt...eher andersrum. :)
  12. Sicher denk- und auch machbar. Ich weiss jetzt aber nicht genau, was MS empfiehlt und supported. Interessant ist vielleicht die Enterprise Edition, da man hier noch 4 Instanzen in Hyper-V mitlizensiert hat. Allerdings benötigt man dann auch Enterprise-CALs. Starker Nachteil des ganzen Systems ist aber, dass das Host-OS genauso oft gepatcht werden muss/soll wie ein gewöhnlicher Server 2008. Erfordert das einen Reboot, sind alle Maschinen mal kurz weg.
  13. Naja, irgendwo muss man einfach mal einen Vertrauensvorschuss gewähren. Geht halt nicht anders. Bezüglich Forest: Domänen sind quasi die Bäume und "forest" der Wald. Exchange kanns nur einmal pro Wald geben, wenn auch auf mehrere Server verteilt.
  14. Ich kann Dir die Frage leider nicht beantworten, aber ich kann Dir raten völlig auf dieses Konstrukt zu verzichten und stattdessen lieber gleich ausschließliche Exchange 2007 über OWA anzubieten. Outlook ist ein Rich Client, sprich es funktioniert auch ohne Verbindung zum Server und synchronisiert dann bei Gelegenheit. Genau diesen Vorteil gäbe es bei Deiner Variante gar nicht erst. Für normale Nutzung von Outlook tut's OWA mittlerweile dicke.
  15. Auch die "built in" shutdown.exe geht über Netzwerk oder kann über den Taskplaner verwendet werden.
  16. Warum? Gibt es mess- oder spürbare Vorteile? Der Witz ist ja, dass die grafische Oberfläche trotzdem vorhanden ist, nur eben so verkrüppelt, dass man halt sonst nichts damit anfangen kann. Wahrscheinlich rein aus lizenztechnischen Gründen. Dann muss man erstmal über die CMD die Firewall deaktivieren und 2 Patches installieren, die man erstmal auf eine andere Maschine downloaden dann wieder per CMD auf dem Hyper-V ausführen muss. Um das überhaupt erst herauszufinden muss man aber erstmal googlen...kurz ein grossartiges Produkt... Ich finds auch grausam. Solange sich da nichts ändert kann ich jedem nur zu VMware ESXi raten.
  17. DAUjones

    RDP Version

    Seit SP3 für XP ist da wie bei Vista die Version 6 des Remote-Desktop-Clients aktuell. Man sollte sich dennoch mit der "alten" 5er darauf verbinden können. Und wenn nicht, gibts die neue bei MS zum Download.
  18. Der Trick am Active Directory ist ja gerade, dass es quasi "netzwerkweit" gilt. Ja. Es muss aber 64-Bit sein. 4 Gig RAM oder mehr sind empfohlen.
  19. Naja, Du willst ja nicht die Aufgabe "TS-Gateway" erfüllen, sondern die Aufgabe "Remote-Benutzern gesicherten Zugang gewähren" erfüllen. Das könnte auch der ISA z.b. mittels VPN. Was genau willste also bezwecken? Ist überhaupt ein Terminalserver geplant? Lass mal was raus! TS-Gateway auf dem TS...lässt sich wahrscheinlich realisieren, ist aber nicht so ganz wie es gedacht ist, schließlich sollte man ja irgendwo vor der Tür klären ob jemand rein darf oder nicht, mal bildlich gesprochen. Bezüglich der Lizensierung ist es völlig egal "wo man die CALs reinpackt". Diese sind nicht an einen Ort oder Server gebunden sondern quasi netzwerkweit gültig. Hast Du z.B. 20 Remoteuser, die über das TSG zugreifen wollen, brauchst Du für jeden eine Windows Server 2008 User-CAL, weil die ja auf die Server 2008 Funktion zugreifen. Das wird technisch meines Wissens nicht überprüft oder geregelt, also es gibt keine Grenze, die dann verhindert, dass wer über das TSG zugreift, aber im Falle eines Lizenz-Audits musste halt dann dafür grade stehen.
  20. Kann der ISA-Server nicht schon die Aufgabe erfüllen? Technische dürfte das kein Problem sein irgendwie Virtual-PC oder was in der Art installieren und da dann 2k8 mit der Rolle TSG aufsetzen. Server 2008 will halt mindestens 1024 MB RAM. Lizenzen brauchst halt die 2008er CALs in Anzahl der Personen, die davon profitieren.
  21. Wäre ein seltsames Konstrukt. Das TSG kannst normalerweise irgendwo ins LAN stellen und einfach von der Firewall den Port 443 drauf forwarden und gut.
  22. DAUjones

    Green IT

    Ich würde nicht alle durchmessen sondern nur einige exemplarisch und dann einen Näherungswert verwenden. So genau geht das so oder so nicht, da die Rechner ja je nach Auslastung unterschiedlich Saft ziehen. Dann würde ich vorschlagen Geräte älter als 3 Jahre mit neuen, energiesparenden zu ersetzen. Dickste Baustelle dürfte die Serverlandschaft werden. Analyse über die Auslastung und den Stromverbrauch (Kühlung nicht vergessen!) erstellen und dann kucken, wie sehr man das mittels Virtualisierung konsolidieren könnte. Dann ein Bladecenter der enstprechenden Größenordnung raussuchen und den Stromverbrauch davon mit dem bisherigen vergleichen. Damit kann man dann die Ammortisationszeit abschätzen. Bei grösseren Strukturen kann das massiv Energiekosten sparen. Habt Ihr nur eine Handvoll Server, lohnt das eher nicht.
  23. gParted Gibts als eigene Live-CD, ist aber auch Teil von Knoppix oder der normalen Installations-CD von Ubuntu, welche ja auch live gestartet wird. Vorher auf jedenfall Datenmüll entsorgen und defragmentieren, wie schon gesagt.
  24. Auf dem DC Konsole öffnen und net time /setsntp:ptbtime1.ptb.de net stop w32tm && net start w32tm ausführen. Reicht für gewöhnlich. Google findet unter "authorativen Zeitserver einrichten" auch einiges.
  25. Tut's nicht vielleicht der Remote Webarbeitsplatz? Remote-Webarbeitsplatz | Seite 1
×
×
  • Neu erstellen...