Jump to content

pseudonym

Members
  • Gesamte Inhalte

    11
  • Registriert seit

  • Letzter Besuch

Profile Fields

  • Member Title
    Newbie

Fortschritt von pseudonym

Apprentice

Apprentice (3/14)

  • Erste Antwort
  • Engagiert
  • Erster eigener Beitrag
  • Eine Woche dabei
  • Einen Monat dabei

Neueste Abzeichen

10

Reputation in der Community

  1. Ich habe ein ähnliches Problem, die Ursachen sind vielfältig. Der eigentliche Grund scheint zu sein, dass Outlook 2007 Autodiscover nutzt für die Gebucht/Frei-Zeiten und da Autodiscover mittels IIS realisiert wird, kann es zu Problemen kommen, wenn: * Zertifikate nicht stimmen, bzw. nicht vertraut werden (Rechner im Netzwerk, die noch nicht das Root-Zertifikat des SBS installiert haben und dann dessen Self-Signed-Zertifikate nicht vertrauen) * generelle DNS-Auflösungsprobleme Ganz gut beschrieben ist das in: * Outlook 2007 Login Prompt on Exchange 2007 Anderes Problem scheint auch noch Outlook selber zu sein: * Outlook 2007 prompts you repeatedly for a password under certain network conditions Die Autodiscover-Sache kann man gut testen, indem man im IE http://remote.contoso.com/autodiscover/Autodiscover.xml ansurft; bei richtiger Konfiguration sollte das ohne Loginprompt erscheinen. Man kann sich behelfen, in dem man auf dem Client dann bei den Internetoptionen sowohl remote.contoso.com als auch sbs_name.contoso.local zu den vertrauenswürdigen Seiten hinzufügt. Ich hatte das Problem, hab dann Update-Rollup 9 installiert und dann war es weg und heute ist es wieder bei einem Benutzer aufgetaucht. Den werd' ich jetzt mal noch auf Office 2007 SP2 bringen, bzw. die Internetoptionseinstellung verändern. C'ya, Pseudonym.
  2. Hi, ich habe das mit Sharepoint einfach umgesetzt. Da gibt es einfache Aufgabenlisten automatisch und man muss nur noch die Empfänger der Benachrichtigungen einstellen; es bietet alles, was man für ein halbwegs echtes Ticketing benötigt: * Zuordnung zu Bearbeiter * Fortschritt * grundsätzliche Formatierungen und die Möglichkeit Anhänge (-> Screenshots) hochzuladen Aber dafür braucht man natürlich auch einen Browser. C'ya, Christian
  3. Ja aber hast du das auch aus den gleichen Netzen probiert? Wenn du intern mit dem (Windows-)Firefox testest, ist es natürlich etwas völlig anderes als, wenn du extern den OWA (z.B. mit einem Mac) testest. Da können sehr sehr viele Fehler dazwischen liegen.... Bevor wir uns an die Fehlersuche machen - du hast also beispielsweise schon einmal bei deinem Kunden (also aus einem Netzwerk) mit einem deiner (Windows-)Rechner getestet, ob der Zugriff auf OWA möglich ist? Wenn das klappt, dann sollte erst die Suche auf dem Mac-Client losgehen. Was für ein Zertifikat verwendest du? Ein "echtes" oder ein selbst-signiertes? Eigentlich ist Firefox auf allen Plattformen gleich; also nutzt z.B. auch seinen eigenen Zertifikatsspeicher, wenn mich nicht alles täuscht (im Gegensatz zu MSIE bzw. Safari, die den Systemzertifikatsspeicher benutzen). C'ya, Christian
  4. Hi, du musst mal genauer sagen, was du eigentlich willst. Willst du OWA vom Mac aus, oder aber einen "direkten" Zugriff auf das Exchangepostfach. Firefox auf dem Mac ist genauso wie unter Windows. Will heißen, wenn du aus dem gleichen Netzwerk mit dem Firefox unter Windows auf OWA zugreifen möchtest, dann klappt das auch im gleichen Netzwerk mit einem Mac der Firefox einsetzt. Wenn du einen "direkten" Zugriff auf Exchange vom Mac aus willst, dann hast du zwei Optionen: * Entourage 2008 mit Exchange 2003 * Snow Leopard Mail mit Exchange 2007 (* Zugriff auf Exchange 2003 mittels Evolution für OS X) Wenn du ohne VPN arbeitest, musst du zumindestens für die Entourage-Variante RPC-over-HTTP konfigurieren und Zertifikate notfalls importieren; ich weiß nicht, wie das mit dem aktuellen Mail von Snow Leopard aussieht. Also, nochmal genauer sagen was du, bzw. der Kunde eigentlich will und wir können dir auch genauer weiterhelfen... C'ya, Christian
  5. Tja öhm das ist komisch. Der Mac ist aber auch im gleichen Netzwerkkontext wie die Windowsrechner über die OWA geht, oder? Auf dem Mac läuft auch kein Proxy oder so? Schon einmal einen anderen Mac probiert? Ansonsten mal das Logging des IIS einstellen, hat mir damals, als ich RPC-over-HTTP zum Laufen bringen wollte auch sehr geholfen... C'ya, Christian
  6. Wie "es funktioniert nicht"? Glaskugel find' ich gerade nicht. Eigentlich musst du nix einstellen; OWA 2003 geht bei mir auf'm Mac problemlos mit Firefox (auch wenn es natürlich reichlich hässlich aussieht im Vergleich zur IE-Variante). C'ya, Christian
  7. Ein Standard ist ein Standard ist ein Standard. Festplatten werden über eine bestimmte Schnittstelle angesprochen. Z.B. SATA oder SAS. Entweder ich habe eine SATA-Platte oder ich habe keine. Es gibt keinen Hersteller, der "besonders" gut kompatible SATA-Festplatten liefern kann. Hinzu kommt, dass alle großen Serveranbieter keine eigenen Festplattenfertigung besitzen, sich also auch nur woanders bedienen. Die "besten" schnellsten Festplatten sind nicht irgendwelche "HP"-Modelle, sondern eben ganz normale High-Endplatten von Festplattenherstellern (auf die dann HP gern einen Aufkleber raufmacht). Wenn HP bessere Festplattenfirmwares herstellen kann als z.B. Western Digital, dann frage ich mich, warum HP nicht selber Festplatten herstellt. Ich streite ja gar nicht ab, dass HP Festplatten in ihren Systemen vorher testet und das ist ja auch schön und gut so; nur ist IMHO der Aufpreis (dreifache Kosten gegenüber identischen Modell auf dem freien Markt) dafür nicht gerechtfertigt und Hand aufs Herz, ich glaube dass da einfach mehr Geld mit verdient werden soll. Spezielle "Abstimmungen" von Festplatten seitens HP auf eigene spezielle Hardwareraid-Controller sind ja was feines; nur wird da Performancemäßig nichts großes passieren (< 10%). Ich kann die großen Hersteller ja verstehen: Früher war ihr Markt ja wesentlich spezieller und es gab zu wenig Auswahl, so dass man höhere Preise nehmen konnte. Mit der rasanten Performancentwicklung haben sich aber die Verhältnisse umgekehrt. Heutige (Consumer-)Festplatten sind nicht allzu weit entfernt von Serverplatten und das drückt natürlich die Preise, die Margen und gibt Kunden Freiheit, die man ihnen nicht geben möchte... Die Zeiten als es noch hieß IDE für den Desktop und SCSI für den Server sind lange vorbei. Viele Entryserver kommen ja jetzt auch mit SATA auf den Markt und dieser Prozess setzt sich fort; wo früher teure spezialisierte Speichersubsysteme überhaupt nennenswerte große Kapazitäten verfügbar machen konnten, kann man heute auch schon intern locker lustig mehrere Terabytes verbauen... C'ya, Christian
  8. Ha... endlich mal ein paar Bastellösungen und nicht immer nur der Hinweis aufs SSD-Raid 50. :D Jeder große Hersteller (Dell, HP, IBM) hat bei Hot-Swap-fähigen Gehäusen seine eigenen Einschübe, die er auch nicht einfach so verkauft. Natürlich kann man da irgendwo Einschübe besorgen, aber die nächste Hürde sind dann evtl. die Raidcontroller, die sich bei "fremden" Platten weigern, von diesen zu booten... Schließlich und das ist das Hauptgegenargument wie es zahni angesprochen hat, kann der teure Servicevertrag zur Makulatur werden, wenn Fremdplatten in den Systemen stecken... wobei mir der Dellmitarbeiten heute am Telefon gesagt hat, dass ich das durchaus machen könnte, wenn ich Einschübe besorgen würde... Naja, bei *** gibt es eine Anleitung, wie man die I/O-Leistung für sein System berechnen kann: How to Calculate Storage I/O Requirements Using Environmental Data . Ich hab das jetzt mal für einen Produktivserver durchgeführt und werde das die Tage dann mal auswerten. C'ya, Christian
  9. Nix für ungut, aber nicht nur der Q-Nap NAS Appliance ist es völlig egal, welche Platten da im Raid zusammenarbeiten, sondern es dürfte auch den meisten "freien" RAID-Controllern egal sein. Die Zeiten, wo ein Hersteller intensive Kompatibilitätstests für seine Festplatten machen muss, sind doch schon lange vorbei. In den Systemen, die mich interessieren - Tower Server - sind nur Standardkomponenten verbaut: Festplatten, Speicher, CPU. Etwaige Eigenfirmwares auf Festplatten haben doch keinen technischen Hintergrund, sondern sind nur Politik, damit man beim Originalhersteller kauft, wie mir eben ziemlich frei auch ein Dellmitarbeiter selber bestätigt hat. Und ja, eine identische Velociraptor Platte bekomme ich auch noch im freien Handeln in einem halben Jahr und wenn es die nicht mehr gibt, dann nehme ich eben etwas besseres und verschenke eben 10% Performance bis ich die andere Platte auch austausche. Die Zeiten, in denen RAID noch eine Wissenschaft war, sind doch lange vorbei. Die meisten Einstiegs-"Hardware"-RAID-Controller sind auch nicht schneller als Softwarelösungen bzw. eigentlich nur noch zusätzliche Schnittstellenkarten. Wenn bei mir im 08/15-Software-Raid ne (SATA-)Platte ausfällt, dann kauf' ich eben für wenig Geld was billiges zur Überbrückung, falls es kritisch ist. Garantie hab ich auf Raid-Edition-Platten genauso wie mich ein Servicevertrag absichern würde, zur Überbrückung kann ich 08/15-Hardware verwenden und schneller als 4h reagieren kann ich eh. C'ya, Christian
  10. Die Entscheidung für oder gegen ein NAS ist noch nicht endgültig gefallen, aber Fakt ist doch, dass mir ein wie auch immer gearteter Servicevertrag beim Ausfall von Festplatten nicht viel bringt. Das Argument, dass man früher so etwas brauchte, damit man am nächsten Tag Ersatz hat, ist ja schön und gut, aber hier in der Großstadt, kann ich alleine mal schnell zum Händler fahren und mir Platten kaufen. 4h Reaktion? Dass schaff ich ja locker zu unterbieten (wohlgemerkt im Falle von Festplatten). Und ja auch 300 GB SATA Velociraptors hat hier mein Händler auf Lager. Ich sehe halt nicht ein, dass ich für eine lächerliche SATA 7.2K 1 TB-Platte bei z.B. Dell 400 EUR bezahlen soll und dann nochmal extra dafür, dass ich sie bei einem Ausfall behalten darf... Alleine für diesen Aufpreis, könnte ich mir bei einem NAS einfach eine neue Platte kaufen und die defekte dann mit 'm Hammer bearbeiten... Ein NAS bringt mir Freiheit, eben genau die Platten einzubauen, die ich will und vor allem dafür auch nur den tatsächlichen Preis zu bezahlen. Ich bin kein Freund davon, Performance auf Vorrat zu kaufen. Denn wenn ich denn wirklich mal Performance brauche, dann bekomme ich später für das gleiche Geld schlichtweg viel mehr Leistung. In all den Jahren ist mir bewusst geworden, dass es in der Computerbranche naiv ist, Systeme zu kaufen, die auch für die Zukunft immer gewappnet sind. Natürlich kann man ein System aufbauen, dass von 1 - 100 Benutzern problemlos skaliert; aber warum denn? Die Realität ist, dass das keiner bezahlen möchte. Hinzu kommt, wir reden hier ja auch nicht von Hochverfügbarkeit oder gar kritischen Geschäftsanwendungen die auf dem Server laufen müssen, sondern von ganz normalem Messaging. Ich will nicht das schnellste System der Erde kaufen, sondern das für meine Situation angemessenste. Hinzu kommt, dass ich auch noch ordentlich Platz brauche (500GB+), so dass es also auch nicht mit ein paar "kleinen" SAS-Platten getan ist. Zieht man das in Betracht, dann kommt man schnell zu Summen, die man für ordentlich Storage im Server bezahlen muss, bei denen locker nicht nur eine NAS abfällt, sondern auch noch zusätzliche Platten. Um zum Thema zurück zu kommen, hat sich denn mal jemand die Mühe gemacht und seine Systeme passend gebenchmarkt? Meine Erfahrungen in einem anderen KMU sind eigentlich ziemlich positiv: 08/15-Selbstbau-Server mit Windows-Software-RAID und ca. 12 GB an Exchangepostfächern für 10 Mitarbeiter, die mit Outlook direkt auf dem Server arbeiten geht ziemlich problemlos. C'ya, Christian
  11. Hi, also bei den gesalzenen Festplattenpreisen bei HP, Dell & Co. für fertige Server, komme ich langsam in Versuchung eine semi-professionelle NAS Appliance anzuschaffen und die dann per iSCSI an einen SBS2K8 anzubinden und dort Exchange brav seine Daten drauf ablegen zu lassen. Bandbreitentechnisch denke ich, dass das absolut kein Problem ist, da selbst mein total ungetuntes Selbstbau-NAS mit Software-Misch-Raid 1 locker 50-70 MB/s schafft. Es geht um eine Exchangeinstallation für 10-20 Benutzer. Ich denke ausschlaggebende sind die IOPs, die über iSCSI zu erreichen sind. Unter DeinosCloud gibt es ein paar interessante Beiträge, wo der Typ zeigt, dass er mit der passenden Hardware auch ordentliche IOPs hinbekommt (700+ mittels Velociraptors im Raid 0). Mich würde interessieren, ob das überhaupt schon einmal jemand hier probiert hat; denn was ich so bis jetzt über die Suche finden konnte, war dürftig und bezog wenn überhaupt gleich immer auf SAN-Lösungen in Kleinwagengröße. Unter http://www.mcseboard.de/ms-exchange-forum-80/exchange-2k3-tuning-ide-raus-scsi-rein-alten-98720.html steht, dass man wohl pro Benutzer 0,5 IOPs brauchen würde... aber das sollte ja drin sein (zur Not müssen dann doch die Velociraptors rein :D ) C'ya, Christian
×
×
  • Neu erstellen...