Jump to content

guybrush

Premium Member
  • Gesamte Inhalte

    1.202
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von guybrush

  1. Hallo Kollegen, ich plage mich schon seit einer Weile mit unserem Downloadsserver. Schaut folgendermaßen aus: - Erreichbar via downloads.mycompany.at - Die internen Mitarbeiter (Marketing, ...) laden dort ihre Sachen hoch, wie z.B.: Produktdatenblätter, aktuelle Kataloge, usw... - Kunden bekommen dann den Link und der Download läuft... Jedoch wird der Server auch gern als Filesharingplattform missbaucht (nichts illegales, aber Dateiaustausch mit Kunden >100e MB). Jetzt liegt da natürlich viel Datenmüll herum, kein Mensch kennt sich aus, viele GB meines Rootservers sind zugemüllt. Ich suche jetzt ein kleines Script o.ä., mit dem ich diese Downloads zumindest ein klein wenig administrieren kann. Ich stelle es mir so vor: Ich lade eine Datei hoch bzw. via FTP, bekomme dann einen Link wie z.B.: downloads.mycompany.at/download.php?id=0123456 Dann wird der Download angestoßen, im Hintergrund der Downloadcounter inkrementiert um eins. Am wichtigsten wäre für mich jedoch die Möglichkeit, Dateien nach x-maligem download ablaufen zu lassen. Ich habe mich gestern durch Hotsripts usw... gewühlt, aber irgendwie nichts gefunden, was in diese Kategorie fällt. Abgesehen von Olate und Project Send, welches ich mir beides noch anschauen muss. Vielleicht hat ja jemand von euch einen Tip für mich? Kann auch gern eine Kleinigkeit kosten... Besten Dank schonmal Johannes
  2. guybrush

    NAS für Heimgebrauch

    :D Das "Schweinderl"' war das allererste Gerät, dass mir in meiner jetzigen Firma in die Hand gedrückt wurde - und welches ich nach knappen 15 Minuten in die Tonne geworfen habe. Aber Back2Topic: Ich habe mittlerweile schon das dritte QNap TS-219 II verbaut (bei Kollegen/mir selbst/Knden). Läuft einwandfrei, sehr schnell, und die Software spielt wirklich alle Stücke. Der Support ist auch recht kompetent, vorausgesetzt man weiß, dass man in Holland anrufen muss, und natürlich miiindestens 20 Minuten vor Feierabend. Die Deutsche Nummer geht ins Leere... LG Johannes
  3. Danke für die Info Steffen, das war mir nicht klar bzw. hatte ich (ohne es zu hinterfragen) was anderes angenommen.... Da muss ich dann noch mit meinem Provider reden, was die mir für Equipment hinstellen. D.h. ich könnte/müsste das IPSec dann eventuell wieder über meine Firewall managen? Also ans Interface X den Router hängen, am anderen Ende auch und dann quasi wie ein S2S behandeln?
  4. Ein Traum - somit kenn ich mich wieder aus und brauch mich nicht lang einlesen :) Danke für die Info(s)!
  5. Gut zu hören! Ich hab mir echt schon das Horrorszenario IP-Range Änderung durch den Kopf gehen lassen :D Wäre wohl ein Mammutprojekt geworden. D.h. wenn es reguläres Routing zwischen den Standorten gibt, ist es auch kein Problem, WAN-Streckenoptimierung mit z.B.: dem Branchrepeater oder ähnlichen Produkten zu implementieren?
  6. Hallo Kollegen, wir haben einen Remotestandort, der recht abseits gelegen ist. Auf meiner Suche nach einer ordentlichen Leitung habe ich nun als "optimale Lösung" eine MPLS-Leitung angeboten bekommen. Jetzt habe ich aber mit MPLS noch so gar keine Erfahrung, bis dato habe ich immer mit S2S-VPN gearbeitet (und noch keinen wirklichen Nachteil darin gesehen). Ich habe gehört, dass durch MPLS an beiden Standorten die gleiche IP-Range verwendet wird, es so also kein Routing mehr geben soll im klassischen Sinne? Wenn dem so wäre, hätte ich mit meinem eh schon beengten Klasse-C Netz eh schon ein Problem. Oder ist das alles nur ****sinn? Falls ja, wie würde ich dann den Remotestandort via MPLS anbinden und die Infrastruktur (die Remotedomäne wird "assimiliert") managen? LG Johannes
  7. WOW! Ganz ehrlich Torsten, wenn das bei mir läuft, bin ich mehr als nur zufrieden! Vielen Dank für diesen Link, er ist really cool! :)
  8. Hallo Kollegen, ich bereite mich gerade auf die Installation des neuen SCCM vor. Der 2007er verrichtet seinen Dienst noch recht brav, soll aber aus diversen Gründen bald abgelöst werden. Jetzt habe ich schon in Erfahrung bringen können, dass man nicht updaten, sondern nur migrieren kann, was ich in dem Sinne ja auch nicht wirklich will. Ist es möglich, beide SCCMs im gleichen Subnet (wegen PXE-Requests) parallel zu betreiben, bis ich am 2012er alles auf einem funktionen Stand habe? Wenn ja, gibt es diesbezüglich Fallstricke? LG Johannes
  9. Servus Norbert, das ist mir prinzipiell klar. Allerdings kosten die Agenten und Optionen in Summe auch gut ihre 12k. Alle Systeme sichere ich mangels Lizenzen ja nicht mit BE - vieles mit WSB. Nun denke ich mir, dass man sich die Alternativen anschauen sollte, bevor man so viel Geld in die Hand nimmt. Könnte ja sein, dass Arkeia z.b.: besser dedupliziert bzw. andere Vorteil hat? LG Johannes
  10. Servus Kollegen, ich verwende derzeit BE2010R3 mit diversen Agenten (SQL, MSX, AD), um meine Systeme zu sichern. Allerdings stammen die Lizenzen noch aus einer Zeit, wo alles physikalisch war. In der Zwischenzeit hat sich einiges getan; Alle Server sind nun virtualisiert (vSphere 5) und liegen auf einer Clariion CX4. Somit muss ich mir auch was bez. Backups überlegen, und bevor ich jetzt Unmengen ausgebe für Symanteclizenzen, will ich mir noch den einen oder anderen Hersteller anschauen. Arkeia schaut auf den ersten Blick nicht schlecht aus. Aber ich kenne niemanden, der es im Einsatz hat. Wie schauts bei euch aus? Gibt es damit schon Erfahrungswerte? Beste Grüße Johannes
  11. Servus, meines Wissens nach gibt es noch keine Version, die 2010 unterstützt, oder täusche ich mich da? Alle mir bekannten Versionen laufen gegen 2003/2007, speziell für das Sizing eines geplanten 2010er... Ich lasse mich aber auch gern eines Besseren belehren.... Lg Johannes
  12. Servus Kollegen, ich suche gerade eine Möglichkeit, wie ich meine Mailboxen auf einem 2010er Exchange auswerten kann. Konkret bräuchte ich die Anzahl der Attachments, wie groß die in Summe sind, evtl. noch dupletten usw... Ich habe mir gerade MAPILabs Reports angeschaut, aber dort bekomme ich nur einen Teil der gewünschten Informationen, die wichtigen Sachen scheinen nicht ausgewertet zu werden. Bevor ich da jetzt lang troubleshoote, wollte ich mal die Frage in die Runde werfen, ob es da nicht eine Alternative gibt. Beste Grüße Johannes
  13. Danke für die Antwort. Hab mir grad die Voraussetzungen für den Project Server angeschaut - also eine Sharepoint Enterprise Lizenz bring ich nie durch. Somit wird es wahrscheinlich doch nichts aus dem Hause MS werden. Sharepoint an sich wäre eine Option, allerdings sehe ich da eine Steile Lernkurve auf mich zukommen. Und dann deckt er nur die "Basisfeatures" ab, wie du schon gesagt hast. Ich glaube, der Praktikablere weg wäre dann wirklich ein Eigenständiges PM Tool.
  14. Servus Kollegen, es scheint, als ob bei uns ein wenig mehr Struktur Einzug hält. Es wird für unsere nächsten Projekte (ERP in die Zweigstellen, Domänen konsolidieren, ...) der Ruf nach einer Projektmanagementlösung laut... Es sind in etwa 10 User geplant, die über diverse Zweigstellen verteilt sind (haben aber Zugriff via S2S und SSLVPN). Für mich wären (bevor wir intern mal darüber gesprochen haben) folgende Punkte wichtig bzw. schön: - AD integration / SSO - Exchangeintegration (erster Gedanke - Termine in Kalendern usw...) - evtl. ein Webzugriff - gerne auch kostenpflichtig, dann aber mit linearen Kosten (nicht XXk für den Server, dann Yk pro Lizenz, sonst bekomm ich das nicht durch). Was würdet ihr noch als Basisfeature sehen, das in meiner Liste noch fehlt? Ich grase derzeit mal die freien Lösungen ab, würde mich aber über Empfehlungen aus euren Erfahrungen freuen. Zu bemerken ist, dass es keine wirklichen PM-Qualifikationen im Haus gibt, zumindest keine, die ich in den letzten Jahren bemerkt hätte ;) Hat jemand Erfahrung mit dem Project Server? Dem würde ich, ungesehen, jetzt naturgemäß die Beste Integration in ein stark MS-Lastiges Unternehmen zutrauen... Beste Grüße Johannes
  15. Hallo Kollegen, ich wollte heute den Standort der Logfiles einer Exchangedatenbank auf eine andere LUN verschieben. Am Abend versucht, wo wenig los ist, aber es will nicht so wirklich funktionieren. Nach ca. 10 Minuten erhalte ich folgende Fehlermeldung in der EMC: Summary: 1 item(s). 0 succeeded, 1 failed. Elapsed time: 00:09:53 Mailbox_01 Failed Error: Sending data to a remote command failed with the following error message: The WS-Management service cannot complete the operation within the time specified in OperationTimeout. For more information, see the about_Remote_Troubleshooting Help topic. Exchange Management Shell command attempted: move-DatabasePath -Identity 'Mailbox_KTA' -EdbFilePath 'S:\Exchsrvr\Mailbox_01\mailbox_01.edb' -LogFolderPath 'L:\Mailbox_01' Elapsed Time: 00:09:53 Im Eventlog finde ich u.a. folgende Fehler: Source= MSExchangeFDS, EventID=1028 Process MSExchangeFDS.exe (PID=2140). Errors occurred while synchronizing content from server EXC02 for object EXC02, remote server is unavailable, giving up after 5 retries. Please check previous error events logged by MSExchangeFDS for more information. Source=MSExchangeFDS, EventID=1018 Process MSExchangeFDS.exe (PID=2140). Failed to connect to remote server EXC02. The remote server may be down, or its Server service may not be running. Beide Dienst laufen, das Eventlog ist sonst in Ordnung. Die Public Folders habe ich ohne Probleme umsiedeln können, diese DB macht mir Kopfzerbrechen. Ich habe diverse Einträge in Foren gefunden, wo angeblich das setzen von "Microsoft Exchange File Distribution", "Microsoft Exchange Replication" und "Microsoft Exchange Service Host" auf Delayed die Lösung sein soll. Ich habs mal versucht, aber ohne Erfolg. Habt ihr vielleicht noch einen Tip für mich? Beste Grüße Johannes
  16. Servus Krissi, ich mutmaße jetzt: - Dein NAS ist gestorben - Deine Platten sind noch intakt (zumindest eine) - Platten sind mit ext2, ext3 o.Ä. formatiert (da sie unter Linux lesbar sind) - Logische, oder gar mechanische Fehler sind auszuschließen Ich würde in dem Fall wie folgt vorgehen: Die Platte an einen Windowsrechner hängen, der irgendwo noch genug Speicher hat, um die Komplette NAS-Platte als Image abzulegen. Zieh dir DriveImage XL von Runtime Software und erstelle ein Image. Alternativ kannst du auch unter Linux mit dd eines erstellen (Google) (als Backup, für den Fall des falles ;-)) Dann holst du dir den DiskInternals Linux Reader und öffnest die Platte. Im Besten Fall kannst du dir dann deine ganzen Daten wegkopieren. So würdest am schnellsten an dein Zeug kommen. Ansonsten gibt es von Runtime Software NAS Data Recovery (kostet 99$), mit dem du dann deine Daten retten kannst. Generell kann ich die Runtime Tools wärmstens empfehlen. GetDataBack für NTFS & FAT32 hat schon so manch glückliches Lächeln auf die Gesicher meiner (Backupscheuen) Kollegen gezaubert. Hast du ein dd-Image erstellt, kannst du auch OSFMount verwenden und dann mit dem DiskInternals Linux Reader. Worst Case: Die Daten sind extrem wichtig und du brauchst einen professionellen Dienstleister. Ich habe sehr gute Erfahrungen mit Attingo in Wien gemacht. Schneller, professioneller Ablauf. Haben mir innerhalb kürzester Zeit ein RAID5 mit 2 defekten Platten rekonstruiert (und nein, ich bin nicht mit der Firma verbandelt - nur Kunde, der eine Empfehlung abgibt). LG Johannes
  17. Nein, keine AVVI-Agenten. Die Lizenzen dafür sind erst mit Q3 budgetiert worden... Ich sichere mit "regulären" Agenten. Durchsatz ist lt. Windows bei grob konstanten 55MB/sek (zwischen dem Exchange und dem Sicherungsserver), es läuft aber derzeit gerade die Windows Backup Sicherung. Beide Maschinen hängen am gleichen Switch... Lg Johannes PS.: Die CX4 ist mit den ESX-Hosts via FC verbunden...
  18. Hallo Kollegen, ich kämpfe schon seit einiger Zeit mit der Geschwindigkeit meines Exchange Backups (2008R2 mit MSX2010 SP1). Meine Maschine läuft auf einem ESX4.1 mit 16GB RAM und 2 vCPUs. Im großen und ganzen unterfordert. Die Maschine liegt auf verschiedene LUNs verteilt auf einer CX4-120. Angeschlossen via vSwitch und GBit auf einem dezidierten Switchport auf einem Procurve J9022A. Lt. Switch keine Kollisionen o.ä. - auch die restliche Hardware ist großzügig dimensioniert. Trotzdem läuft mein Backup (Backup Exec 2010 R2 und vergleichsweise Windows Server Backup) sehr träge. Im Schnitt, bei BE ohne Brick Level Restore, mit knappen 700MB/Minute, mit BLR fällt der Durchsatz auf <300MB/Minute. Target ist ein Share auf einem dedizierten Backupserver (Fujitsu-Siemens NX40 (baugleich wie RX300S4) mit 2008R2, einem Raid5 bestehend aus 6x 750GB SATA. Sonst läuft darauf nix. AV (FEP2010) auch deaktiviert und deinstalliert - bring alles nichts. Durchsatz ist auf den Maschinen recht hoch - testweises kopieren zwischen Platten geht im Schnitt mit ~100MB/sek... Der Durchsatz war auch mit R1 recht schlecht, und versuchsweise auch mit 2012. WSB bringt auch nicht wesentlich mehr, grob mit calc durchgerechnet kommts aufs gleiche raus. Bei einer DB-Größe von >250GB is das natürlich recht langweilig, wenn die Maschine so lange zum sichern braucht. Ich bin mit meiner Weisheit bald am Ende - hat vielleicht von euch jemand einen Tip? LG und Danke Johannes
  19. OK, ich hab mir schon sowas gedacht. Schön, dass ich nachgefragt habe, bevor ich ans testen gegangen wäre ;-) Danke für die Infos. LG Johannes
  20. Hi Kollegen, noch eine kleine Frage in die Runde: Ich lese mich gerade wieder in DFS ein - die Möglichkeit, ein Share "unsichtbar" dahinter redundant zu präsentieren, finde ich für meine Roaming Profiles (XenApp) sehr interessant. Die Dokumente usw. sind per Ordnerumleitung vom Profil lösgelöst. Wenn ich DFS nun richtig verstanden habe, wird auf den Domänenstamm connected und im Hintergrund dann auf das entsprechende Share auf dem entsprechenden Server weitergeleitet. Passiert das transparent oder bekommt der Client dann wirklich im "Cleartext" den Ziel UNC mitgeteilt? Ist mein Gedankengang so eigentlich realisierbar und supported oder ist da mit Problemen zu rechnen? Wie passiert die Verteilung - fungiert da einer als Active und einer als Passive, oder via Round Robin oder ganz anders? LG Johannes
  21. Hallo Kollegen, ich überlege, für meine Außendienstler Direct Access zu implementieren, um ihnen den Zugriff auf interne Resourcen so einfach als möglich zu machen (zusätzlich zu den Vorteilen für mich). Jetzt habe ich aber das Problem, dass nicht immer eine WiFi- oder LAN-Verbindung zur Verfügung steht. Oft wird per Datenroaming und USB-Stick schnell mal ein Mail abgerufen bzw. auf unsere XenApp-Farm zugegriffen. Ich habe nun die Sorge, dass DA in Verbindung mit Datenroaming eine recht teure Sache werden könnte. Wie handhabt ihr das bzw. gibt es dafür einen Vernünftigen Ansatz? Nicht zu roamen ist bei uns leider keine Option. Auch führen alle Ansätze, die auf die Lernfähigkeit meiner User basieren, meistens nicht zum Erfolg... LG Johannes
  22. Servus Janos, Das ist halt leider so. Frugal Admin scheint hier einfach nur Glück gehabt zu haben. Wenn sich die verwendete Hardware mit der virtuellen recht ähnelt (womit ich speziell Chipsatz und Storage meine) kann es natürlich vorkommen, daß die Maschine so ohne weiteres hoch kommt. Solche Glücksmomente hatte ich auch schon, aber natürlich auch des Öfteren diverse Bluescreens. Versuche meinen Weg, er ist natürlich etwas aufwändiger, aber dafür funktioniert er recht gut. Es gibt natürlich noch ein wenig Optimierungspotential, aber die Virtualisierung war bei mir (fast) nie zeitkritisch. Und der große Vorteil ist, dass z.B. der VMware Player gratis ist, und eine Acronis True Image Home Lizenz teilweise für < € 20,- zu bekommen ist. Beste Grüße Johannes @Dr. Melzer: ich arbeite an mir, versprochen ;-)
  23. weil du mehr I/Os hast, wenn du mehr Platten verbaust. Mehr I/Os bedeutet mehr Geschwindigkeit...
  24. Grad gestern via Newsletter bekommen: How SAS, Near Line (NL) SAS, and SATA disks compare | TechRepublic LG Johannes
  25. Super - somit zerstreuen sich meine Bedenken quasi komplett ;-) Vielen Dank und schönen Nachmittag noch....
×
×
  • Neu erstellen...