Jump to content

heuchler

Members
  • Gesamte Inhalte

    411
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von heuchler

  1. Guten Morgen zusammen, ich hätte folgendes Anliegen bzw. Problem. eine Script soll *.csv Dateien aus einem Ordner via FTP auf einen FTP Server hochladen. Lasse ich das Script über die Powershell auf meinem Windows 7 laufen, keine Probleme. Die Dateien werden hochgeladen. Starte ich das Script händisch auf dem Server, kommt die unten angegebene Fehlermeldung. Schlussendlich soll es via Taskplaner alle paar Stunden laufen. Vielleicht kann mir da jemand helfen, es würde mich sehr freuen. Vielen Dank :) Auszug aus dem Script Uploadfbefehl. } start-sleep -s 10 #Upload Pfad definieren $Dir="\\unc-pfad\ordner1\ordner2\*.csv" #FTP Server Extern $ftp = "ftp://ftp.123.de/" $user = "user" $pass = "password" $webclient = New-Object System.Net.WebClient $webclient.Credentials = New-Object System.Net.NetworkCredential($user,$pass) #CSV Dateien im oben angegebene Verzeichnis foreach($item in (dir $Dir "*.csv")){ "Uploading $item..." $name=$item.Name $name=[System.Uri]::EscapeDataString($name) $uri = New-Object System.Uri($ftp+"/"+$name+"") $webclient.UploadFile($uri, $item.FullName) } Fehlermeldung: Ausnahme beim Aufrufen von "UploadFile" mit 2 Argument(en): "Ausnahmefehler während einer WebClient-Anforderung." Bei C:\script\roesch_upload.ps1:37 Zeichen:26 + $webclient.UploadFile <<<< ($uri, $item.FullName) + CategoryInfo : NotSpecified: (:) [], MethodInvocationException + FullyQualifiedErrorId : DotNetMethodException
  2. Ja, das ist sehr schön dass ihr Linux einsetzt. Wir auch. Datenbankserver, FIleserver, Mailserver, Telefonanlage, Internes Zeug... Wir sichern die VMs weg, auch online. Die Wiederherstellung geht dann entweder komplett, oder auf File-Basis - auch online. Heißt, man benötigt eigentlich keinen Client an sich. Unsere physikalische Maschine fürs CRM (inkl. Datenbank) sichern wir via Veritas. Wenn Du mehr Infos benötigst, gerne. Den Schritt von 4TB auf "mehr" mit 32000 Euro zu zahlen ist schon sportlich wenn man eine nahezu gleichwertige und deutlich kostengünstigere Variante erhält. Vielleicht ist dann auch der Chef eher zu überzeugen wenn eine "0" wegfällt ;-)
  3. Zitat: Unsere virtuellen Server (liegen aktuell auf XenServer und VMware) sichere ich momentan mit den Backup-Agents, die in den Maschinen installiert sind. Eine Sicherung der virtuellen Systeme kann unsere Appliance aktuell nur auf VMware. Hier ist nächstes Jahr eine Umzug auf VMware geplant. Mal über PHD Virtual Backup nachgedacht? Das würde glaube ich einige Probleme (dauerhaft) lösen...
  4. Und ich frage mich gerade ob Kampfmade solch eine Lizenz unwissenderweise besitzt... :D
  5. Er hat ja, soweit ich es verstanden habe, keinen Platz um irgendwo eine neue DB anzulegen.. . Es muss doch ein Medium geben dass Du via USB 3.0 oder so einbinden kannst, so dass Du es als lokales Laufwerk nutzen könntest. Oder ein 08/15 NAS via iSCSI (kann auf ein FreeNas sein....). Postfächer leeren bzw lokales Archiv nutzen. Mal davon abgesehen... was erhoffst Du dir von der Offline Defrag? das Huptproblem mit den fehlenden Kapazitäten bleibt doch weiter existent :-/ Oder habe ich da was falsch verstanden..?
  6. Ist doch langweilig auf alles vorbereitet zu sein. Stell Dir mal vor Du wüsstest heute schon was morgen kommt... kann schön sein, muss aber nicht :D
  7. Wieviele Admins seid ihr denn überhaupt? Rollenverteilung? Kann/darf jeder das Gröbste um einen simplen Fehler durch einen Neustart zu beheben oder sogar einen Restore ausführen? Hat jeder Admin einen eigenen Admin-Login und wird dies mitgeloggt? Habt ihr einen IT Dienstleister der dort helfen kann und die Kennwörter kennt? Wir nutzen auch KeePass für Dinge wie Provider, Hoster, Handyzeug und sowas... passt schon. Man muss mal abwägen was von Nutzen ist. Wenn ein Fremder/Dritter (ggf. Dienstleister) erst auf ein Kennwort aus dem Bankschließfach warten muss, dann ist das nicht immer optimal.
  8. Könnt ihr das Raid Array auf dem Barracuda Teil ändern oder ist die Kiste geschlossen? Warum eigentlich Barracuda? Ansonsten... weiß ich auch nichts was Du nicht wissen müsstest. Daten reduzieren, ggf. PST woanders abspeichern um Fileserver zu entlasten(?), vielleicht noch hier und da eine Änderung vornehmen. Das ist alles Schmu und über Kurz oder Lang wird man investieren müssen. Jetzt habt ihr noch eine Gelegenheit zu investieren und zu planen. Wenn alles bis unters Dach voll ist, dann sichert es nicht mehr. Wenn zum Beispiel irgendein intelligenter User meint seinen Rechner zu "löschen", also Daten zu überschreiben und mal eben durch irgendwelche Kopien 20GB an Daten produziert, die direkt ins Profil geladen werden. Aber zur Beruhigung: ich verstehe dein Problem. Damals falsch geplant, 4-Bay NAS als zweites Sicherungs"storage". Aktuell Raid 10, jetzt ist die Büchse fast voll und es bleibt uns nur übrig ein RAID5 daraus zu machen - oder neu anzuschaffen. Blöde Sache so eine halbherzige Planung.
  9. Du hast ja schon ein paar Möglichkeiten aufgezählt bekommen. Wichtig wäre mir wie einfach vorhandene Mails eingebunden werden können. Oder gibt es bei euch einen Punkt, an dem ihr sichern wollt? Möglich wäre ja z.B. mit dem Mailverkehr aus 2014 zu beginnen, alles andere ist dann halt nicht archiviert, aber ggf. als *.pst irgendwo gesichert. Wie möchtest Du die Lösung einsetzen? Eine extra Appliance? Wird virtualisiert? Wie sieht es mit Kapazitäten aus? Wie ist euer Spamschutz aufgestellt? Bekommt ihr viel Werbemails? Redundante Lösung gewünscht? Welche Berechtigungen sollen vergeben werden (Vertretungen..)? Im Marketing oder in der Kundenabfertigungsabteilung ist es ja fast üblich sich gegenseitig Zugriff auf das Postfach zu geben. Das müsste dann ja ggf. auch im Archiv passieren. Wieviel E-Mail bekommt ihr pro Tag? Ich werde noch in den Raum werfen: - GFI Mail Archiver: Schon mehrfach eingesetzt, läuft gut, Support ist auch nicht schlecht (gibt wie immer schlechte und gute Tage). Man kann einen SQL Express einsetzen - ich kann mich jedoch vage daran erinnern dass dann manche Funktionen (ich glaube das Logging/Audit) nicht funktionieren. In wie weit die fehlendenden SQL Funktionen bei der Archivierung zu tragen kommen (Volltextsuche, Sicherungs Agent etc). mal nachforschen. - Reddoxx Finde ich persönlich sehr charmant. Kein SQL notwendig. Hier auch die Wahl zwischen Appliance oder VM. Allerdings (und jetzt kommt wieder was, was ich vorher nicht live mitbekommen habe) Viele User = viele unterschiedliche Arten und Weisen wie sie mit Mails hantieren. Da wird mit hundert Ordnern im Posteingang rumgewurstelt, gesendete Mails werden in den Posteingang verschoben, E-Mails werden nochmal explizit an sich selber versendet... In manchen Konstellationen ändern sich die Header, oder die Message ID, oder weiß der Geier was und auf einmal wurden manche EMails nicht archiviert, oder schlicht nicht über die Suche gefunden, obwohl diese E-Mail auf Datenbankebene vorhanden war... da beißt sich dann auch der Support die Zähne dran aus. Bei uns hatte ich nun das Problem, dass E-Mails älteren Datum in das lokale Archiv geschoben wurden - LOKAL! Und zack... fehlten dem Chef auf einmal 6 Monate E-Mails weil er den Posteingang gelöscht hat und es ihm nach ein paar Wochen aufgefallen ist :-/ Naja... Du wirst dich schon entscheiden :)
  10. Hey, wir hatten vor "kurzem" die gleichen Probleme. Über den Betrieb verteilt mehrere Unterverkabelungen und nichts beschriftet. Über Jahre gewachsen. Teilweise unter den Decken.. also Kran mieten etc pp. Ich wollte aufräumen weil es bei jedem Netzwerkproblem ärger gab und man nicht wusste wo jetzt welche Dose an welchem Patchpanel / Switch hängt. An Produktionsmaschinen/Terminals schon recht kritisch. Lade Dir das HP Intelligence Management Center runter und installiere es auf einer virtuellen Maschine. Damit hast Du schonmal einen groben Überblick über Uplinks und Verbindungen. Dann googelst Du nach einem Dienstleister oder Techniker, der Dir entweder zur Hilfe kommt, oder Dir ein Gerät gegen Miete ausleiht. Ohne würde ich erst garnicht anfangen. Ein vernünftiges Gerät sucht nicht nur durch sekündliches aus/anschalten des Ports die Leitung, sondern spuck Dir doch sogar alle Fehler aus, speichert sie und druckt sie Dir aus. Es ist ein Abwasch. Bei uns sind zB sehr viele Leitungen die nur über 2 Aderpaare angebunden sind, derzeit kein Problem. Mit Einzug der Gigabit-Endgeräte jedoch schon. Dieses intervallmäßige Blinken erleichtert die Arbeit auch alleine. Switches dabei auf "Link" Mode stellen. Dann ist das alles kein Hexenwerk mehr. Ich würde auf keinen Fall nur was Halbes machen. Es ist durchaus erstaunlich was Elektriker so verbrechen weil sie mit einem 30 Euro Teil die Leitung als "okay" einstufen und hinterher wundert man sich dass es zu Abbrüchen, Linkerrors oder ständigen Negotiation Meldungen kommt.
  11. Uff... mit Verlaub, nach deinen Beschreibungen sehe ich da weniger ein Problem bei Sophos (bis auf die angesprochene Pechsoftware V8), sondern eher beim sinnvollen Handeln und dem Dienstleister. Die Hardware wurde damals schon upgegraded, der Zeitraum für den (vor-)letzten rabattierten Hardwareaustausch anscheinend verpasst, und zudem nicht die V9 getestet (nicht empfohlen, aber unterstützt bei 1GB Ram) die aber ein deutlich verbessertes Performance Handling (vorallem was RAM und Swap angeht) bietet. Dann noch die derzeiten SPOF. Ich äußere mich am Besten nicht mehr dazu - auch weil ich fairer Weise eure Struktur nicht kenne - und hoffe dass SP manche rudimentären Dinge auf die Reihe bekommt und ihr eure Kosten (die jetzt vielleicht noch entstehen) reinbekommt. Das ist keineswegs negativ oder als Angriff gemeint, aber ich merke selber (nachdem ich selbst von einem Dienstleister in ein Unternehmen gewechselt bin), dass unsere damalige Dienstleistung was z.B. UTMs angeht einfach Top war/ist. Da klingt eure Struktur nichtmal ansatzweise kompliziert. Auch was WLAN und so angeht ;) Aber nochmal zur Ausfallsicherheit PPoE. Auch mit zwei DSL Leitungen (oder einer langsameren "günstigen" SDSL) wird es bei Active-Passive keinen Umschwenk auf den zweiten Node geben. In Zusammenhang mit dem Reporting (ADSL01 bzw. ADSL02 down...) reicht dies ja schon meistens, außer es ist die Leitung weg, worüber die Mails reinkommen, dann ist doof ;-) Habt ihr mal im Cluster versucht was passiert? Würde mich echt interessieren. Viele Grüße Dan
  12. Sag mal, rein aus Interesse: was hattet ihr denn für Hardware? Die V8 war ein Problem, mit vielen Astaros, selbst 525er hatten daran zu knabbern. Und dieser Misch bei euch... (Forefront, kein AV/Spamscanning) :-/ Irgendwie komisch, kenne ich so nicht. Eher im Gegenteil: Insellösungen wurden durch die UTM ersetzt. Aber Hauptsache ist ja, dass es läuft. So im Großen und Ganzen :D
  13. Das kärt nun aber immernoch nicht die Fragen die hier im Raum stehen und was Securepoint dazu sagt. Und die Anbindung der beiden Nodes fände ich interessant (ob physikalisch durchgereicht oder virtuell..?). Die technischen Probleme mit dem VPN konnten sich nur durch einen Reboot des Nodes lösen lassen? Konnte man keine Dienste neustarten? Gleiches gilt vielleicht für die PPoE Verbindung; Interface neustarten reicht da nicht? Userle trifft's genau. Nach den zwei längeren Beiträgen würde ich als "Hilfesuchender" der auf diesen Thread stößt in der gleichen Situation nicht gerade zu SP greifen. Aber wie immer ist das nicht Thema.
  14. Zum PPoE: sicher dass dies überhaupt geht? Warum auch immer er die Internetverbindung verliert, scheint ja der passive Node zu laufen. Deswegen würde ich behaupten (!) ist das Verhalten noch normal. Eventuell könnte man dies über Multipatch Rules erledigen...? Ansonsten finde ich es aufgrund deiner Beschreibung erstaunlich welche Kompromisse man eingehen kann.
  15. @Dukel: klar mit kompletten Pfad, leider ohne Erfolg :-/ @nemonix: wohin mit den Zeilen? In diese FTP Funktion...?
  16. Das war eigentlich Häme meinerseits... :rolleyes: Jetzt verstehe ich dich aber noch weniger... Ich stelle mir jetzt vor von unserem Provider zu E-Plus zu wechseln weil wir dann tausende Euro sparen... Ist der zweite AV Scanner dann auch im Proxy aktiv? Oder meinen die "bis zu zwei AV Scanner" , also Proxy AV + E-Mail AV? :confused:
  17. Also irgendwie gibt das keinen. Es wird kein txt File erstellt :-/ Mit out-file habe ich es auch schonmal probiert, ohne Ergebnis.
  18. Guten Morgen zusammen, kurze Frage: Ich hätte ein PS Script, Grund ist ein FTP Upload der mit diesem Script angestoßen wird. Nun möchte ich diesen Krempel gerne mitloggen und wegschreiben so dass man später nachvollziehen kann, welche Datei hochgeladen wurde. irgendwie bekomme ich es nicht hin, bin aber auch was Shell etc angeht eine Niete ;) Wäre schön wenn jemand eine Idee hat. Vielen lieben Dank und viele Grüße Daniel Get-ChildItem "UNC-PFAD" -Filter *.csv | ForEach-Object { $Name = $_.BaseName $FilePath = $_.Fullname $FilePathCopy = "PFAD\Dateien" $LastLine = Get-Content $FilePath | Select-Object -Last 1 $LastLine = $LastLine.replace(";","") $LastLine = $LastLine.trim() # Ausgabe der CSV Zeilen an Export-CSV $CSV = Get-Content -path $FilePath $CSV[0..($CSV.count - 2)] | Out-File (Join-Path $FilePathCopy "$Name`_$LastLine.csv") } start-sleep -s 10 #Upload Pfad definieren $Dir="PFAD DATEI\*.csv" #FTP Server Extern $ftp = "ftp://ftp.wdr123.de" $user = "abcd" $pass = "defg" $webclient = New-Object System.Net.WebClient $webclient.Credentials = New-Object System.Net.NetworkCredential($user,$pass) #CSV Dateien im oben angegebene Verzeichnis foreach($item in (dir $Dir "*.csv")){ "Uploading $item..." $name=$item.Name $name=[System.Uri]::EscapeDataString($name) $uri = New-Object System.Uri($ftp+"/"+$name+"") $webclient.UploadFile($uri, $item.FullName) }
  19. Interessant wäre es ob diese Einstellung an sich Probleme bereitet (weil NTLMv2 nicht unterstütztz), oder ob das Problem lediglich durch die AD SSO Einstellung initiiert wird. Hast Du mal während dessen ins Log geschaut (gut, man hat wohl andere Probleme wenn der Proxy nichts durchlässt ;) ) Ich teste die Einstellung mal bei uns - weiß nur nicht ob ich heute dazu komme...
  20. Weißt Du, man muss auch mal ein Risiko eingehen und allen Unkenrufen zum Trotz sein Ding durchziehen. Sonst wäre das Leben zu langweilig und die Foren hätten keinen Input :D Na hoffen wir mal das Beste! Wie ist die Performance so? Und warum hat der Webproxy nur einen Scanner obwohl mit zwei(?) geworben wird?
  21. Ähm.. kurze Rückmeldung. Läuft. Das PS Script lokal auf den Server zu legen brachte es. Anscheinend kann der Server mit dem dem UNC Pfad / Netzlaufwerk nichts anfangen...? Danke für eure Ideen!
  22. Guten Morgen zusammen, wir möchten jeden Abend um 20:00 Uhr ein Script laufen lassen. Dieses Script funktioniert manuell angestoßen, mit einem angemeldeten Benutzer, problemlos. (Es ändert lediglich Dateinamen). Richte ich es allerdings fix um 20:00Uhr ein und gebe an dass dieses Script mit einem Admin-Konto (zum Testen) ausgeführt werden soll, passiert rein garnichts. Ich erhalten zwar die Meldung dass der Task erfolgreich ausgeführt wurde, das Script trat aber nicht in Aktion und die Dateien bleiben unverändert. Das lokale Adminkonto funktioniert ebenfalls nicht. Zur Konfiguration: Unabhängig von der Benutzeranmeldung ausführen - mit höchsten Privilegien Trigger: täglich 20:00Uhr Aktionen: Programm starten (Pfad zur PS) Argument C:\users\abc\Desktop\script.ps1 ODER auch einen Netzwerkpfad getestet. "Starten in" bleibt leer. Jemand eine Idee oder ein Hinweis? Grüße und Danke Daniel
  23. heuchler

    Alternative zu Intex ERP

    Echt niemand....? :schreck:
×
×
  • Neu erstellen...