Jump to content

patsrv

Members
  • Gesamte Inhalte

    89
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von patsrv

  1. Nunja ich habe das .bat das alle anderen aufruft gerade händisch gestartet und es hat wunderbar geklappt :/
  2. Okay, fürs erste scheint das Prob gelöst: Ich habe die jetzt alle statt mit call mit start /B /WAIT aufgerufen und in die .bats ein exit eingefügt. Mal sehen wie das morgen funktioniert wenn das über den geplanten Task aufgerufen wird. *hoffedasdasfunzt* Danke an alle ! PS:bitte noch nicht closen denn wenn das morgen wieder nicht funktioniert geht das Problem weiter -.-
  3. Danke für den Tipp ! Das Problem nun: Wenn ich nur start mache dann warten die .bat nicht aufeinander, also es werden alle nach der Reihe gestartet. Also habe ich es mit start /B /WAIT versucht, da wird aber überhaupt nur das 1. ausgeführt :( Gibts noch weitere Ideen ?!
  4. Bin gerade darauf gekommen das es mit dem externen Aufruf nur nicht klappt wenn in dem aufrufenden file auch andere batches gecalled werden, die auch externe batches callen (das ist zumindest die einzige gemeinsamkeit die ich finden konnte)
  5. Danke für deine Antwort... Jetzt schreibt er das er den Befehl "JJ*.xml" nicht finden kann...dazu ist zu sagen das ich den Code leicht abgeändert habe: (gepostet ist nur die Änderung) ... FOR /F "delims= " %%i in ('Dir cases\downloads\ /s /A-D^|find "JJ*.xml" ') ... Es ist auch zu bemerken das ich nur Probleme mit dem externen Aufruf habe wenn ich im aufrufenden batchfile auch noch andere Batchfiles calle...tue ich das nicht funktioniert es (mit dem original Code)
  6. Hallo, Ich lasse eine Produktion mit mehreren Batchfiles laufen die verschiedenste Sachen erledigen. Das letzte davon soll mir per Mail einen Bericht schicken... was es auch tut nur leider stimmt der bericht nur wenn ich das Batchfile direkt aufrufe, also daraufklicke oder per geplantemtask. Wenn ich allerdings das batchfile in einem anderen batchfile calle (zuerst passieren noch andere schritte) dann haut das nicht hin: ... echo -------------------------------------------- >> report.txt echo ###(1.)### DATEN ######### >> report.txt echo -------------------------------------------- >> report.txt echo. >> report.txt FOR /F "delims= " %%i in ('Dir cases\downloads\JJ*.xml /s /A-D^|find "Datei(en)" ') do set nrorg=%%i set /a a = %nrorg% +1 IF %a% EQU 1 (echo OGH: 0 >> report.txt) ELSE (echo OGH: %nrorg% >> report.txt) FOR /F "delims= " %%i in ('Dir cases\downloads\JF*.xml /s /A-D^|find "Datei(en)"') do set niorg=%%i set /a b = %niorg% +1 IF %b% EQU 1 (echo VfGH: 0 >> report.txt) ELSE (echo VfGH: %niorg% >> report.txt) FOR /F "delims= " %%i in ('Dir cases\downloads\JW*.xml /s /A-D^|find "Datei(en)"') do set noorg=%%i set /a c = %noorg% +1 IF %c% EQU 1 (echo VwGH: 0 >> report.txt) ELSE (echo Vwgh: %noorg% >> report.txt)... Die Datei soll zählen wie viele Dateien mit gewissen Namensanfängen sich in einer Verzeichnisstruktur befinden. Wie gesagt bei direktem Aufruf ist alles klar, aber bei Aufruf aus einem anderen batch da sagt er mir: Der Befehl "find" ist entweder falsch geschrieben oder konnte nicht gefunden werden. Hat einer eine Idee dazu ?! BTW: Ich habe den Code zum suchen (FOR /F "delims= " %%i in ('Dir cases\downloads\JJ*.xml /s /A-D^|find "Datei(en)" ') do set nrorg=%%i) aus dem Netz und frage mich was dieses ^|find "Datei(en)" überhaupt soll...kann mir da einer Helfen ?! Bitte lest auch das Stück Text durch auch wenn es einwenig länger ist :-)
  7. Vielen Dank für eure zahlreichen Antworten ! @Zwerghase: Nein ich muss keine Nutzerdaten eingeben wenn ich surfen will. Ich benutze derzeit diesen curl Aufruf(Daten wurden leicht geändert) und bekomme eben den genannten Fehler curl -U user:pwd -x 100.100.100.100:80 "http://www.ris.at/bkae/blabla" @Lian: was meinst du damit ?!
  8. jop kann ich...ich meinte auch nicht das er die Seite block sondern curl...obwohl das ja wie du schon sagtest ziemlich das gleiche sein müsste hmmm...
  9. Danke, aber das tue ich bereits. Anscheinend wird das irgendwie geblockt :/
  10. das mit dem Proxy war ein guter Tipp ! Ich bekomme jetzt sone 407 Error Seite...das dürfte an unserem Proxy liegen. Immerhin seh ich jetzt mal wie es aussieht wenn man eine Seite erreicht ^^
  11. @Dukel: Danke, aber leider funzt dein Code auch nicht :/ @zwerghase: Leider schlägt auch curl "http://www.ris.bka.gv.at/Bgbl-Auth/" mit dem selben Fehler fehl :(
  12. Leider bekomme ich immer den Fehler "curl: (7) couldn't connect to host" Ich verwende folgenden code curl -d "=VonDatum=01.01.2004&BisDatum=21.04.2009&Smp_MainContent_SearchButton=submit"\ RIS - Bundesgesetzblatt authentisch ab 2004 - Suche idea anyone ?!
  13. Ich habe gelesen, das der Server curl unterstützen muss. Das alle meien versuche fehlgeschlagen sind, ging ich davon aus das dies nicht der Fall ist. Danke für den Link ich werd mir das gleichmal ansehen !
  14. Ich will ja garnicht wissen was mein Server kann, sondern wie es generell funktionieren könnte. Was ich machen will steht in meinem 1. Post: Es gibt da eine Suchmaske, die natürlich verschiedene Input-Felder hat. Normalerweise gebe ich Daten für "von Datum" und "bisDatum" ein und das Ergebnis ist dann eine Liste von Dokumenten die innerhalb dieses Zeitabschnitts veröffentlich wurden. Ich würde gerne automatisiert diese Suche ausführen, also die Felder automatisch befüllen und die files, die in der daraus resultierenden Liste aufscheinen downloaden. Welche Information fehlt dir denn genau ?! Danke !
  15. genau das wollte ich mit curl machen, aber der Server unterstützt anscheinend kein curl. Wie könnte das denn noch gehen ?! java ?! perl !? vbs ?! ...
  16. Hi, Kennt einer von euch curl ?! Das ist so eine Art cmdline http-client, soweit ich das verstanden habe. Hat einer Erfahung damit ?! Ich sag euch einfach mal was ich zu tun versuche: Es gibt da eine Suchmaske, die natürlich verschiedene Input-Felder hat. Normalerweise gebe ich Daten für von und bis ein und das Ergebnis ist dann eine Liste von Dokumenten die innerhalb dieses zeitabschnitts veröffentlich wurden. Ich würde gerne automatisiert diese Suche ausführen, also die Felder automatisch befüllen und die daraus Resultierenden files downloaden. Dies sollte mit curl eigentlich kein Problem sein, aber ich kriegs einfach nicht hin. Hat eine vlt. eine alternative idee dazu ?! Gruß
  17. "leider" weil das nicht gut für uns is, da wir die Daten eigentlich täglich bräuchten. Die Änderung des Intervalls ging leider von Externen aus - deswegen leider ;)
  18. vielen dank, das hätte mir sehr geholfen, leider hat sich das Problem schon erledigt, da wir dei Daten plötzlich nur mehr wöchentlich bekommen, und dann sind sie 100pro neu :wink2:
  19. Hallo, Ihr hab mir schon öfter geholen - Danke erstmal dafür :) Ich habe schon wieder ein Problem :( Wir bekommen hier Daten(ein zip file das immer den selben Namen trägt) über einen FTP zugespielt, die ich gerne automatisch herunterladen würde, was kein Problem darstellt. Jedoch wird dieses Zip file nicht jeden Tag upgedatet. Ich würde gerne an irgendeiner Stelle (am besten vor dem download) überprüfen ob das File seit dem letzten download(oder einfach seit Gestern) geändert wurde...irgendeine Idee ?! Ich hab mir überlegt das file downzuloaden und dann mit dem letzten runtergeladenen file zu vergleichen...hab aber keine Ahnung wie das gehen soll, bzw. (mit) was ich vergleichen soll (diff, compare,... O_o). das ganze soll in einem Shell-Script gehandelt werden. Ich hoffe ihr könnt mir helfen... cheers
  20. Das ganze sieht so aus (hätte ich vermutlich schon früher schreiben sollen :/) Ich habe da eine externe HD (Fat32) auf der die insg. 108 ZIPs liegen, die alle zw. 140- und 150 MB groß sind. Ich habe zuerst versucht das ganze auf eine interne Platte meines Computers zu spielen --> besagter fehler...jedoch nur weil da auch zu wenig Platz war :rolleyes: Der einzige Datenträger den ich habe, der auch genug Platz hat ist die externe Festplatte also versuche ich derzeit die ZIPs auf die externe HD zu entpacken, was aber den besagten Fehler aufwirft... Ich habe die Festplatte mit chkdsk überprüft... Danke schonmal für eure Hilfe, das Board ist echt sau aktiv...geile sache ;) /edit: Ich habe das ganze auch schon auf einem anderen Rechner versuchen lassen --> Fehler !
  21. scheint in ordnung zu sein...
  22. Rechte hab ich alle... es sollte nicht an einer einzelnen Datei liegen denn sobald diese 13106 files erreicht sind ist es wurscht mit welchem ZIP ich es teste... In den ZIPs befinden sich xml-files... Das mit dem verschieben in den Sammelordner hab ich schon probiert (2. Post ^^)
  23. Windows XP... Im Eventlog steht leider nichts... Wenn ich alle files einzeln in eigene Ordner entpacke geht alles klar... HDD scheint sonst OK RAM kann ich gerade nicht checken, aber wenn ich 9 "Entpackungen" parallel laufen lassen kann dann müsste doch eine autom., Abarbeitung der einzelnen ZIPs auch klappen ;) Das komische: Ich entpacke ca. 6 der ZIPs in einen Zielordner...beim 7. werden diese 13106 files erreicht. Ich entpacke das 7. also in einen eigenen Ordner, was auch super klappt...wenn ich jetzt die files aus dem 7. ZIP in den Ordner kopieren will, in die ich die anderen entpackt habe, kommt auch dieser Fehler "Dateiname" konnte nicht erstellt werden. :suspect: Der Fehler wird dann allerdings natürlich nicht vom entpack-tool sondern von Windows geworfen
  24. Hallo, Ich versuche über 100 ZIPs zu entpacken...leider schlägt dies Fehl. Ich will sie alle in einen Ordner entpacken und wenn dieser Ordner genau 13106 Dateien beinhaltet, sagt er mir das er "Dateinamen" nicht erstellen kann. Einer ne Idee woran das liegen könnte. Ich habs mit Totalcommander, Winrar, und nem Batch-tool versucht aber immer kommt der Fehler :( cheers !
×
×
  • Neu erstellen...