Pobieranie wszystkich plików, oraz plików z podfolderów ze strony www.
Ostatnio zmodyfikowano 2011-11-09 20:51
akwes Temat założony przez niniejszego użytkownika |
Pobieranie wszystkich plików, oraz plików z podfolderów ze strony www. » 2011-11-09 18:21:15 Witam, potrzebuje pobrać dużą ilość plików ze strony. Strona listuje je za pomocą: Index of /images/funny
Istnieje jakaś metoda na pobranie tego wszystkiego? wget-em nie poszło :P |
|
DejaVu |
» 2011-11-09 18:26:12 a) napisz odpowiedni program :)
b) ściągnij odpowiedni program ;p |
|
akwes Temat założony przez niniejszego użytkownika |
» 2011-11-09 18:28:53 No niestety dwa testowane przeze mnie ściągacze stron pobierają ładnie jeden plik wyłącznie o nazwie "index.html" i w nim linki :P pisać program... Kurde ktoś już powinien to zrobić wcześniej xD To jest zwykła strona generowana przez apache : < |
|
Drraven |
» 2011-11-09 19:26:30 #!/bin/bash curl http://www.wp.pl/ | grep -o -e 'http://www.wp.pl/.\{1,50\}\html' > spis_plikow.txt #Dostanie spis wszystkich plików html
Ja zaczynałem poznawać Ubuntu (kiedy to było już :P) np. tu: http://www.ubucentrum.net/2008/06/curl-czyli-podstawy-hackingu-w-ubuntu.html i man <nazwa narzędnia> Pytaj się na kanałach IRC np. na ubutnu czy ogólnie Linuksowym, tam ci pewnie ktoś da odpowiedz ;D |
|
akwes Temat założony przez niniejszego użytkownika |
» 2011-11-09 20:51:18 Pomógł mi PageNest,
@Drraven nawet nie próbowałem robić listy txt bo nazwy katalogów i plików są z losowych id... :P |
|
« 1 » |