Panel użytkownika
Nazwa użytkownika:
Hasło:
Nie masz jeszcze konta?

Pobieranie wszystkich plików, oraz plików z podfolderów ze strony www.

Ostatnio zmodyfikowano 2011-11-09 20:51
Autor Wiadomość
akwes
Temat założony przez niniejszego użytkownika
Pobieranie wszystkich plików, oraz plików z podfolderów ze strony www.
» 2011-11-09 18:21:15
Witam, potrzebuje pobrać dużą ilość plików ze strony. Strona listuje je za pomocą:

Index of /images/funny

Istnieje jakaś metoda na pobranie tego wszystkiego? wget-em nie poszło :P
P-43627
DejaVu
» 2011-11-09 18:26:12
a) napisz odpowiedni program :)
b) ściągnij odpowiedni program ;p
P-43628
akwes
Temat założony przez niniejszego użytkownika
» 2011-11-09 18:28:53
No niestety dwa testowane przeze mnie ściągacze stron pobierają ładnie jeden plik wyłącznie o nazwie "index.html" i w nim linki :P pisać program... Kurde ktoś już powinien to zrobić wcześniej xD To jest zwykła strona generowana przez apache : <
P-43630
Drraven
» 2011-11-09 19:26:30

#!/bin/bash
curl http://www.wp.pl/ | grep -o -e 'http://www.wp.pl/.\{1,50\}\html' > spis_plikow.txt
#Dostanie spis wszystkich plików html
Ja zaczynałem poznawać Ubuntu (kiedy to było już :P) np. tu: http://www.ubucentrum.net/2008/06/curl-czyli-podstawy-hackingu-w-ubuntu.html i man <nazwa narzędnia> Pytaj się na kanałach IRC np. na ubutnu czy ogólnie Linuksowym, tam ci pewnie ktoś da odpowiedz ;D
P-43638
akwes
Temat założony przez niniejszego użytkownika
» 2011-11-09 20:51:18
Pomógł mi PageNest,

@Drraven
nawet nie próbowałem robić listy txt bo nazwy katalogów i plików są z losowych id... :P
P-43645
« 1 »
  Strona 1 z 1