Загрузить всю директорию с помощью wget
Я пытаюсь загрузить файлы для проекта с помощью wget, поскольку сервер SVN для этого проекта больше не работает, и я могу получить доступ к браузеру файлов.
Базовые URL-адреса для всех файлов такие же, как -
http://abc.tamu.edu/projects/tzivi/repository/revisions/2/raw/tzivi/ *
Как я могу использовать wget или любой другой инструмент для загрузки всех файлов в этом репозитории, где папка "tzivi" является корневой папкой, и под ней находятся несколько файлов и подпапок (до 2 или 3 уровня).
Ответы
Ответ 1
Вы можете использовать это в оболочке:
wget -r --no-parent http://abc.tamu.edu/projects/tzivi/repository/revisions/2/raw/tzivi/
Параметры:
-r //recursive Download
и
--no-parent // Don´t download something from the parent directory
Если вы не хотите загружать весь контент, вы можете использовать:
-l1 just download the directory (tzivi in your case)
-l2 download the directory and all level 1 subfolders ('tzivi/something' but not 'tivizi/somthing/foo')
И так далее. Если вы введете опцию -l
, wget
будет автоматически использовать -l 5
.
Если вы введете -l 0
, вы загрузите весь Интернет, потому что wget
будет следовать каждой найденной ссылке.
Ответ 2
Вы можете использовать это в оболочке:
wget -r -nH --cut-dirs=7 --reject="index.html*" \
http://abc.tamu.edu/projects/tzivi/repository/revisions/2/raw/tzivi/
Параметры:
-r recursively download
-nH (--no-host-directories) cuts out hostname
--cut-dirs=X (cuts out X directories)
Ответ 3
используйте команду
wget -m www.ilanni.com/nexus/content/
Ответ 4
вы также можете использовать эту команду:
wget --mirror -pc --convert-links -P ./your-local-dir/ http://www.your-website.com
чтобы получить точное зеркало веб-сайта, которое вы хотите загрузить