Как я могу получить изображения общедоступного веб-сайта с помощью wget?

3899
3498DB

Как я могу получить изображения общедоступного веб-сайта с помощью wget? Это небольшой сайт: около 40 страниц и около трех изображений на страницу.

Я хочу избежать:

  1. Загрузка изображений вручную
  2. Скачивание всего сайта

Есть идеи?

4
Я действительно хочу сделать это для Stack Overflow и SO Trilogy для их нездоровых макетов, на sstatic.net. Maxim Zaslavsky 14 лет назад 0

4 ответа на вопрос

7
user10547

Вы можете использовать wget и сказать ему, что нужно загружать только файлы изображений или использовать http://www.downthemall.net/

С http://www.delorie.com/gnu/docs/wget/wget_31.html

Вы хотите загрузить все GIF-файлы из каталога на HTTP-сервере. Вы пробовали `wget http://www.server.com/dir/ * .gif ', но это не сработало, потому что HTTP-поиск не поддерживает глобализацию. В этом случае используйте:

wget -r -l1 --no-parent -A.gif http://www.server.com/dir/ 

Более многословно, но эффект тот же. -r -l1' means to retrieve recursively (see section 3. Recursive Retrieval), with maximum depth of 1.--no-parent 'означает, что ссылки на родительский каталог игнорируются (см. раздел 4.3 Ограничения на основе каталога), и -A.gif' means to download only the GIF files.-A "* .gif"' тоже сработало бы.

Это дух !! Почему я не могу поддержать тебя? ... 14 лет назад 1
вам нужно 15 очков кармы, чтобы проголосовать ... но я могу :) +1 14 лет назад 0
1
user101906

Я пишу утилиту с именем ifetch, вы можете попробовать. http://sourceforge.net/p/ifetch/wiki/Home/

0
0
Lazer

см это .

Второй шаблон - это все картинки сайта . Я думаю, это то, что вы хотели?

Похожие вопросы