Интересно, смогу ли я как-нибудь автоматизировать это?
Вряд ли это необходимо, но да, вы можете написать несколько простых сценариев.
ребята, вы знаете инструмент ... который бы облегчил такую загрузку?
Wget, Curl, и т. д.
Вы можете поместить 1000 конкретных URL-адресов в текстовый файл, создать две директории, перейти в первый каталог и использовать инструмент, например, wget
с -i
возможностью прочитать список URL-адресов и получить их. Через месяц повторите это во втором каталоге, используйте diff, например, diff -r /directory1 /directory2
чтобы найти какие-либо изменения.
Будьте осторожны при использовании рекурсивных опций, они могут перегружать сервер и блокировать вас или могут перегружать ваш компьютер.
Я бы попробовал сначала с небольшим набором URL (например, 2, затем 10, затем 1000).
Более дешевым вариантом может быть использование запросов HTTP HEAD и доверие к серверу, который знает, был ли изменен ресурс.
Видите запрос Wget HEAD?