Хит веб-сайт каждые X минут

896
studiohack

Существует ли какой-либо сценарий или служба, которая посещает указанный веб-сайт каждые X минут?

0
@ Donald - Как Apache эталонный тест? Каково ваше основное намерение? 13 лет назад 0
Похоже, как я могу сделать SEO для меня .... просто мысль. если это так, это провал. RobotHumans 13 лет назад 1
Windows или Unix? Michael Pryor 13 лет назад 0

6 ответов на вопрос

7
Marcelo Cantos

Чтобы ударить его каждые две минуты:

while true; do curl yourwebsite.com >/dev/null; sleep 120; done 

Если вы хотите, чтобы это работало весь день и ночь, воспользуйтесь какой-либо службой планирования заданий, такой как cron (но, конечно, без цикла while).

Это будет работать, но, вероятно, в итоге вы получите кучу загруженного HTML в каталоге, в котором вы его запустите :) 13 лет назад 0
@ Крис: Да, я знаю. Должно быть, я изменил его, чтобы вы свернулись, пока вы писали свой комментарий. :-) Marcelo Cantos 13 лет назад 0
wget -o / dev / null http://example.com ... о, вы уже исправили это, верно: D 13 лет назад 0
1
Jakob
import time import urllib  while True: time.sleep(60) place = urllib.urlopen('http://www.google.com') print place.code place.read() 
0

Вы смотрели на curl или wget и использовали его в сценарии оболочки или другом виде сценария?

0
Dov

Мне кажется, что керл не собирается этого делать. В конце концов, зачем вам постоянно получать данные, если они не меняются?

Я написал граббер спутниковых фотографий на Java, потому что хотел получать спутниковые фотографии каждые 15 минут.

Псевдокод выглядит так:

  1. скачать файл
  2. сравнить с последним файлом (это можно сделать путем сравнения длины, поскольку почти всегда, если длина одинакова, файл не изменяется. Вам все равно придется сравнивать байты, но только если длина файла не изменилась)
  3. если файлы одинаковые, спите и вернитесь к 1
  4. если они отличаются, запишите новый под новым порядковым номером (sat1.jpg, sat2.jpg и т. д., сохраните новый как старое изображение для следующего сна, затем вернитесь к 1.
0
Arjan

Хотя эта часть вашего вопроса не по теме, для полноты: на сайте onlinecronservices.com перечислены некоторые веб-сервисы, которые могут выполнять удаленные вызовы за вас. Полагаю, бесплатные услуги не слишком надежны или допускают только один вызов в день .

0
madmaze

Используйте wget с заданием cron. по крайней мере, под Linux. Вот так я запускаю свои скрипты резервного копирования и db-syncs на своих сайтах