Я пытаюсь сделать программу, которая может преобразовать серию сканирований манги в один файл PDF, и я не хочу должным быть пытаться загрузить изображение, чтобы определить, есть ли у меня правильный URL. Существуют ли сценарии оболочки, управляют, чтобы я мог использовать для просто проверки, если веб-страница существует?
В * NIX вы можете использовать curl
для выполнения простого запроса HEAD
( HEAD
запрашивает только заголовки , а не тело страницы):
curl --head http://myurl/
Затем вы можете взять только первую строку, которая содержит код состояния HTTP (200 OK, 404 Not Found и т. д.):
curl -s --head http://myurl/ | head -n 1
И затем проверьте, получили ли вы достойный ответ ( код состояния - 200 или 3 **):
curl -s --head http://myurl/ | head -n 1 | grep "HTTP/1.[01] [23].."
Будет выведена первая строка, если код состояния в порядке, или ничего, если нет. Вы также можете передать это в / dev / null, чтобы не выводить данные, и используйте $?
, чтобы определить, сработало это или нет:
curl -s --head http://myurl/ | head -n 1 | grep "HTTP/1.[01] [23].." > /dev/null
# on success (page exists), $? will be 0; on failure (page does not exist or
# is unreachable), $? will be 1
EDIT -s
просто сообщает curl
, чтобы не отображать «индикатор выполнения».
wget или cURL выполнит задание. См. Здесь wget или cURL для получения дополнительных сведений и мест для загрузки. Укажите URL-адрес этих инструментов командной строки и проверьте ответ.