Я работаю с urllib и urllib2 в python и использую их для извлечения изображений из URL-адресов.
Использование чего-то похожего на:
try: buffer=urllib2.url_open(urllib2.Request(url)) f.write(buffer) f.close except (Errors that could occur): #Network Errors(?) print "Failed to retrieve "+url pass
Теперь часто случается, что изображение не загружается/повреждается при использовании сайта через обычный веб-браузер, это предположительно из-за высокой нагрузки на сервер или из-за того, что изображение не существует или не может быть получено сервером.
Какой бы ни была причина, изображение не загружается и подобная ситуация может возникнуть и при использовании скрипта. Поскольку я не знаю, какую ошибку он может выдать, как мне с этим справиться?
Я думаю, что упоминание всех возможных ошибок в библиотеке urllib2, urllib в операторе exclude может быть излишним, поэтому мне нужен лучший способ.
(Мне также может понадобиться / придется обрабатывать сломанный Wi-Fi -Fi, недоступный сервер и тому подобное, поэтому иногда возникает больше ошибок)