как я могу зафиксировать 404 и 403 ошибки для страниц в Python и urllib (2), например?
Есть ли какие-либо быстрые пути без больших оберток класса?
Добавленная информация (отслеживание стека):
Traceback (most recent call last):
File "test.py", line 3, in <module>
page = urllib2.urlopen("http://localhost:4444")
File "/usr/lib/python2.6/urllib2.py", line 126, in urlopen
return _opener.open(url, data, timeout)
File "/usr/lib/python2.6/urllib2.py", line 391, in open
response = self._open(req, data)
File "/usr/lib/python2.6/urllib2.py", line 409, in _open
'_open', req)
File "/usr/lib/python2.6/urllib2.py", line 369, in _call_chain
result = func(*args)
File "/usr/lib/python2.6/urllib2.py", line 1161, in http_open
return self.do_open(httplib.HTTPConnection, req)
File "/usr/lib/python2.6/urllib2.py", line 1136, in do_open
raise URLError(err)
urllib2.URLError: <urlopen error [Errno 111] Connection refused>
import urllib2
try:
page = urllib2.urlopen("some url")
except urllib2.HTTPError, err:
if err.code == 404:
print "Page not found!"
elif err.code == 403:
print "Access denied!"
else:
print "Something happened! Error code", err.code
except urllib2.URLError, err:
print "Some other error happened:", err.reason
В вашем случае ошибка возникает еще до того, как HTTP-соединение может быть построено, поэтому вам нужно добавить еще один обработчик ошибок, который перехватывает URLError
. Но это не имеет ничего общего с ошибками 404 или 403.
req = urllib2.Request('url')
>>> try:
>>> urllib2.urlopen(req)
>>> except urllib2.URLError, e:
>>> print e.code
>>> print e.read()