У меня есть многопоточный скрипт, который иногда зависает при подключении к серверу, но сервер ничего не отправляет обратно. Netstat показывает подключенный сокет tcp. Это происходит, даже если у меня установлен TIMEOUT. Тайм-аут отлично работает в сценарии без нити. Вот пример кода.
def xmlscraper(url):
htmlpage = StringIO.StringIO()
rheader = StringIO.StringIO()
c = pycurl.Curl()
c.setopt(pycurl.USERAGENT, "user agent string")
c.setopt(pycurl.CONNECTTIMEOUT, 60)
c.setopt(pycurl.TIMEOUT, 120)
c.setopt(pycurl.FOLLOWLOCATION, 1)
c.setopt(pycurl.WRITEFUNCTION, htmlpage.write)
c.setopt(pycurl.HEADERFUNCTION, rheader.write)
c.setopt(pycurl.HTTPHEADER, ['Expect:'])
c.setopt(pycurl.NOSIGNAL, 1)
c.setopt(pycurl.URL, url)
c.setopt(pycurl.HTTPGET, 1)
pycurl.global_init(pycurl.GLOBAL_ALL)
for url in urllist:
t = threading.Thread(target=xmlscraper, args=(url,))
t.start()
Любая помощь будет принята с благодарностью! уже несколько недель пытается решить эту проблему.
править: В URL-адресе около 10 URL-адресов. Кажется, не имеет значения, сколько их.
edit2: Я только что протестировал этот код ниже. Я использовал скрипт php, который спит 100 секунд.
import threading
import pycurl
def testf():
c = pycurl.Curl()
c.setopt(pycurl.CONNECTTIMEOUT, 3)
c.setopt(pycurl.TIMEOUT, 6)
c.setopt(pycurl.NOSIGNAL, 1)
c.setopt(pycurl.URL, 'http://xxx.xxx.xxx.xxx/test.php')
c.setopt(pycurl.HTTPGET, 1)
c.perform()
t = threading.Thread(target=testf)
t.start()
t.join()
Pycurl в этом коде корректно истекает по таймауту. Полагаю, это как-то связано с количеством URL-адресов? GIL?
edit3:
Я думаю, это может быть связано с самой libcurl, потому что иногда, когда я проверяю сценарий, libcurl все еще подключен к серверу в течение нескольких часов подряд. Если время ожидания pycurl истекло, сокет был бы закрыт.