pycurl / curl не соответствует параметру CURLOPT_TIMEOUT

У меня есть многопоточный скрипт, который иногда зависает при подключении к серверу, но сервер ничего не отправляет обратно. Netstat показывает подключенный сокет tcp. Это происходит, даже если у меня установлен TIMEOUT. Тайм-аут отлично работает в сценарии без нити. Вот пример кода.

def xmlscraper(url):
  htmlpage = StringIO.StringIO()
  rheader = StringIO.StringIO()
  c = pycurl.Curl()
  c.setopt(pycurl.USERAGENT, "user agent string")
  c.setopt(pycurl.CONNECTTIMEOUT, 60)
  c.setopt(pycurl.TIMEOUT, 120)
  c.setopt(pycurl.FOLLOWLOCATION, 1)
  c.setopt(pycurl.WRITEFUNCTION, htmlpage.write)
  c.setopt(pycurl.HEADERFUNCTION, rheader.write)
  c.setopt(pycurl.HTTPHEADER, ['Expect:'])
  c.setopt(pycurl.NOSIGNAL, 1)
  c.setopt(pycurl.URL, url)
  c.setopt(pycurl.HTTPGET, 1)

pycurl.global_init(pycurl.GLOBAL_ALL)
for url in urllist:
    t = threading.Thread(target=xmlscraper, args=(url,))
    t.start()

Любая помощь будет принята с благодарностью! уже несколько недель пытается решить эту проблему.

править: В URL-адресе около 10 URL-адресов. Кажется, не имеет значения, сколько их.

edit2: Я только что протестировал этот код ниже. Я использовал скрипт php, который спит 100 секунд.

import threading
import pycurl
def testf():
    c = pycurl.Curl()
    c.setopt(pycurl.CONNECTTIMEOUT, 3)
    c.setopt(pycurl.TIMEOUT, 6)
    c.setopt(pycurl.NOSIGNAL, 1)
    c.setopt(pycurl.URL, 'http://xxx.xxx.xxx.xxx/test.php')
    c.setopt(pycurl.HTTPGET, 1)
    c.perform()
t = threading.Thread(target=testf)
t.start()
t.join()

Pycurl в этом коде корректно истекает по таймауту. Полагаю, это как-то связано с количеством URL-адресов? GIL?

edit3:

Я думаю, это может быть связано с самой libcurl, потому что иногда, когда я проверяю сценарий, libcurl все еще подключен к серверу в течение нескольких часов подряд. Если время ожидания pycurl истекло, сокет был бы закрыт.

5
задан Incognito 28 December 2010 в 23:09
поделиться