Множественные (асинхронные) соединения с urllib2 или другой http-библиотекой?

У меня есть такой код.

for p in range(1,1000):
    result = False
    while result is False:
        ret = urllib2.Request('http://server/?'+str(p))
        try:
            result = process(urllib2.urlopen(ret).read())
        except (urllib2.HTTPError, urllib2.URLError):
            pass
    results.append(result)

Я хотел бы сделать два или три запроса одновременно, чтобы ускорить это. Могу ли я использовать для этого urllib2 и как? Если нет, то какую другую библиотеку мне следует использовать? Спасибо.

12
задан 7 November 2010 в 21:04
поделиться