wget или curl из stdin

Я хотел бы загружать веб-страницы, одновременно предоставляя URL-адреса из stdin. По сути, один процесс непрерывно создает URL-адреса для stdout / file, и я хочу передать их по конвейеру в wget или curl. (Подумайте, о нем как о простом веб-сканере, если хотите).

Кажется, это работает нормально:

tail 1.log | wget -i - -O - -q 

Но когда я использую 'tail -f', он больше не работает (буферизация или wget ожидает EOF?):

tail -f 1.log | wget -i - -O - -q

Может ли кто-нибудь предоставить решение, используя wget, curl или любой другой стандартный инструмент Unix? В идеале я не хочу перезапускать wget в цикле, просто продолжайте загружать URL-адреса по мере их поступления.

15
задан Steven Penny 30 November 2016 в 13:56
поделиться