Я хотел бы загружать веб-страницы, одновременно предоставляя URL-адреса из stdin. По сути, один процесс непрерывно создает URL-адреса для stdout / file, и я хочу передать их по конвейеру в wget или curl. (Подумайте, о нем как о простом веб-сканере, если хотите).
Кажется, это работает нормально:
tail 1.log | wget -i - -O - -q
Но когда я использую 'tail -f', он больше не работает (буферизация или wget ожидает EOF?):
tail -f 1.log | wget -i - -O - -q
Может ли кто-нибудь предоставить решение, используя wget, curl или любой другой стандартный инструмент Unix? В идеале я не хочу перезапускать wget в цикле, просто продолжайте загружать URL-адреса по мере их поступления.