На этот вопрос уже есть ответ:
Я получаю куча относительно небольших страниц с веб-сайта, и мне было интересно, могу ли я как-то сделать это параллельно в Bash. В настоящее время мой код выглядит так, но для его выполнения требуется время (я думаю, что меня тормозит, так это задержка в connection).
for i in {1..42}
do
wget "https://www.example.com/page$i.html"
done
Я слышал об использовании xargs, но я ничего об этом не знаю, а справочная страница очень сбивает с толку. Есть идеи? Можно ли вообще сделать это параллельно? Есть другой способ, которым я могу пойти насчет нападения на это?