Как лучше всего сохранить целую веб-страницу на сервер Linux?

Мне нужно заархивировать полные страницы, включая любые связанные изображения и т. Д. На моем сервере Linux. Ищем лучшее решение. Есть ли способ сохранить все ресурсы, а затем заново связать их для работы в одном каталоге?

Я думал об использовании curl, но не знаю, как это все сделать. Также, может мне понадобится PHP-DOM?

Есть ли способ использовать firefox на сервере и копировать временные файлы после загрузки адреса или аналогичные?

Любой ввод приветствуется.

Изменить:

Похоже, что wget "не" будет работать, так как файлы должны быть отрисованы. У меня на сервере установлен firefox, есть ли способ загрузить URL-адрес в firefox, а затем получить временные файлы и очистить временные файлы после?

12
задан Tomas 22 January 2011 в 18:57
поделиться