Мне нужно заархивировать полные страницы, включая любые связанные изображения и т. Д. На моем сервере Linux. Ищем лучшее решение. Есть ли способ сохранить все ресурсы, а затем заново связать их для работы в одном каталоге?
Я думал об использовании curl, но не знаю, как это все сделать. Также, может мне понадобится PHP-DOM?
Есть ли способ использовать firefox на сервере и копировать временные файлы после загрузки адреса или аналогичные?
Любой ввод приветствуется.
Изменить:
Похоже, что wget "не" будет работать, так как файлы должны быть отрисованы. У меня на сервере установлен firefox, есть ли способ загрузить URL-адрес в firefox, а затем получить временные файлы и очистить временные файлы после?