Как анализировать XML-карту сайта с помощью PHP Curl и индивидуально загружать каждый URL-адрес

Я пытаюсь написать сценарий, который будет читать удаленный sitemap.xml и анализировать URL-адреса в нем, а затем загружать каждый из них по очереди, чтобы предварительно кэшировать их для более быстрого просмотра.

Причина этого: система, которую мы разрабатываем, записывает DITA XML в браузер на лету, и при первой загрузке страницы ожидание может составлять от 8 до 10 секунд. Последующие нагрузки после этого могут длиться всего 1 секунду. Очевидно, что для лучшего UX предварительно кэшированные страницы являются бонусом.

Каждый раз, когда мы готовим новую публикацию на этом сервере или выполняем какое-либо тестирование / исправление, мы должны очищать кеш, поэтому идея состоит в том, чтобы написать сценарий, который будет анализировать карту сайта и загружать каждый URL.

После выполнения Немного прочитав, я решил, что лучший способ - использовать PHP и Curl. Не знаю, хорошая это идея или нет. Я больше знаком с Perl, но ни PHP, ни Perl в настоящее время не установлены в системе, поэтому я подумал, что было бы неплохо окунуться в пул PHP.

Код, который я до сих пор выхватил из интернета читает sitemap.xml и записывает его в XML-файл на нашем сервере, а также отображает его в браузере. Если мне что-то не хватает (кроме способности писать PHP. Пожалуйста, скажите; -)

Спасибо.

6
задан Hedley Phillips 12 May 2011 в 11:24
поделиться