Вы не можете ссылаться на сам документ в обновлении (пока). Вам нужно будет перебирать документы и обновлять каждый документ с помощью функции. См. этот ответ для примера, или этот для серверной стороны eval()
.
Я смог произвести полезный вывод со следующей командой:
$ wget --spider -r -nv -nd -np http://localhost:3209/ 2>&1 | ack -o '(?<=URL:)\S+'
http://localhost:3209/
http://localhost:3209/robots.txt
http://localhost:3209/agenda/2008/08
http://localhost:3209/agenda/2008/10
http://localhost:3209/agenda/2008/09/01
http://localhost:3209/agenda/2008/09/02
http://localhost:3209/agenda/2008/09/03
^C
wget
аргументы:# --spider don't download anything.
# -r, --recursive specify recursive download.
# -nv, --no-verbose turn off verboseness, without being quiet.
# -nd, --no-directories don't create directories.
# -np, --no-parent don't ascend to the parent directory.
ack
ack
похож grep
но используйте perl
regexps, которые более полны/мощны.
-o
говорит ack
чтобы только произвести подобранную подстроку и шаблон, я использовал, ищет что-либо непространство, которому предшествуют 'URL:'
Вы могли довольно быстро взломать вместе программу, которая захватывает вывод rake routes
и затем анализирует вывод для соединения списка URL.
То, что я, обычно, делал для тестирования загрузки, должно использовать инструмент как WebLOAD и сценарий несколько различных типов сеансов пользователя (или различные пользователи маршрутов могут взять). Затем я создаю соединение сеансов пользователя и выполняю их через веб-сайт для получения чего-то близко к точной картине того, как сайт мог бы работать.
Обычно я также сделаю это на в общей сложности 4 различных машинах, выполняющих приблизительно 80 сессий параллельного пользователя, чтобы реалистично моделировать то, что будет происходить через приложение. Это также удостоверяется, что я не провожу чрезмерно много времени, оптимизируя нечасто посещаемые страницы и могу, вместо этого, сконцентрироваться на полной производительности приложения вдоль критических путей.