Частные собственности позволяют Вам абстрагировать свои внутренние данные так, чтобы изменения во внутреннем представлении не должны были влиять на другие части Вашей реализации, даже в том же классе. Частные поля не предлагают это преимущество. С автоматическими свойствами в C# 3.0 я редко вижу потребность реализовать поля непосредственно - частный или общедоступный.
Я использую Xenu's Link Sleuth для такого рода вещей . Быстро проверяйте отсутствие мертвых ссылок и т. Д. На любом сайте. Просто укажите ему любой URI, и он просканирует все ссылки на этом сайте.
Описание с сайта:
Xenu's Link Sleuth (TM) проверяет Интернет сайты на битые ссылки. Ссылка проверка сделана на "нормальном" ссылки, изображения, фреймы, плагины, фоны, локальные карты изображений, стиль листы, скрипты и java-апплеты. Это отображает постоянно обновляемый список URL-адреса, которые можно сортировать по разным критерии. Отчет можно составить на в любое время.
Оно отвечает всем вашим требованиям, кроме возможности использования сценариев, поскольку это приложение для Windows, которое требует запуска вручную.
Какой части вашего списка не соответствует средство проверки ссылок W3C? Я бы использовал именно его.
В качестве альтернативы, twill (основанный на Python) - интересный маленький язык для такого рода вещей. У него есть модуль проверки ссылок , но я не думаю, что он работает рекурсивно, так что это не очень хорошо для пауков. Но вы можете изменить его, если вам это удобно. И я мог ошибаться, может быть рекурсивный вариант. В любом случае стоит проверить.
Вы можете попробовать использовать для этого wget. Он может сканировать сайт, включая «реквизиты страницы» (то есть файлы), и его можно настроить для регистрации ошибок. Я не знаю, будет ли в нем достаточно информации для вас, но он бесплатный и доступен в Windows (cygwin), а также в unix.
Я не уверен, что он поддерживает аутентификацию с помощью форм, но он будет обрабатывать файлы cookie, если вы сможете разместить их на сайте, а в противном случае я думаю, что Checkbot сделает все на вашем список. Раньше я использовал как шаг в процессе сборки, чтобы проверить, что на сайте ничего не сломано. На сайте есть пример вывода .
InSite - это коммерческая программа, которая, кажется, делает то, что вы хотите (не использовали).
Если бы я был на вашем месте, я бы, наверное, сам написал такого паука ...
Мы используем и очень любим Linkchecker:
http://wummel.github.io/linkchecker/
Это открытый исходный код, Python, командная строка, внутреннее развертывание и вывод в различных форматах. Разработчик нам очень помог, когда мы связались с ним с проблемами.
У нас есть сценарий Ruby, который запрашивает нашу базу данных внутренних веб-сайтов,
Мне всегда нравился linklint для проверки ссылок на сайте. Однако я не думаю, что он соответствует всем вашим критериям, особенно аспектам, которые могут зависеть от JavaScript. Я также думаю, что он будет пропускать изображения, вызываемые изнутри CSS.
Попробуйте SortSite . Это не бесплатно, но, похоже, делает все, что вам нужно, и даже больше.
В качестве альтернативы PowerMapper от той же компании использует аналогичный, но другой подход. Последний предоставит вам меньше информации о детальной оптимизации ваших страниц, но все равно будет определять все неработающие ссылки и т. Д.
Заявление об ограничении ответственности: у меня есть финансовая заинтересованность в компании, которая производит эти продукты.