У меня есть веб-сайт ASP.NET, смешанный с классическим asp (мы работаем над преобразованием в .NET), и я недавно обновлен с .NET 1.1 до .NET 4.0 и перешел на интегрированный конвейер в IIS 7.
Поскольку эти изменения, ELMAH сообщает об ошибках классических страниц asp практически без подробностей (и с кодом состояния 404):
System.Web.HttpException (0x80004005)
at System.Web.CachedPathData.ValidatePath(String physicalPath)
at System.Web.HttpApplication.PipelineStepManager.ValidateHelper(HttpContext context)
Но когда я сам запрашиваю страницу, ошибки не возникает. Все эти ошибки, появляющиеся в ELMAH, вызваны поисковым роботом Googlebot (строка пользовательского агента).
Почему .NET обнаруживает ошибки для классических asp-страниц? Связано ли это со встроенным конвейером?
Есть идеи, почему ошибка возникает только тогда, когда Google сканирует страницу, или как я могу получить более подробную информацию, чтобы найти основную ошибку?