Оба поддерживаются всеми сканерами, которые уважают пожелания веб-мастеров. Не все делают, но против них ни техника не достаточна.
Вы можете использовать правила robots.txt для общих целей, например запретить целые разделы вашего сайта. Если вы говорите Disallow: /family
, то все ссылки, начинающиеся с /family
, не индексируются сканером.
Метатег можно использовать для запрета одной страницы. Страницы, запрещенные метатегами, не влияют на подстраницы в иерархии страниц. Если у вас есть мета-тег запрещения /work
, это не мешает сканеру получить доступ к /work/my-publications
, если на разрешенной странице есть ссылка на него.
Если вы имеете в виду Visual Studio 2008, а не программным способом, то простой способ сделать это:
Перейти в обозреватель управления исходным кодом (откройте Team Explorer и нажмите «Источник» Контроль). Затем перейдите к файлу, который вы проверяете, и там есть столбец, для которого пользователь извлек этот конкретный файл.
Внутри Visual Studio интерфейс обозревателя решений довольно ограничен - он должен поддерживать стандартизованный набор функций для взаимодействия со всеми поставщиками SCC.
Обозреватель управления исходным кодом (просмотр -> другие окна -> система управления версиями explorer) является родным для TFS и намного более мощным. Здесь вы можете напрямую просматривать вид на стороне сервера. На панели сведений справа есть столбец, в котором вы можете увидеть информацию о проверке.
Однако, если несколько человек извлекли файл, он не сможет показать все. Полный дамп записей оформления заказа можно получить, щелкнув правой кнопкой мыши -> Свойства -> Статус. Или вы можете запустить командную строку * tf status $ / path / to / item / user: **
Visual Studio также имеет эту дурную привычку. Кажется, что файл был извлечен кем-то другим в обозревателе решений, но на самом деле это не так. Обновить не работает. Source Control Explorer показывает это правильно.