Когда я использовал асинхронную загрузку страницы в проектах, которые требовали, чтобы контент индексировался поисковыми системами, я использовал очень простой метод, это
<a href="page.html" id="example">Page</a>
<script type="text/javascript">
$('#example').click(function(){
$.ajax({
url: 'ajax/page.html',
success: function(data){
$('#content').html(data);
}
})
});
</script>
edit: я использовал для реализации события haschange для поддержки закладок для пользователей javascript.
Недавно в Google появилась идея сканирования ajax, читайте об этом здесь:
http://code.google.com/web/ajaxcrawling/
http: // www. asual.com/jquery/address/samples/crawling/
В основном они предлагают изменить "website.com/#page" на "website.com/#!page" и добавить страницу, содержащую фрагмент, например "website" .com /? _ escaped_fragment_ = page "
Мне кажется, что новый способ добавляет намного больше работы и сложности к тому, что раньше я делал простым способом: я разработал веб-сайт для работы без ajax, а затем я добавил событие ajax и hashchange (для поддержки кнопки возврата и закладок) на заключительном этапе.
С точки зрения SEO, каковы преимущества использования нового способа?