Ajax Crawling: старый способ vs новый (#!)

Старый способ

Когда я использовал асинхронную загрузку страницы в проектах, которые требовали, чтобы контент индексировался поисковыми системами, я использовал очень простой метод, это

<a href="page.html" id="example">Page</a>
<script type="text/javascript">
    $('#example').click(function(){
        $.ajax({
            url: 'ajax/page.html',
            success: function(data){
                $('#content').html(data);
            }
        })
   });
</script>

edit: я использовал для реализации события haschange для поддержки закладок для пользователей javascript.

Новый способ

Недавно в Google появилась идея сканирования ajax, читайте об этом здесь:

http://code.google.com/web/ajaxcrawling/

http: // www. asual.com/jquery/address/samples/crawling/

В основном они предлагают изменить "website.com/#page" на "website.com/#!page" и добавить страницу, содержащую фрагмент, например "website" .com /? _ escaped_fragment_ = page "

В чем преимущество использования нового способа?

Мне кажется, что новый способ добавляет намного больше работы и сложности к тому, что раньше я делал простым способом: я разработал веб-сайт для работы без ajax, а затем я добавил событие ajax и hashchange (для поддержки кнопки возврата и закладок) на заключительном этапе.

С точки зрения SEO, каковы преимущества использования нового способа?

12
задан nemesisdesign 13 November 2010 в 13:00
поделиться