Убрать масштабное преобразование из стиля container-team
. Именно это и вызывает проблему на вашей странице.
Ваше подозрение верное - нельзя полагаться на то, что сгенерированный JS контент виден поисковым роботам. Его также никто не может увидеть с отключенным JS - и в последний раз я добавил несколько тестов на сайт, над которым я работал (это был большой сайт с широкой аудиторией, с сотнями тысяч уникальных посетителей в месяц) около 10% пользователей не запускали Javascript ни в какой форме. Сюда входят поисковые роботы, браузеры ПК с отключенной JS, многие мобильные телефоны, слепые люди, использующие программы чтения с экрана ... и т. Д. И т. Д.
Именно поэтому контент, сгенерированный с помощью JS (без опции отката), является действительно плохой идеей.
Назад к основам. Во-первых, создайте свой сайт, используя bare-bones (X) HTML , на принципах, подобных REST (по крайней мере, в той степени, в которой требуются запросы POST для изменений состояния). Простая семантическая разметка, и забудьте о CSS и Javascript.
Первый шаг - это сделать это правильно и сделать так, чтобы весь ваш сайт (или столько, сколько имеет смысл) хорошо работал для поисковых роботов и Lynx-подобных пользовательских агентов.
Затем добавьте визуальный элемент layer : CSS / graphics / media для визуальной полировки, но не вносите существенных изменений в исходную (X) разметку HTML; позволяют оригинальному текстовому сайту оставаться нетронутым и функционировать. Держите разметку в чистоте!
В-третьих, добавьте поведенческий слой : Javascript (Ajax). Предлагайте вещи, которые делают работу быстрее, плавнее, приятнее для пользователей / браузеров с поддержкой Ajax JS ... но только для тех пользователей. Пользователи без Javascript по-прежнему приветствуются; как и поисковые роботы, слабовидящие, многие мобильные телефоны и т. д.
Это называется прогрессивное улучшение в кругах веб-дизайна. Сделайте это так, и ваш сайт работает,
Google работает над выполнением простого Javascript для раскрытия некоторого контента, но они, конечно, не выполняют полные сценарии. Если вы беспокоитесь о SEO, вам следует рассмотреть возможность предоставления статических версий страниц.
если поисковая система также не может увидеть сгенерированный HTML, то индексировать не так много
. Технически ничто не мешает поисковой системе реализовать движок javascript для своего бота / паука, но это обычно не делается. Они могли, но не будут.
С другой стороны, вы можете прослушать пользовательский агент поисковой системы и предоставить ему что-нибудь читабельное. Но поисковым системам это обычно не нравится, и они будут наказаны довольно сурово, если обнаружат различия с тем, что вы отправляете в обычный браузер.
Хорошее практическое правило: если вы можете увидеть его в Lynx , он может быть проиндексирован Google.
Lynx - отличный тест, потому что он также дает вам Идея о том, как программы чтения с экрана для слепых увидят и вашу страницу.
В GWT есть несколько способов справиться с этим, это - отличное обсуждение на эту тему. Похоже, что лучший вариант - обслуживать статический SEO-контент, когда пользовательский агент является ботом, при условии, что SEO-контент идентичен тому, что обслуживается по маршруту GWT. Это может потребовать много работы, но если вам действительно нужно полноценное приложение GWT, оптимизированное для поисковых систем, оно того стоит.