От автора: на Google I/O представители поисковика рассказали о проблемах, связанных с индексацией и анализом кода JavaScript на веб-страницах.
Представители Google рассказали, что поисковый краулер анализирует код JS в два этапа: первичный проход и полный рендеринг, который осуществляется спустя несколько дней. При этом робот может упустить из виду важные элементы структуры веб-страниц. Например, метатеги и rel=”canonical”. Что может негативно сказаться на результатах ранжирования.
Такое возможно на одностраничных сайтах, построенных на базе Progressive Web Apps. На этих ресурсах структура URL базируется на одном перечне ресурсов, которые автоматически заполняются контентом в ответ на Fetch-запросы или с помощью AJAX.
Если «сборка» веб-страниц происходит в браузере, то при первом проходе поисковый робот не выявит канонические URL. Во время следующего анализа краулер не проверяет эти html-теги, поэтому данные ссылки могут быть не учтены.
Чтобы избежать таких проблем, Джон Мюллер рекомендует использовать динамический рендеринг, при котором поисковый робот получает полную версию веб-страницы. А версия с использование JS отправляется пользователю.
Источник: https://www.searchengines.ru/