Google: rel=canonical – более значимый сигнал, чем канонические страницы в Sitemap
Google обновил справочный документ, который посвящен консолидации повторяющихся URL. Теперь в нем содержится информация о том, как поисковая система расценивает различные виды каноникализации страниц.
Теперь Google официально подтвердил, что канонические страницы в файлах Sitemap для Googlebot считаются менее сильным сигналом, чем атрибут rel=canonical.
Дженнифер Слэгг из The SEM Post объяснила, почему канонические страницы, указанные в файле Sitemap являются более слабым сигналом. Причины следующие:
- Многие генераторы файлов Sitemap, используемые сайтами, по умолчанию включают в карту каждый URL на сайте, даже в том случае, если отдельные страницы содержат атрибут rel=canonical.
- Некоторые вебмастера не обновляют файл Sitemap так же часто, как свои сайты. Это приводит к тому, что в них могут содержаться устаревшие данные.
- Даже если файл Sitemap сделан правильно, Googlebot все равно должен будет определить повторяющуюся страницу для каждой канонической, которая будет в нем указана. Этот процесс не всегда проходит гладко.
Google советует использовать атрибут rel=canonical для каноникализации страниц.
Источник: The SEM Post
Случилось что-то важное? Поделитесь новостью с редакцией.
-
Друзья мои ... когда вы наконец "поверите, а поймёте потом" ... Дубли адресов ... порождаются КРИВЫМИ "движками", аля Ворбпресс и так далее. НЕУЖЕЛИ ПРОГРАММИСТЫ не могут сделать чтобы у CMS-ки на уровне программинга у страницы был 1 адрес? Как программист программисту -- это какой-то вселенский заговор и развод. Вордпресс и etc. ВСЕМИРНО создают дубли, гугл тратит МИЛЛИАРДЫ на "искусственный интеллект" их устранение в поисковых алгоритмах, СЕО-шники в...Друзья мои ... когда вы наконец "поверите, а поймёте потом" ... Дубли адресов ... порождаются КРИВЫМИ "движками", аля Ворбпресс и так далее. НЕУЖЕЛИ ПРОГРАММИСТЫ не могут сделать чтобы у CMS-ки на уровне программинга у страницы был 1 адрес? Как программист программисту -- это какой-то вселенский заговор и развод. Вордпресс и etc. ВСЕМИРНО создают дубли, гугл тратит МИЛЛИАРДЫ на "искусственный интеллект" их устранение в поисковых алгоритмах, СЕО-шники всего мира объединились ... а ОПЛАЧИВАЕТ ... КЛИЕНТ, хозяин сайта. А всего-то у кого-то когда-то были КРИВЫЕ руки, ген чего передался программистам-наследникам. Лучше так понимать, чем думать что что в сумме это индустрия ОБМАНА.