На конференции, проводимой компанией Google для СЕО-оптимизаторов, был поднят извечный вопрос – почему многие старые сайты, даже работающие по протоколу HTTP, поднимаются в поисковой выдаче выше аналогичных новых ресурсов с актуальным наполнением.
Судя по словам Джона Мюллера кроме более высокой авторитетности старых сайтов на их приоритетное ранжирование влияют следующие факторы:
- Несмотря на настойчивые рекомендации Google относительно переноса сайтов на защищенный протокол HTTPS, использование HTTP слабо влияет на ранжирование старого ресурса.
- При ранжировании сайта часто не учитывается новизна контента (сотрудники Гугла заверяют, что многое тут зависит от того, что ищут пользователи).
- Критерием популярности и релевантности страницы могут выступать многочисленные внешние ссылки (что, как правило, нехарактерно для новых сайтов).
- Некоторые тематики рассматриваются как «вечно актуальные» и поэтому старые тексты заслуженно занимают ТОП в поисковой выдаче (кстати, это реально помогает сохранить содержание многих статей от искажения некомпетентными рерайтерами, особенно это важно в медицинской тематике, где «новые» описания болезней и лекарств могут оказаться весьма опасными).
- Старые сайты высоко ранжируются, потому что к ним больше доверия пользователей.
Тем не менее, если поведение пользователей свидетельствует, что им нужен именно актуальный контент, то Google отдаст предпочтение новым ресурсам. Кстати, сотрудник Гугла Гэри Илш порекомендовал оптимизаторам не удалять с сайтов старый контент, даже если он стал неактуальным (это помогает сохранить поисковый трафик, хотя и далеко не всегда удобно для пользователей).