Рейтинг:  5 / 5

Звезда активнаЗвезда активнаЗвезда активнаЗвезда активнаЗвезда активна
 

Дубли страниц: оценка ущерба, вычисление и ликвидация

 

Дубли страниц - это дублирующие друг друга страницы в рамках одного ресурса, которые содержат схожий полностью или частично схожий контент, а также могут быть проиндексированы поисковыми системами и не имеют ограничения для добавления в индексируемую базу данных поисковых систем. Например, многие CMS системы генерируют однотипные страницы с контентом, который дублируется - это и является дублями искомой страницы. Такие страницы способны значительно снизить метрические показатели посещаемости сайта и в целом снизить эффективность продвижения сайта. Поэтому необходимо знать, как находить и распознавать их, дабы вовремя устранять потенциальную угрозу.

Определение дублей страниц

Под дублями в SEO подразумевают страницы, наполнение которых тождественно в большей или меньшей мере, но находятся они не на одном URL-адресе. Различают четкие и нечеткие.

Какую угрозу для продвижения сайта несут дубли страниц?

  • Позиции страниц, соответствующих запросам, стабильно перескакивают, так как поисковик не может однозначно выбрать нужную страничку для показа.
  • Страдает ранжирование от пониженной доли страничек с контентом высокой уникальности.
  • Вес ссылок размывается, поскольку они распределяются по дублям страниц.
  • Почему появляются дублирующие страницы?
  • Неправильно работающая система управления сайтом приводит к тому, что причиной появления дублей становится CMS.
  • Вредит продвижению сайта факт, при котором какая-либо опция генерирует адреса с одинаковым наполнением касательно странички, не имеющей параметров в URL.
  • Результаты человеческой деятельности, как-то: текстовые фрагменты, имеющие сквозной характер; сквозные блоки; публикации, дублирующие друг друга.
  • Плод несовершенного функционирования CMS и человеческих ошибок, примером чего служат неправильно прописанные и в итоге зацикленные ссылки.

Поиск дублей страниц на ресурсе

Для улучшения SEO показателей оптимально нейтрализовать это опасное для сайта явление, что можно сделать в несколько шагов.

  • С помощью программ NetPeak Spider или аналогичных софт-инструментов проводим сканирование сайта и сортировку по тегу мета. Обратить внимание, помимо совпадающих данных, стоит на отсутствующие метаданные, что является рекомендацией к закрытию от индексирования для эффективности продвижения сайта.
  • Далее ищем копии, не показанные парсером, для чего нам понадобится вкладка «Оптимизация HTML» в личном кабинете web-мастера Google.

В завершении придется искать копии в ручном режиме, просматривая параметрические адреса и неразделимые алиасы.

Устранение проблемы дублирующихся страниц

Искоренение причины и результатов имеющихся изъянов принесет положительные результаты, что можно сделать таким образом:

  1. Добавить директиву в robots.txt.
  2. В ситуации, когда нужно сохранить страницу открытой для индексирования, а дубли страниц единичны, можно выставить настройки 301 direct с копии на первоначальную страничку.
  3. Если публикация размещена по разным адресам, то в код всех постов встраивается тег link rel=”canonical”.
  4. Работа с параметрами url в Google Search Console – в этом поможет вкладка «Сканирование».

Отдельно следует сказать и о пагинации: разделы с несколькими страничками не подпадают под определение дубля страницы, так как содержимое их отличается уникальностью, и распознаются поисковиками. Для них можно встроить элементы микроразметки. Хэштеги в URL не подлежат индексации, поэтому их присутствие также не должно волновать SEO-специалиста.

 

 

Автор статьи:

Маргарита МеликянSEO, Интернет-маркетинг
SEO по-деталям, ведь в деталях кроется истина...

Также читайте в нашем блоге:

 

 

Читайте в разделах блога

и получите бонус: аудит Вашего сайта в подарок!
Мы свяжемся с Вами в течение 20 минут (в рабочее время)

Пожалуйста, введите Ваше имя
В номере есть ошибка или поле не заполнено.
Пожалуйста, введите Ваш e-mail.
Пожалуйста, укажите Ваш сайт.
ОТПРАВИТЬ ЗАЯВКУ