Что такое дубли страниц и зачем с ними бороться?

0

Автор: SatoMaker | Рубрика: Полезное рядом | 23-10-2015 |

дубли

Дубли страниц это повторение содержимого статьи или ее части под разными URL в свободной выдаче поисковиков. Дубли страниц могут создаваться системой управления сайтом автоматически или администратором сайта вручную (чаще не преднамеренно).

В этой статье мы говорим о дубле страниц в рамках одного домена.

Что такое дубли страниц

Прежде всего, давайте поймем, что такое дубли страниц. Под дублями страниц понимается, что одну и ту же страницу ресурса или ее части можно найти по разным URL адресам.

Пойдем дальше, вспомним, как формируется контент сайта. Статья публикуется на сайте и записывается  под своим URL в базу данных. Это и есть оригинал статьи  с уникальным адресом URL. Нельзя сказать, что он единственный в математическом понимании. Любой SEF модуль перепишет его в SEF ссылку. Но опять-таки, эта SEF ссылка уникальна в единственном экземпляре.

В идеале, в индекс  должно попадать столько URL страниц, сколько опубликовано. Это и есть золотое правило SEO — каждая страница должна быть доступна только по одному адресу. А что же происходит  в реальности?

Прежде чем разобраться откуда берутся дубли страниц, поймем, почему поисковики «не любят» сайты с большим количеством дублированных страниц.

Ранжирование сайта и дубли страниц

Поисковики  постоянно сканирует не закрытое от них содержание сайта. На сканирование и индексацию тратятся реальные ресурсы поисковых систем. Было бы странно, если поисковым системам нравились сайты, заполненные дублированными страницами. Ведь, по сути, получается, что поисковик листает одну и ту же страницу десятки и сотни раз. Отсюда и появляются фильтры, накладываемые на сайты с большим количеством дублей, или понижается  ранжирования таких сайтов. Снижение ранжирования, отодвигает позиции в выдаче, а отсюда борьба «сеошников» с этими самыми дублями страниц. Вот такой логический цикл.

Но это не самая важная причина борьбы поисковиков с дублями страниц. Более веской причиной включения в поисковые алгоритмы санкций за дублирование страниц, стала борьба со ссылочным продвижением, когда масса ссылок разбрасывалась по сайту  по одинаковым текстам (черные схемы оптимизации).

Причина появления дублей

Разберемся в причинах появления дублей страниц, в рамках одного домена. В рамках одного домена в создании дублей страниц  есть следующие виновники:

  • Человек (человеческий фактор);
  • Традиции Интернет;
  • Специфика CMS;
  • Также, дубли могут появляться на сайте независимо от Вас. Ваша  CMS сама «родит» дубли.

Примечание! Слышал мнение, что дубли страниц  плодят SEO расширения, которые вы используете на сайте. Это не так.  SEO расширения не создают дубли, они их выявляют и записывают в свою базу. От того, что в их базе появляются новые дубли, они не виноваты.

Как появляются дубли страниц

Проследим, как появляются дубли на сайте, без примеров, только общие тенденции.

Сайт создается со своим адресом в Интернет – доменом. По сути, в интернет сразу же появляются два сайта один с доменным именем без WWW, второй с WWW.

Важно еще одно. После настройки всех параметров сайта по формированию URL , то когда вы полностью  настроили все SEO расширения, установленные на сайте и/или все параметры настройки самой CMS- перестраивать ничего не нужно.

Зачем бороться с дублями страниц

Кроме опасности попасть из-за дублей страниц под поисковой фильтр, есть еще пару  причин этой борьбы:

Дубли рассеивают иЦ  страниц сайта. Поэтому очень важно избавиться от дублей перед очередным апдейтем поисковых систем.

Чем больше дублей, тем меньше уникальность сайта, что также снижает ранжирование статей в выдаче.

Выводы

  • Сразу определитесь с главным доменом (с и без WWW) и пропишите 301 Redirect в htaccess.
  • Трудно вручную избавляться от дублей страниц. Поэтому лучше воспользоваться SEO расширениями;
  • Периодически чистите базу ссылок SEO расширений от найденных дублей. Обязательно делайте это перед апдейтем поисковиков;
  • Более часто поверяйте дубль главной страницы;
  • Решите проблему дублей feed и comments. Самое простое закройте фид сайта и комментарии к статьям сайта от индексирования в файле Robots.txt.

http://seojus.ru

Записи по данной теме:

  • Похожих записей пока что нет :(
Понравилась статья? У Вас есть возможность получать ежедневные обновления блога удобным для Вас способом:
Подписаться на блог 'Сатомейкер' по email

Ваш электронный адрес:

 

 

Подписаться на блог 'Сатомейкер' по email

Подпишитесь через RSS:

 

Добавить в Google

 

Читать в Яндекс.Ленте


Follow Satomaker on Twitter






Ваш отзыв