В чем опасность дублей страниц на сайте: какие их отличия, как воспринимают поисковые системы и программы для поиска дубликатов

На качественное сео-продвижение какого-либо ресурса влияет много факторов. Однако главную опасность на позиционирование сайта в поисковой выдаче представляет появление дубликатов (копий) страниц. Обычно они выглядят для ботов одинаковыми, и даже человек не сразу может увидеть разницу.

В чем отличие

На примере адреса главной страницы ресурса дубликаты и оригиналы выглядят для роботов одинаковыми. Url оригинала пишется так http://myresurs.com/index, в то время как ее дубль выглядит - http://myresurs.com/index/. Разницу многим удается распознать не сразу, отличие двух адресов – это присутствие слеша (косой черточки) в конце. Также и поисковому боту увидеть разницу удается не всегда.

Отношение поисковиков к дублям

Специалисты из Инфо Юнион подтверждают, что более негативно воспринимает появление дубликатов Google, чем тот же Bing или Yandex. Объясняется такое отношение поисковой системы тем, что преследуется цель борьбы с шаблонными площадками и MFA, то есть страницами, предназначенными для получения прибыли от размещения рекламы. В 2011 году компания разработала уникальный алгоритм, носящий название Google Panda, который проверяет весь контент, размещенный на сайте. Симптомом попадания под его влияние может стать критическое снижение поискового трафика.

Как найти дубликаты

В нынешнее время существует сервисы и программы, которыми часто пользуются продвинутые веб-мастера, чтобы найти дубли страниц на своих сайтах. К ним относится Гугл-вебмастер и программа Xenu.

  1. Для использования первого сервиса понадобится зайти на страницу Google для веб-мастеров (GoogleWebmasterTools). Найти раздел «Меню», в нем пункт «оптимизация»-«оптимизация html», где показывается число повторений заголовков страниц, заключенных в тег «title», а также meta-описаний. Достоинством такого метода считается то, что успешно можно найти полные копии разных страниц, но выявить присутствие частичных дублей невозможно.
  2. Программа Xenu, полное название - Xenu Link Sleuth, считается самой известной среди оптимизаторов разного уровня. Она помогает выполнять технический аудит всевозможных web-ресурсов и находить копии заголовков. Найти полную информацию и описание характеристик, узнать достоинства и недостатки данной программы можно из публикаций, имеющихся в сети.

Типы дубликатов

К разряду полных дублей относятся страницы, имеющие одинаковое текстовое наполнение, но различные url, то есть адреса. Однако иногда создаются не полные дубликаты, лишь часть какого-нибудь текста, потому найти их сложно даже программам.

Copyright © 2010-2013 “Газета объявлений”. Все права защищены.
Позиция редакции не всегда совпадает с мнением авторов публикаций.
Условия использования материалов, размещенных на сайте slavinfo.dn.ua.