Названы причины ранжирования дублированного контента в Google

Представитель Google рассказал, как в этой поисковой системе происходит ранжирование дублированного контента и в каких случаях он будет отображаться вместо оригинального.

Инженер отдела Google, отвечающего за качество поиска, Джон Мюллер сообщил, в каких случаях в выдаче вместо оригинала может отображаться дублированный контент.

Названы причины ранжирования дублированного контента в Google

Один из участников недавно прошедшей видеоконференции попросил господина Мюллера пояснить следующую ситуацию: сотрудник скопировал описание товара с сайта компании и разместил его на коммерческой платформе eBay. В результате этого позиции ресурса в поисковой выдаче сильно упали, хотя при перемещении контента на другой сайт Google автоматически создает редиректы. Получается, что таким образом часть «авторитетности» сайта компании была передана торговой площадке?

Отвечая на этот вопрос, Джон Мюллер подчеркнул, что в отдельных случаях поисковая система при обнаружении подобных веб-страниц ранжирует их по отдельности. Сначала Google пытается выяснить, какой из источников является оригинальным, и только затем подобная страница индексируется.

Вместе с тем, в описанной выше ситуации оба источника, содержащие один и тот же контент (описание товара) выглядят для поисковой системы слишком по-разному. В данном случае дубляж контента, полученный путем копирования, и оригинальный источник могут «восприниматься» Google как уникальные. В результате этого они будут индексироваться отдельно друг от друга.

Также было отмечено, что в поисковой выдаче Google может выводиться и оригинальный контент, и его копия, размещенная на другом ресурсе. Все зависит от того, что конкретно ищет пользователь. Если его интересуют товары, размещенные на eBay, и это указано в веденном запросе, то будет показана страница с дубляжом. А если пользователю нужно, например, найти магазин, находящийся недалеко от него, то Google выведет страницу их оригинального источника (с сайта компании).

Таким образом, рассмотренная ситуация полностью «упирается» в особенности работы поисковых алгоритмов. Они «стараются» определить, какая из двух страниц наиболее релевантна запросу, введенному пользователем.

Также напомним, что осенью прошлого года во время интерактивного общения с веб-мастерами Джон Мюллер «проговорился» о том, что на самом деле поисковый алгоритм Google Panda наказывает ресурсы не за дубляж контента, а за публикацию низкокачественных материалов.