История развития поисковых алгоритмов Google с 2011 года

В последние годы Google внедряет более десятка изменений в применяемые поисковые алгоритмы в день. Если в 2009 году их было менее 400 (по обновлению в день), то в 2018 – более 3200 (по 9 в день). Большинство апдейтов остаются незамеченными веб-мастерами, а некоторые дают о себе знать в течение пары недель после запуска. Количество оценок точности поисковой выдачи и экспериментальных нововведений вполне может исчисляться десятками тысяч в год.

2011 год – Google Panda

Запущен в феврале 2011 года и призван понизить в поисковой выдаче интернет-ресурсы с не уникальным, скопированным или некачественным контентом. Этот алгоритм значительно снизил посещаемость таких сайтов. До конца года обновился более 20 раз.

2012 год – Google Venice

«Венеция» на основе сведений с Google Places переформатирует поисковую выдачу с учетом географии конкретного пользователя. Позволяет отслеживать, являются ли ресурсы локальными для конкретных людей и городов. Одинаковые запросы с добавлением названий городов сильно отличаются результатами поисковой выдачи.

2012 год – Google Penguin

«Пингвин» опустил позиции интернет-ресурсов, для раскрутки которых использовались «черные» методы оптимизации: поисковый спам, скорость наращивания ссылочной массы, некачественные URL-адреса, множество анкорных ссылок.

2012 год – Google Pirat

«Пират» понизил в поисковой выдаче сайты, распространяющие пиратский контент (пострадали многие торрент-трекеры и их агрегаторы) и имеющие проблемы с авторскими правами.

2013 год – Google Hummingbird

Масштабный апдейт, аналогов которому не было с 2001 года. В конечном итоге он затронул более 90% запросов. «Колибри» понимает длинные поисковые фразы и умеет интерпретировать их содержимое. Ранее Google искал слова из поискового запроса в веб-документе. Данный алгоритм способен давать ответы на вопросы, вроде «Где посмотреть новый фильм?». Вместо ранее вводимого запроса вроде «капуста: польза и вред, дети» Колибри понимает фразы «вредна ли капуста для детей».

2014 год– Google Pigeon

Региональный алгоритм «Голубь» оптимизирует поисковую выдачу с привязкой к геолокации и местам в Google Maps. Касается преимущественно интернет-маркетинга. При формировании результатов поиска учитываются отзывы и оценки пользователей о месте/заведении. Позволяет мелкому бизнесу обойти в поисковой выдаче крупных конкурентов в своем регионе.

2014 год – HTTPS и SSL

Google начал больше ценить сайты, устанавливающие зашифрованное соединение по протоколу HTTPS и имеющие сертификат безопасности SSL. Защищенные ресурсы вызывают у посетителей больше доверия.

2015 год – Google Mobile Update

Этот апдейт получил неофициальное название Mobilegeddon. В поисковой выдаче на мобильных устройствах выше поднимаются интернет-ресурсы, имеющие адаптивную версию, предназначенную для отображения на небольших дисплеях. При работе с компьютера или ноутбука изменений нет.

2015 год – Google RankBrain

RankBrain – самообучающийся алгоритм с задействованием искусственного интеллекта. Этот алгоритм понимает суть введенных фраз и предлагает решение вопроса, возникшего у пользователя. Если фраза незнакомая, RankBrain пытается интерпретировать ее, ищет выражения с аналогичным смыслом и фильтрует результаты поиска. На основании действий пользователя этот алгоритм корректирует свое поведение.

2016 год – Google Possum

Задачи «Опоссума» – разнообразить локальную выдачу, ухудшить ранжирование спамного контента – исключить отображение нескольких похожих страниц одной компании в результатах поиска. Если в соседних или даже одном здании располагается сразу несколько организаций с одинаковым родом деятельности, Google не отфильтрует одну из них.

2018 год – Google Speed Update (mobile)

В качестве фактора ранжирования интернет-ресурсов выступает скорость загрузки их мобильной версии. Сайты с популярным и качественным контентом, даже если на мобильных устройствах скорость их загрузки невысокая, не понижаются в поисковой выдаче.

2018 год – Google Medic Update

В основном это обновление затронуло сайты, посвященные здоровью и медицинским вопросам, в меньшей мере – финансовые и юридические ресурсы. Благодаря внедрению «Нейронных соответствий», созданных с применением искусственного интеллекта , Google пытается «понять» связь между словами в пользовательском запросе и определить скрываемые за фразой понятия. Статьи с рерайтом и некачественным контентом опустились в поисковом выдаче, а тексты, написанные специалистами (врачами) фактически не пострадали.

2019 год – Google Bert

Основанный на нейронных сетях алгоритм BERT интерпретирует не только содержимое введенных фраз, но и цель пользователя – пытается понять речь человека. BERT изучает смысл каждого слова, исходя из окружающих его слов. В основном он используется для длинных низкочастотных запросов.

Google постоянно совершенствует свою поисковую систему, внедряя новые технологии, в частности, искусственный интеллект. Перехитрить ведущий мировой поисковик очень сложно, и поэтому вебмастерам настоятельно рекомендуют сосредоточиться на наполнении сайтов максимально полезным, качественным и интересным контентом, а также следить за технической стороной работы интернет-ресурса. Такие сайты Google наградит сам.

Меню