В Google принимают заявки от веб-мастеров, чтобы улучшить работу своих сервисов

Устойчивая обратная связь, искреннее желание разобраться в нуждах своих клиентов и предложить им наилучшие решения — это основа успеха любой IT-компании, и даже шире — вообще любого бизнеса. Компания Google стремится поддерживать и развивать обратную связь с веб-мастерами и рекламодателями.

Представитель команды разработчиков Google, шеф отдела борьбы со спамом, Мэтт Каттс (Matt Cutts) организовал в своём блоге дискуссию, посвящённую вопросам дальнейшего развития поисковых и аналитических продуктов компании.

Мэтт Каттс

У руководства компании уже имеется список разнообразных усовершенствований, работой над которыми в Google занимаются или займутся в ближайшее время. Обсуждение в блоге М. Каттса это попытка ещё раз, более точно определить приоритеты: что в работе Webmaster Tools и смежных продуктов стоит улучшить в первую очередь?

Такого рода «приём горячих заявок» уже становился частью диалога между Google и сообществом веб-мастеров. Итогом прошлых опросов стала разработка множества новых полезных дополнений в рамках действующих сервисов.

На сей раз, в Google готовы учесть мнения веб-мастеров и предлагают всем заинтересованным высказаться относительно следующих направлений:

  1. Разработка новых процедур определения авторства контента (например, введение авторской метки) или упрощение имеющихся алгоритмов;
  2. Создание новой автоматизированной рейтинговой системы, целью которой станет борьба со слабыми поисковыми результатами, и среди прочего — интеграция отчётов о спаме;
  3. Возможность получить свой сайт из архива поискового робота Google, в случае возникновения технических проблем;
  4. Список основных позиций, на которые следует обращать внимание начинающим веб-мастерам;
  5. Более подробные рекомендации по улучшению быстродействия мобильной версии сайта;
  6. Возможность более оперативно представить новый материал поисковому роботу, что позволит ускорить индексацию сайта;
  7. Развитие системы отчётов о случаях воровства контента и деятельности агрегаторов;
  8. Введение маркировки страниц, не прошедших валидацию;
  9. Отслеживание переходов на 404-страницы, чтобы можно было связаться с сайтом-источником ссылки и урегулировать ситуацию;
  10. Возможность пакетного редактирования и удаления ссылок;
  11. Повышение скорости обновления данных в Webmaster Tools;
  12. Обработка файлов robots.txt большего размера;
  13. Поддержка дополнительной информации о сайте, включая его основной язык и географию, с целью улучшения краулинга.