Что нужно учесть для того, чтобы поисковая оптимизация сайта стала по-настоящему эффективной?


Поскольку SEO-оптимизация сайтов – одно из основных направлений деятельности нашей компании, мы регулярно проводим аудиты и видим целый ряд ошибок, которые не позволяют сделать её по-настоящему эффективной. Тот факт, что ресурс продвигают стараясь учитывать требования поисковых систем, может быть налицо, однако это не исключает множество недоработок. Перефразировав Антуана де Сент-Экзюпери на свой лад, хотим сказать, что мы навсегда в ответе за тех, кому сделали аудит… И по этой причине мы составили чек-лист по SEO-оптимизации сайта, сверяясь с которым Вы их избежите.

Его можно использовать в процессе разработки нового ресурса, или же – при проведении аудита уже существующего. Кому он подойдёт:

  • Тем, кто ещё только постигает азы поисковой оптимизации сайта, т. е. специалистам начального уровня;
  • Штатным маркетологам, в обязанности которых входит продвижение сайта в Интернете.

Как Вы понимаете, чтобы воспользоваться этим списком ошибок по SEO, не обязательно располагать глубокими познаниями в данной сфере... Для простоты восприятия мы составили оглавление из девяти разделов, в каждом из которых имеется всё, что нужно. Протестировав свой сайт по всем пунктам, Вы сможете составить перечень работ, которые нужно провести, и приступить к работе над ошибками. Кроме того, Вы всегда можете позвонить или написать в “SerpTop” – и мы поможем Вам выявить и устранить их!

Чек-лист по технической оптимизации сайта

Ваш сайт может выглядеть просто невероятно, на нём может быть представлен по-настоящему полезный, уникальный контент… Однако, всё это будет совершенно зря, если есть и ошибки технической оптимизации. С ними он не только не выйдет в верхние строчки поисковых выдач, но и будет отталкивать посетителей (к примеру, долгой загрузкой или неверной вёрсткой).

Пункт 1. Индексный файл (“robots.txt”)

Нужно скрыть от сканирования поисковыми ботами ряд разделов сайта, в частности – административную панель, страницы регистрации/авторизации, формы оформления заказов, функции поиска, корзину, личный кабинет, а также скрипты JSON, AJAX, папку CQI, дубли HTML-документов (включая те, которые содержат технические копии), и задать User Agent для ботов “Yandex”/“Google”.

Ниже приведена инструкция по оформлению индексного файла от “Yandex”.

Как проверить? Воспользуетесь онлайн-сервисом проверки файла от “Yandex” или “Google”.

Пункт 2. Карта сайта (“sitemap.xml”):

  • Ссылка на карту сайта должна присутствовать в индексном файле;
  • Правильная расстановка указаний приоритета страниц – “”;
  • Правильная расстановка указания даты последнего обновления – “”;
  • Отсутствие страниц, запрещённых к индексации;
  • Отсутствие ошибок анализаторов файла “sitemap.xml”;
  • Соответствие протоколов адресов реальным (при изменении протокола на “https” не стоит оставлять URL с указанием протокола “http”).

Как проверить? Воспользуетесь онлайн-сервисом проверки файла от “Yandex” или “Google”.

Пункт 3. Технические дубли страниц

Они должны отсутствовать. Причина их появления может крыться в следующем:

  • Отсутствует настройка “301 Redirect” с “www”, поэтому сайт доступен сразу по двум протоколам;
  • Адреса с косой чертой в конце не перенаправлены на аналоги без косой черты в конце (или наоборот);
  • На главную страницу сайта можно попасть по адресам, которые содержат в конце “index.php” или “index.html”.

Как проверить? Самостоятельно, добавив или удалив из адреса сайта “www”, поставив косую черту в конце или “index.php”/“index.html” – и посмотрев, происходит ли перенаправление.

Пункт 4. Канонические страницы

Они должны быть установлены: атрибут “rel=canonical” нужно добавить в предпочитаемый URL-адрес в группе сходных по содержимому страниц. Благодаря этому только такой адрес будет проходить индексацию поисковыми ботами при наличии дублей. В то же время ссылки и поведенческие факторы со страниц, которые не являются каноническими, тоже будут учитываться.

Как проверить? Воспользуйтесь инструментом от “NetPeak” или “ComparseR”.

Пункт 5. Порядковая нумерация страниц («пагинация»)

Весной прошлого года корпорация “Google” представила формат “single-page content”, который рекомендуется использовать вместо пагинации. Её представители заявили о том, что теперь её поисковая система официально не поддерживает тэги для разметки пагинации “rel=next” и “rel=prev”. Такое решение было вызвано результатами проводимых исследований, в соответствии с которыми пользователи предпочитают интерфейсы с размещением контента на одной странице. Следование “single-page content” положительно влияет на поведенческие факторы и повышает позицию в выдаче. Что касается “Yandex”, то здесь предпочтение атрибуту “rel=canonical” следует отдать в том случае, если содержимое страниц сходно.

Как проверить? Самостоятельно путём внимательного просмотра или используя специальный инструмент от “NetPeak” или “ComparseR”.

Пункт 6. Наличие продвигаемых страниц среди тех, которые исключены из индексации

Его быть не должно. Исключение страницы из поискового индекса “Yandex” возможно из-за того, что она не содержит контента должного уровня или же поисковый бот распознаёт её как дубль. Такое случается с товарными карточками в интернет-магазине или страницами различных разделов, которые содержат мало информации в теле, а потому считаются копиями друг друга из-за совпадения содержимого шапки и подвала.

Как проверить? Посетить “Yandex.Webmaster” и перейти в раздел «Страницы в поиске».

Пункт 7. Число страниц, проиндексированное поисковыми ботами “Yandex” и “Google”

Идеально, если оно одинаковое. Различия хоть и допускаются, но не должны быть более десяти процентов. Если же она больше, нужно провести анализ и выяснить, какие именно страницы создают эту разницу и почему.

Как проверить? Воспользуйтесь онлайн-сервисами “SiteReport” или “ComparseR”.

Пункт 8. Битые ссылки

Само собой, их наличие на сайте должно быть исключено.

Как проверить? Воспользуйтесь онлайн-сервисами от “NetPeak”, “Screaming Frog”, “ComparseR” или перейдите в раздел «Внешние ссылки» в “Yandex.Webmaster”.

Пункт 9. Циклические ссылки

Их нужно удалить. Направляя на страницы, на которых сами находятся, они попросту обновляют их при переходе. По этой причине их нужно удалить или скрыть от поисковых ботов с помощью тэга “”.

Как проверить? Воспользуйтесь онлайн-сервисом “SiteReport”.

Пункт 10. Лишние redirect’ы

Потому они и лишние, что не нужны. Если на сайте есть внутренние ссылки, которые ведут на другую страницу, их стоит удалить, заменив нужной ссылкой, которая сразу задаст правильное «направление». Это оптимизирует так называемый краулинговый бюджет – число страниц, которое поисковые боты могут просканировать за определённый период времени.

Как проверить? Воспользуйтесь онлайн-сервисами от “NetPeak” и “Screaming Frog”.

Пункт 11. Заголовки “Last Modified”, “If Modified Since”

Их нужно настроить. Благодаря им поисковый бот “Google” понимает, что после последней индексации:

  • страница была изменена, и сканирует её;
  • страница не подвергалась изменениям, и не сканирует её.

Это положительно влияет на индексацию благодаря расходу краулингового бюджета исключительно на те страницы, которые подвергались изменениям или недавно были созданы. Что касается “Yandex”, то там эта тема не настолько актуальна, поскольку бот распознаёт заголовки как рекомендацию.

Как проверить? Воспользуйтесь соответствующим онлайн-сервисом от “SeoAuditor”.

Пункт 12. Mixed Content

Его нужно исключить. Он негативно влияет на web-индексирование, поскольку содержит незащищённые элементы, которые передаются по протоколу “HTTP”, на страницах с протоколом “HTTPS”. Из-за этого сайт оказывается уязвимым, а сами страницы имеют лишь частичное шифрование.

Как проверить? Воспользуйтесь консолью разработчиков в “Mozilla Firefox” или консолью “JavaScript” на панели инструментов “Google Chrome”. Хорошим подспорьем станет сервис от “Report Uri”.

Пункт 13. Friendly URL

Они должны присутствовать. Ещё их называют человекопонятными или семантическими. Они состоят из понятных пользователю слов, а не численных или буквенных идентификаторов, отражают структуру сайта и содержат на более ста десяти символов. К примеру:

  • Плохой путь: “example.com/index.php?category=8&pid=89”
  • Хороший путь: “example.com/products/8/89”

Как проверить? Воспользуйтесь онлайн-сервисами от “NetPeak” и “Screaming Frog”.

Пункт 14. Заглавные буквы в адресе сайта

Их не должно быть, поскольку поисковые боты распознают их как два разных адреса, дублирующих друг друга. По этой причине нужно использовать лишь строчные буквы. Причины появления заглавных букв в адресе – настройки CMS или личные предпочтения оптимизатора. Иногда они могут появиться в индексе, и тут уж стоит настроить перенаправление на основной адрес.

Как проверить? Воспользуйтесь онлайн-сервисами от “NetPeak”, “ComparseR” и “Screaming Frog”.

Пункт 15. Ошибки сервера

Их не должно быть. Их обозначают кодами “5хх (к примеру: “500. Internal Server Error” или “502. Bad Gateway”, вплоть до “526. Invalid SSL Certificate”). Их используют для случаев, исключений, которые не были обработаны при выполнении операций на стороне серверов. Причины появления: большое количество обращений к последнему или зависающие скрипты. При выявлении нужно обратиться к программисту и найти источник проблемы.

Как проверить? Воспользуйтесь онлайн-сервисами от “NetPeak”, “ComparseR” и “Screaming Frog”.

Пункт 16. Вёрстка

Она должна быть идеальной. Если это недостижимо, важно, чтобы в ней не было грубых ошибок, а порядок расположения элементов был правильным. Поисковики понимают, что ошибки в коде не являются признаком плохого сайта, однако куда «охотнее» и продуктивнее обрабатывают страницы, вёрстка которых создана в соответствии со стандартами.

Как проверить? Воспользуйтесь онлайн-сервисом “W3C”.

Пункт 17. Микроразметка

Обязательно внедрите её, ведь она делает сбор и обработку информации поисковыми ботами намного проще. Благодаря ей в выдаче появится красивый сниппет, а карточки с похожими товарами не будут распознаваться как дубли. Что стоит разметить?

  • навигационную цепочку;
  • товарные карточки в интернет-магазине;
  • отзывы клиентов/покупателей;
  • контактную информацию;
  • прочее.

Как проверить? Воспользуйтесь расширением “SEO Meta in 1 Click” для “Google Chrome”.

Пункт 18. Разметка “Open Graph”

Её нужно внедрить для того, чтобы задавать заголовки, описания, фото и целый ряд других параметров для их отображения в snippet’е при представлении материала в социальных сетях. Он был разработан Facebook, но сегодня его используют все крупные сети, включая “LinkedIn”, “Twitter”, “Pinterest”. Инструкции “Yandex” по теме: перейти

Как проверить? Воспользуйтесь расширением “SEO Meta in 1 Click” от “Google Chrome” или «Валидатор микроразметки» от “Yandex.Webmaster”.

Пункт 19. Скорость загрузки сайта

Она должна быть высокой. В противном случае Вы потеряете много пользователей: далеко не любой из них будет ждать, пока сайт загрузится, – он просто уйдёт на другой. Как её повысить:

  • Используйте “GIP Compression”;
  • Сведите к минимуму время отклика сервера;
  • Используйте cache-память web-обозревателя;
  • Без снижения качества сожмите изображения.

Как проверить? Воспользуйтесь инструментом “PageSpeed Insights” от “Google” или сервисом от “GTMetrix”.

Пункт 20. Адаптивный дизайн

Он – must-have сегодняшнего дня. Его отсутствие – признак того, что сайт устарел и расценивается как серьёзный недостаток, из-за которого его позиция в поисковой выдаче снижается. Адаптивный дизайн позволяет ему правильно отображаться на планшетах или смартфонах, что учитывается алгоритмами “Mobile-First Index” и «Владивосток» от “Google” и “Yandex” соответственно.

Как проверить? Воспользуйтесь инструментом “Проверка мобильных страниц” от “Yandex Webmaster” или “Search Console” от “Google”.

Пункт 21. Тэг “”

Он необходим для сайтов, мобильная версия которых располагается на отдельном домене. Благодаря ему поисковые боты будут распознавать две его версии, а также смогут определить языковые варианты. Тэг размещают на каждой странице версии для настольных ПК, где он указывает на определённую версию страницы.

Пункт 22. Отображение сайта в разных web-обозревателях

Несомненно, оно должно быть правильным, равно как и читабельность контента должна быть одинаково хорошей.

Как проверить? Воспользуйтесь онлайн-сервисом “BrowserShots”.

Пункт 23. Мощности сервера

Их должно быть достаточно для того, чтобы он выдерживал нагрузку. Если по какой-то причине это невозможно, рекомендуется задать в индексном файле директиву “Crawl Delay”. Она задаёт ограничение на скорость индексации страниц и используется в тех случаях, когда поисковому боту нужно задать временной отрезок между окончанием загрузки одной страницы и началом загрузки другой. Таким образом можно не только снизить нагрузку на сервер, но и предупредить вероятность сбоев в функционировании сайта во время его индексации ботами.

Как проверить? Воспользуйтесь онлайн-сервисом “Load Impact”.

Пункт 24. Различные языковые версии

Они должны содержать разметку, которая поможет поисковым ботам правильно их идентифицировать. Благодаря этому пользователям в разных странах будут представлены версии страниц на соответствующем языке. Для этого нужно в заголовке страницы использовать элемент “<link rel="alternate" hreflang="код языка"... >”.

Как проверить? Воспользуйтесь расширением “SEO Meta in 1 Click” для “Google Chrome” или онлайн-сервисом от “Screaming Frog”.

Пункт 25. Вирусы и вредоносные коды

Несомненно, их наличие на сайте исключено. Любая угроза безопасности пользователя – повод для понижения позиции в поисковой выдаче.

Как проверить? Перейдите в раздел «Диагностика» от “Yandex.Webmaster”.

Пункт 26. Дубли сайта в индексе

Из быть не должно. Если по той или иной причине разработчики не закрыли от индексации поисковыми ботами тестовые домены, нужно немедленно это сделать. В противном случае тестовая копия может занять позицию основного домена.

Как проверить? Воспользуйтесь онлайн-сервисом “CopyScape”.

Пункт 27. Документы весом более 10 Мб

Их не должно быть. Дело в том, что индексация файлов формата “PDF” тоже происходит, но ранжируются они при условии, что их размер не превышает 10 Мб. Впрочем, стоит оговориться: в основном это касается “Yandex”, а вот в “Google” хоть и считают, что объёмные документы – препятствие для индексирования, но не обозначают конкретные размеры файлов.

Как проверить? Воспользуйтесь онлайн-сервисом “Pingdom” от “SolarWinds”.

Пункт 28. Цели в системах аналитики

Они должны быть настроены для того, чтобы иметь возможность определять эффективность сайта. При правильном подходе они помогут выявлять страницы с наибольшим количеством посещений, корзины, от которых пользователи отказались, и много других вещей. В случае, если система регистрации или оформления заказа на сайте сложная, аналитика поможет определить этап, на котором пользователи останавливаются. Благодаря этому можно принять меры по его упрощению.

Эти 28 пунктов - только начала из нашего чек-листа. Продолжение во второй главе.

Читайте также

Что нужно учесть для того, чтобы поисковая оптимизация сайта стала по-настоящему эффективной? Часть 2

Поскольку SEO-оптимизация сайтов – одно из основных направлений деятельности нашей компании, мы регулярно проводим аудиты и видим целый ряд ошибок, которые не позволяют сделать её по-настоящему эффективной.


Что нужно учесть для того, чтобы поисковая оптимизация сайта стала по-настоящему эффективной? Часть 3

Поскольку SEO-оптимизация сайтов – одно из основных направлений деятельности нашей компании, мы регулярно проводим аудиты и видим целый ряд ошибок, которые не позволяют сделать её по-настоящему эффективной.


Комплексный интернет-маркетинг: что это и зачем он нужен

Продвижение в интернете с течением времени становится все сложнее и запутаннее. Растут возможности для охвата аудитории, вместе с ними увеличиваются площадки и каналы, которые помогают эту аудиторию привлечь.