Warning: "continue" targeting switch is equivalent to "break". Did you mean to use "continue 2"? in /var/www/u0594407/data/www/iam.ru.net/wp-content/plugins/revslider/includes/operations.class.php on line 2758

Warning: "continue" targeting switch is equivalent to "break". Did you mean to use "continue 2"? in /var/www/u0594407/data/www/iam.ru.net/wp-content/plugins/revslider/includes/operations.class.php on line 2762

Warning: "continue" targeting switch is equivalent to "break". Did you mean to use "continue 2"? in /var/www/u0594407/data/www/iam.ru.net/wp-content/plugins/revslider/includes/output.class.php on line 3706
SEO – чек-лист по оптимизации сайта - Сайт под ключ I AM RUNET

SEO – чек-лист по оптимизации сайта

Кому необходим чек-лист по оптимизации сайта?

  • SEO-специалистам начального уровня;
  • инхаус-маркетологам типа «и швец, и жнец, и на дуде игрец», отвечающим в компании не только за оптимизацию сайта, но и контекст, социальные сети и т. д., и не обладающих углубленными познаниями в оптимизации.

Если вы занимаетесь продвижением бизнеса и заметили проблемы в оптимизации, можете обратиться в TexTerra. В рамках работ по SEO мы исправляем все технические ошибки, подбираем максимально широкую семантику, учитываем актуальную информацию по факторам ранжирования.

Проверьте сайт на соответствие каждому из нижеуказанных пунктов, составьте список работ и начинайте внедрять.

За пределы списка вынесу регистрацию в вебмастерских и установку счетчиков аналитики на сайт. Инструменты вебмастера помогут быстро выявить изменения в индексации сайта, выявленные поисковиками ошибки, нарушения. Такую возможность предлагают четыре поисковые системы – «Яндекс», Google, Mail и Bing.

Счетчики посещаемости открывают массу возможностей для анализа сайта, поведения пользователей на нем. Самые популярные – «Яндекс.Метрика» и Google Analytics. Кроме этого, можно поставить счетчики Rambler Top-100, «Рейтинг Mail.ru», Liveinternet или Openstat.

Оглавление

Технические факторы

1. Корректный robots.txt

  • Закрыты от индексации ненужные и служебные разделы (результаты поиска по сайту, страницы регистрации и авторизации, сортировки, административные разделы, кэш страниц, логи, версии для печати и др.).
  • Заданы отдельные User-Agent для роботов «Яндекса» и Google (но это будет бессмысленно, если директивы ничем не отличаются для краулеров разных поисковых систем).

Инструкции по оформлению файла от «Яндекса» и Google: ссылка 1 и ссылка 2.

Корректный robots

Пример настройки стандарта исключений для роботов

Инструменты для проверки: визуальный осмотр, букмарклет robots.txt + meta, проверка запрета индексации страниц в инструментах вебмастеров (ссылка 1 и ссылка 2).

Инструменты для проверки

С помощью букмарклета «robots.txt + meta» одним щелчком по панели закладок можно проверить запрет в robots.txt, а также наличие тега в коде

2. Корректный sitemap.xml

  • Ссылка на xml-версию карты сайта указана в robots.txt.
  • Содержит страницы только с кодом ответа сервера 200 ОК.
  • Анализаторы вебмастерских не показывают ошибок.
  • Приоритеты страниц (элемент priority) и даты последнего обновления страницы (элемент lastmod) корректно расставлены.
  • Не содержит запрещенных к индексации страниц.
  • Протокол адресов в sitemap соответствует реальному (бывает, что при переезде на https в sitemap остаются URL c http протоколом).

Инструменты для проверки: визуальная проверка, разделы «Анализ файлов Sitemap» в «Яндекс.Вебмастере» и «Файлы Sitemap» в Google Search Console. Также можно воспользоваться Netpeak Spider – в нем есть инструмент проверки, который показывает, какие есть ошибки (можно воспользоваться бесплатным 2-недельным пробным периодом).

3. Нет технических дублей страниц

Одна страница, открывающаяся по двум разным адресам – две разных страницы для поисковых систем. Такого быть не должно. Популярные причины появления таких дублей:

  • Не настроен 301 редирект с www (или наоборот), чтобы сайт был доступен только по одному протоколу.
  • Главная страница доступна по адресам с index.php, index.html на конце.
  • Адреса без слэша на конце не перенаправляются на аналогичный URL со слэшем (или наоборот).
  • Часть страниц открывается по HTTP, а другая по HTTPS.

Нужно настроить редиректы для следующих сценариев:

  • http.
  • https.
  • C www.
  • Без www.
  • Со слешем на конце.
  • Без слеша на конце (кроме главной).
  • Индекс php на конце.
  • Индекс html на конце.

Для настройки редиректов нужны технические знания. Не настраивайте перенаправления самостоятельно, если не делали этого раньше.

Инструменты для проверки: визуальная проверка в браузере (необходимо добавить/убрать из адреса «www.» и посмотреть: происходит ли редирект, то же самое и со слэшами на конце, также прописываем в адресу сайта «/index.php» и смотрим, есть ли редирект или ответ 404).

4. Установлены канонические страницы

На страницах с параметрами в URL стоит атрибут rel=canonical с указанием предпочитаемого адреса. Так поисковики поймут, что индексировать следует только каноническую страницу.

Инструменты для проверки: Netpeak SpiderXenuScreaming Frog SEO SpiderComParser.

5. Страницы пагинации

12 марта 2019 года Google опубликовал новые рекомендации по оформлению страниц пагинации. Теперь весь контент стоит размещать на одной странице (single-page content), и поисковый робот увидит ее содержимое с помощью JavaScript.

Для «Яндекса» же лучше использовать rel=canonical (если контент страниц не сильно отличается друг от друга).

Инструменты для проверки: визуальная проверка, плагин SEO META in 1 CLICK, Screaming Frog SEO Spider, Netpeak Spider.

6. Среди исключенных страниц нет продвигаемых

Часто бывает, что страницы исключаются из «Яндекса», так как не имеют полезного контента. Причиной может быть недостаточное качество страницы или же просто она будет считаться дублем другой страницы. Например, карточки разных товаров признаются дублями. Другой пример – страницы из разных разделов сайта содержат немного контента в теле страницы и не индексируются как дубли друг друга из-за одинакового контента в шапке и футере.