Самостоятельный SEO-аудит сайта

На выходных каждый пытается как можно больше отдохнуть перед новой рабочей неделей. Один из способов хорошо провести время — проверить качество оптимизации вашего сайта. На первый взгляд может показаться, что SEO-аудит требует много времени и сил. Но это не так. Все, что требуется от вас — следовать приведенной ниже инструкции. Итак, начнем.

Проверяем robots.txt, sitemap.xml и скорость загрузки

Проверка технических параметров сайта начинается с файла Robots.txt, в котором прописаны данные для поисковиков с указаниями к индексации.

Обратите внимание на следующие факторы:

  1. Все продвигаемые страницы должны быть открыты для роботов.
  2. Админ-панель ресурса, логин сервера и другие служебные разделы, а также страницы с дублирующимся контентом должны быть закрыты для поисковых роботов.
  3. Пагинация должна быть закрыта только в том случае, если страницы доступны где-то для индексации (к примеру, на карте сайта). Иначе некоторая часть сайта не будет индексироваться.
  4. Проверьте правильность написания зеркала ресурса (в директиве host).

Для проверки можно использовать Яндекс.Вебмастер. После загрузки файла Robots.txt сервис отобразит список возможных ошибок и предоставит инструкции по их устранению. Этот способ рекомендуется для всех, кто не знаком со всеми тонкостями создания и продвижения сайтов.

Следующая остановка самостоятельного SEO-аудита сайта — файл sitemap.xml. В нем содержится структура данных вашего сайта, которая сообщает поисковым системам о способе организации страниц. Благодаря этому значительно снижается вероятность пропуска важного материала во время исследования продвигаемого ресурса роботами. Для проверки можно использовать вышеупомянутый Яндекс.Вебмастер или его конкурента Google Webmaster.

Медленная загрузка сайта или постоянные проблемы с отдачей значительно усложнят его продвижение в поисковых системах. Чтобы определить и устранить неполадки, необходимо воспользоваться инструментом PageSpeedInsightsот Google.

Проверка количества индексируемых страниц и битых ссылок

В некоторых случаях фактическое количество страниц продвигаемого портала и число индексируемых поисковой системы может отличаться друг от друга. Это свидетельствует об ошибках в оптимизации сайта. Например, к такому результату приведет дублирование страниц или некорректные ответы сервера на запросы поисковой системы.

Чтобы определить ошибку, сначала необходимо знать точное количество страниц в индексе поисковых систем. Для этого можно воспользоваться операторами host (Яндекс) или site (Google). Например: site:www.sambelkin.com.

Стоит отметить, что полученные результаты могут немного отличаться друг от друга и это вполне нормально. Но существенная разница свидетельствует о неполадках в работе вашего сайта. Чтобы определить причины, необходимо:

  • проверить отклик сервера с помощью 2ip;
  • проверить дублирование страниц с помощью программы Xenuили аналогичных инструментов от Google;
  • проверить файл http_access, в котором прописываются склейка зеркал и дублирование категорий.

Использование канонических URL помогает предотвратить дублирование контента. Указав rel=canonical, вы оптимизируете идентичные или похожие по содержанию страницы и отдадите поисковой системе нужный вариант. При этом остальные дубликаты будут ссылаться на каноническую.

Также продвижению сайта мешают битые ссылки, которые возникают при изменении адресов страниц, общей структуры ресурса или перемещения документов. Их наличие можно проверить с помощью инструментов вебмастера Яндекс и Google, а также программами Xenu или Link Checker.

Анализируем контент

С точки зрения SEO самыми важными тегами разметки сайта являются Title и Description, так как именно в них содержится служебная информация для поисковых машин. В Title указывается заголовок страницы, поэтому он должен быть уникальным и привлекательным (как для пользователей, так и для роботов).

Description кратко отображает содержание всей страницы. Именно от него зависит, перейдет пользователь на ваш сайт или нет. Проверку содержания этих двух тегов можно сделать с помощью инструмента Seositecheckup. Обратите внимания: процедура проводится отдельно для каждой страницы.

Следующий этап проверки качества контента — заголовки. Они используются для структурирования информации на вашем сайте. Однако, злоупотребление заголовками только понизит позиции ресурса. Чтобы такого не произошло, необходимо придерживаться следующих правил:

  • на одну страницу должен быть один заголовок первого уровня (h1);
  • h1 должен содержать ключевое слово;
  • на странице должно быть не больше 4—5 заголовков второго уровня (h2).

Для проверки можно воспользоваться инструментом Firebug или одноименным расширением для браузера Firefox.

Соблюдаем 4 правила: уникальность, актуальность, социализация и адаптивность

Все написанные для вашего сайта статьи должны проходить проверку на уникальность (даже если вы уверены, что они написаны только для вас). Дело в том, что кто-то может легко скопировать опубликованные материалы и выложить их на своем ресурсе, в результате чего вы можете потерять позиции в поисковой выдаче. Для проверки используйте программы «Антиплагиат», «Адвего» или сайты вроде text.ru или content-watch.ru.

Вы должны регулярно публиковать новые статьи на своем сайте. Благодаря этому поисковые системы видят, что ресурс развивается и содержит интересный для пользователей контент.

Разместите на сайте социальные кнопки. Благодаря этому вы охватите больше пользователей и улучшите поведенческие факторы, которые положительно отразятся на позициях в поисковой выдаче.

Также немаловажным фактором при продвижении является адаптивность ресурса для мобильных устройств. Проверку можно осуществить с помощью этого инструмента от Google.

Анализ трафика и ссылочной массы

Во время анализа трафика необходимо обращать внимание на следующие три фактора:

  • эффективность ключевых запросов;
  • достижение целей;
  • динамика трафика.

В первом случае нужно оценивать эффективность ключевых запросов и регулярно «чистить» семантическое ядро от неэффективных ключей. Это нужно делать для каждой поисковой системы, в которой вы продвигаетесь.

Что касается достижения целей, то с их помощью можно определить эффективность работы сайта и причины возвратов. Лучше всего для этого подходят Google Analytics и Яндекс.Метрика. 

Во время анализа динамики трафика обращайте внимание на следующие факторы:

  • изменение объемов трафика;
  • источники;
  • видимость портала в поисковых системах;
  • количество запросов по ключам;
  • поведение пользователей на сайте.

На основании полученных данных можно определить направление для дальнейшего развития проекта. В этом помогут вам помогут сервисы SemRushи Similarweb.

Хотя проверка ссылочной массы происходит в последнюю очередь, это не означает, что это не важно. Для анализа лучше всего подходит Ahrefs — сервис, который располагает самым большим индексом беклинков.

Подводим итоги

Хотя самостоятельно проведенный SEO-аудит сайта не даст полную информацию о состоянии портала, вы получите базовое представление о степени его оптимизации и определите направление для дальнейшего развития.

Комментарии

Добавить новый комментарий

Еще по теме:

Последние новости: