Проведение полного технического SEO аудита — сложный, но обязательный процесс, ведь заниматься промо сайта не сделав техническую оптимизацию, похоже на строительство кирпичного дома, без надежного фундамента.

Давайте разберемся, что и как проверить, чтобы идентифицировать главные ошибки на сайте, не пропустив ничего. Данный пост не пошаговое руководство по каждому аспекту технического аудита, вам пригодятся базовые знания в SEO, поскольку мы пройдемся только по базовым пунктам, которые нужно проверить и как это можно сделать.

Цель этого поста, дать контрольный список пунктов, чтобы быть спокойным, что ничего не пропустил:
#1 — Используемые инструменты
#2 — Google Search Console

2.1 — Ошибки структурированных данных (микроразметка)
2.2 — Международный таргетинг
2.3 — Мобильная адаптивность
2.4 — Статус индексирования
2.5 — Ключевые слова
2.6 — Ошибки сканирования
2.7 — Статистика сканирования
2.8 — Sitemap
2.9 — Скорости сайта
2.10 — Robots.txt

#3 — Google Search Console vs Serpstat
#4 – Serpstat

4.1 — Title, Description и тег H1
4.2 — Дублирование HTTPS / HTTP
4.3 — Коды ответов сервера
4.5 — Дублирование контента
4.6 — Внутренняя перелинковка

#5 — Проверка на сайте

5.1 — Rel=Canonical
5.2 — Код страницы
5.3 — Структура URL-адресов





#1 — Используемые инструменты:

    1. Google Search Console
    2. Structured Data Testing Tool
    3. Mobile Friendly Test
    4. PageSpeed Insights
    5. Serpstat
    6. WebPageTest


#2 — Google Search Console

2.1 — Ошибки структурированных данных (микроразметка)

Структурированные данные часто называются «микроразметкой», она помогает улучшить отображение страниц в результатах поиска, сформировать соответствующие расширенные сниппеты объявлений, а также помогает поисковой системе лучше оценить контент.

Сотрудничество между Google, Bing, Yandex и Yahoo!, по вопросам унификации микроразметки, привело к ее практически полной унификации под основные поисковые системы, за исключением не больших различий. А судя по последним новостям с Google, структурированные данные влияют на позиции в поиске.

Google Search Console предоставляет подробный отчет по всем ошибкам в микроразметке. Отчет находится в “Вид в поиске — Структурированные данные”, который отображает всю микроразметку с ошибками и точно указывает, в чем именно ошибка. Также можно проверить отдельную страницу в инструменте Structured Data Testing Tool, чтобы более получить подробный анализ, по отдельной странице.

Ошибки структурированных данных (микроразметка)

2.2 — Международный таргетинг

Если сайт продвигается не на одну страну, то необходимо, чтобы Google об этом узнал. Основной способ данной реализации, это внедрение тега «hreflang», чтобы указать Google, какой язык используется на странице и для какого региона она предназначена. Данный атрибут помогает поисковой системе понять языковую и географическую ориентацию страниц сайта. В результате нужные страницы показываются пользователям на их языке и для их страны в результатах поиска Google.

75% многоязычных сайтов имеют ошибки в теги «hreflang»

Тем не менее, часто можно столкнутся с ошибками при реализации атрибута hreflang на мультирегиональных или многоязычных сайтах. Без корректной реализации атрибута hreflang на сайте, Google может неправильно определить какие страницы отображать для конкретной страны.

Корректность настройки данного атрибута, проверяем в разделе «Поисковый трафик — Таргетинг по странам и языкам».


Также прочитайте — Основные нюансы использования атрибута hreflang


2.3 — Мобильная адаптивность

Важность удобства на мобильных устройствах, особо актуально на протяжении последних лет, а в последнее время стала критически важным аспектом функционирования сайта.

Search Console предлагает несколько полезных инструментов, которые показывают основные проблемы. В первую очередь проверьте отчет – «Удобство просмотра на мобильных устройствах», в разделе «Поисковый трафик», данный отчет покажет основные ошибки и на каких страницах Google их обнаружил.

Удобство просмотра на мобильных устройствах

Еще один инструмент от Google, это Mobile Friendly Test,  он идентифицирует проблемы с удобством использования сайта на мобильных. Учтите, что Mobile Friendly Test анализирует не сайт целиком, а только конкретный URL-адрес, и показывает, как именно Googlebot обработал конкретную страницу.

Mobile Friendly Test

2.4 — Статус индексирования

Используйте расширенные данные, чтобы оценить, сколько страниц на сайте проиндексировано, сколько блокировано роботами и сколько удалено.

Понимание общего количество проиндексированных страниц в Google, необходимо, что бы сравненить с общим количеством страниц на сайте, которые можно посмотреть в файле sitemap.xml.

2.5 — Ключевые слова

Вы можете удивиться, зачем проверять ключевые слова в техническом SEO аудите? Но данный пункт касается только безопасности сайта.

Спам в ключевых словах

Если вы были взломаны, в отчете “Анализ поисковых запросов” вы увидите странные запросы, по которым показывается ваш сайт. В нем необходимо проверить нет ли среди них спамных запросов.

Если вы думаете, что если ваш сайт когда взломают вы сразу все поймете, это не так. Вот поиск по самому популярному запросу “buy viagra”, и как вы думаете “Сумский аграрный университет” и “Бетон от Ковальской” продают виагру на своих сайтах?

Поэтому всегда лучше перестраховаться, а не дожидаться письма о наложении ручных санкций.


2.6 — Ошибки сканирования

Google Search Console отображает крайне полезную информацию о всех ошибках на сайте, которые обнаружил Google. В этом отчете вы можете легко определить, что поисковик не может загрузить конкретную страницу, либо, что отдельная страница отдает ошибку или закрыта в robots.txt.

Отчет разделен на отдельные ошибки обнаруженные декстопным (поисковым пауком, который сканирует сайт как пользователь со стационарного компьютера) и мобильным пауком. Отчет показывает все URL страницы, которые отдают ответы отличные от 200. Это один их самых важных отчетов, который показывает, какие ошибки сканирования увидел Google.

2.7 — Статистика сканирования

Google показывает статистику Googlebot за последние 90 дней по обходу сайта, этот раздел часто пропускают при проведении технических аудитов, но он важен, так как это один из первых способов определить, существуют ли проблемы с индексированием.

Просмотрите отчет «страницы, просканированные за день»; где необходимо убедиться, что нет никаких значительных колебаний. Если нужно более детально ознакомиться со статистикой обхода сайта поисковыми краулерами, тогда анализируем log-файла сервера. Анализа log-файла сервера, может помочь вам найти ошибки, сравнив, как часто разные поисковые системы посещают сайт.

2.8 — Sitemap

Во-первых, проверяем, что на сайте есть карта сайта в формате — xml, обычно, это легко проверить, перейдя по ссылке www.site.com/sitemap.xml. Затем переходим в отчет “Файлы Sitemap” в разделе “Сканирование”, проверяет, что файл добавлен, протестирован и в нем нет ошибок.

Проверяем, количество добавленных и проиндексированных страниц, сверяем общее число с количеством проиндексированных страниц в отчете “Статус индексирования”, если есть существенные отличия в числах, начинаем разбираться более детально.

Для удобства анализа необходимо разделить sitemap, на разные части, в каждом из которых будут размещены только страницы с отдельных категорий страниц. Данное разделение помогает понять, какой тип страниц плохо индексируется.

2.9 — Скорости сайта

Скорость сайта становится все более важной метрикой, на которую Google уделяет особое внимания, уже как фактор ранжирования. Скорость сайта, критически важна для удобства использования ресурса, ввиду постоянно нарастающего мобильного тренда. С этим пунктом необходимо постоянно бороться, делая все возможное, чтобы уменьшить скорость загрузки сайта.

Существует несколько инструментов, которые можно использовать для проверки скорости сайта, но в первую очередь — PageSpeed ​​Insights, это собственный инструмент Google, который помогает определить скорость загрузки сайта. Когда вы запустите инструмент, он определит моменты, которые вы должны исправить, но он не дает подробного описания. В качестве альтернативы возможно использовать отчет “Аудит сайта” в Serpstat в разделе “Скорость загрузки”.

Скорости сайта

После этого, запускаем бесплатный инструмент WebPageTest, который поможет идентифицировать отдельные проблемы. Он показывает время загрузки каждого отдельного элемента страницы, а также определяет, какие элементы занимают больше всего времени, такие, как HTML, JS, CSS, Изображения, Flash и Font.

После запуска теста, можно определить проблемные места, используя индивидуальную разбивку по WebPageTest, находим определенные элементы, которые можно удалить или уменьшить.

2.10 — Robots.txt

Каждому сайту нужен Robots.txt, он сообщает поисковым краулерам, что сканировать и что не сканировать. Обычно данный файл доступен по адресу — www.site.com/robots.txt. В котором нужно проверить, что он запрещает только не нужные URL-адреса. По сути, он работает так же, как и тег noindex, но в нем возможно запретить поисковым системам сканировать определенные категории страниц, например блог:
Disallow: / blog / *
Данная команда запрещает индексировать и сканировать все страницы блога.

Правильность настройки проверяем в разделе “Сканирование — Инструмент проверки файла robots.txt”.


#3 — Google Search Console vs Serpstat

Как можно заметить, Google Search Console, отличный инструмент, который невозможно игнорировать, но все же в нем есть существенные недостатки:

  • Необходимо добавление сайта в Google Search Console или иметь доступ к инструменту, поэтому анализировать можно только свои сайты.
  • Длительный сбор данных.
  • Не актуальные данные. В зависимости от отчета, отставание может быть от 2 до 10 дней.

Поэтому для дальнейшего анализа нам потребуются сторонние сервисы, так как статья для новичков, будем использовать бесплатные возможности сервиса Serstat. Просто зарегистрировавшись у нас появляется возможность провести детальный SEO-аудит одного сайта, с ограничением сканирования до 100 URL. Если для вашего сайта сканирования 100 URL недостаточно, то берем минимальный пакет, с ним появятся еще куча крутых плюшек.

Смотрим, как Serpstat сам рассказывает о своем инструменте:

#4 — Serpstat

И так, если у вас нет аккаунта в Serpstat – зарегистрируйтесь, потом в панели инструмента добавляем свой сайт в “Проекты”. В появившемся окне, жмем “начать аудит сайта”, после появиться страница с вашим сайтом, где будет показана статика.

4.1 — Title, Description и тег H1

Неправильно заполненные или отсутствующие Title, Description и тег H1, не только негативно влияют на поисковое продвижение, но и на кликабельность сайта в результатах поиска, поскольку title или description, не оптимизированы, они будут генерироваться автоматически поисковиком.

Title, Description и тег H1

Определите, на каких страницах они не заполнены, дублируются или заполненные не правильного объема, просто нажав на конкретную ошибку.

Title должен содержать 50-60 символами (с учетом пробелов), Description — 150-160. Тег H1 не имеют технических ограничений по количеству знаком, но он должен быть коротким, уникальным и не дублироваться!

4.2 — Дублирование HTTPS/HTTP

Следующий отчет, который необходимо проверить, это правильность настройки протокола HTTPS / HTTP, что бы идентифицировать любые дубликаты.

В отчете определяем, существуют ли отдельные страницы с разными URL-адресами на HTTP или HTTPS. Этот же отчет стоит использовать, чтобы определить, был ли переход на HTTPS корректный.

Дублирование HTTPS/HTTP

4.3 — Коды ответов сервера

Проверьте, какие коды ответов сервера отдает сайт, не все ответы кроме 200, могут означать ошибку. Давайте разберемся, какие бывают ответы сервера:

    • 3xx — нет ничего плохого в 301 редиректе, но нужно проверить, нет ли какого-либо цикла редиректов, проверив, что они проходят только одно перенаправление, а не несколько.
      • 302 — временная переадресация, ее можно рассматривать как 301, если она установлена на длительный период времени; поэтому, проверьте, чтобы только в нужных местах был установлен данный редирект.
    • 4xx — 400, 403 и 404 — самые популярные коды ответов, которые указывают на “ошибку клиента”, каждый из них нужно тщательно рассмотреть.
      • 400 — означает, что пользователи не может получить доступ к странице;
      • 403 — доступ запрещен, чаще всего, означает, что пользователь не авторизован для доступа к определенной странице;
      • 404 — страница не найдена, чаще всего означает, что страница удалена и не перемещена.
    • 5xx — внутренняя ошибка сервера. Эта ошибка скорее всего на стороне сервера и не обязательно в этом виноват сам сайт, но с ней также необходимо разобраться и понять причину.

Коды ответа сервера

4.4 — Дублирование контента

Полное сканирование сайта необходимо для того, что бы найти все обходные URL-адреса и сколько из них дублируют основные страницы.

Чтобы не попасть под фильтр Google Panda, убедитесь, что нет дублированного контента, так как он будет оцениваться поисковиками, как контент низкого качества. Тут вам приходиться отчет “Дублирующиеся Title”.

Так же дублированный контент может появиться в связи с не корректной настройкой HTTPS / HTTP, и версией сайта с и без «www». Поэтому проверьте отчет “Сертификат HTTPS” и “Параметры сервера”.

Параметры сервера

После проверьте доступность страниц с “/”. Вот несколько примеров ссылок, которые могут создавать дублированный контент:

  • http://www.site.com
  • http://www.site.com/
  • http://site.com
  • http://site.com/
  • https://www.site.com
  • https://www.site.com/
  • https://site.com
  • https://site.com/

В качестве стандарта необходимо выбрать основной адрес страницы, а все остальные варианты должны отдавать 301 ответ сервера и перенаправлять на основной URL. Перед настройкой редиректов проверьте, какие именно варианты страниц проиндексированы, поскольку это может привести к дальнейшим проблемам.

4.5 — Внутренняя перелинковка

Глубина краулинга Содержит ли основное меню все продвигаемые страницы и удобно ли оно. Внутренние ссылки так же важны, как и внешние; структура сайта должна быть построена на принципе пирамиды, где самые важные страницы получают максимум ссылок. Также важно чтобы все страницы были доступны в минимальное количество кликов с главной страницы, среднее количество кликов до основной части страниц вы сможете увидеть внизу отчета “Аудит сайта”. В идеале нужно стараться, что бы к любой странице сайта можно было попасть максимум в три клика, а на продвигаемые в один.

Проверьте, что бы основные элементы навигации были реализованы без использования JavaScript и Java, поисковые системы последнее время добились значительных успехов в их индексировании, но сам Google, по-прежнему советует реализовать основную навигацию с помощью HTML.


#5 — Проверка на сайте

5.1 — Rel=Canonical

Тег Rel=Canonical — атрибут, который можно использовать, чтобы избегать дублирования контента. Он должен быть настроен на все, что можно было бы назвать дублированным контентом, например страница, к которой в URL добавляются любые переменные символы (UTM-метки, идентификаторы сессий и т.д.), должна указывать в Rel=Canonical ссылку на основную страницу, без переменных значений в URL.

5.2 — Код страницы

Данная процедура требует определенного понимания HTML, но откройте исходный код и просто посмотрите, данный подход может стать отличным способом определить проблему.

Это простой способ визуализации того, как Google сканирует сайт. Одна из самых распространенных проблем, это огромные фрагменты кода в шапке сайта, которые необходимо было сжать. Проблема с ненужными фрагментами кода вверху сайта заключается в том, что Google будет долго доходить до основной части контента, а это также когда вы заходите на сайт, а потом прокручиваете вниз два экрана, что увидеть основной контент, и это потенциально может повлиять на ранжирование контента.

5.3 — Структура URL-адресов

Имеет ли смысл структура URL на сайте? Продвигаемые страницы, находятся во второй вложенности? Эти вопросы, которые вы должны задать себе при анализе структуры URL-адресов сайтов. Вам нужно выяснить, находится ли каждая страница в подходящей категории, а URL-адреса — точно описывают содержание страницы с вхождением продвигаемого на ней ключевого слова.


Читайте также: 15-минутный SEO аудит своими руками