Как провести seo аудит сайта самостоятельно

SEO оптимизация никогда не может считаться законченной, вы можете потратить всю свою жизнь на нее, и всеравно будет, что еще делать. Но для тех, кто не хочет тратить все свободное время на оптимизацию сайта, мы составили подробный чеклист для проведения самостоятельного SEO-аудита, что бы найти и устранить наиболее значимые и популярные проблемы на сайте.


Примечание: Для этого руководства вам потребуется инструмента для сканирования сайта, что бы оптимизировать работу по поиску ошибок, неработающих ссылок и редиректов. Я использую для таких нужд Netpeak Spider и WebSite Auditor, но вы можете воспользоваться любым другим инструментом для сканирования сайта. Так же будет полезным посетить www.seochecklist.ru, где собран подробный чеклист с пояснениями от Сергея Кокшарова создателя блога devaka.ru.


Как провести технический аудит сайта: внешний и внутренний SEO-аудит


#1 — Сканирование

Быстрый аудит полезен, но комплексная проверка все же будет неоценимо полезней. Первым шагом любого аудита сайта непременно должно бить полное сканирование сайта. Убедитесь, что ваш инструмент правильно настроен для парсинга, что он сможет просканировать все ссылки (JavaScript, изображение, видео, Flash и т.д.).

Продолжительность сканирования зависит от размера вашего сайта и может занять от минуты до нескольких часов.


#2 — Проверьте наличие проблем с индексированием сайта

После того как вы просканируете сайт, рассмотрите все, что отвечает за возможность сканирования сайта поисковым пауком. Наиболее распространенные проблемы, которые вы должны проверить:

  • Разрешает ли robots.txt сканировать все необходимые страницы
  • Какие ответы «код ответа сервера» отдают ваши страницы
  • Правильность Заполнение тега meta name=»robots» и link rel=»canonical

Проверьте наличие проблем с индексированием сайта

#2.1 — Проверьте Sitemap.xml

Проверьте вашу карту сайта на актуальность, в ней должны быть все продвигаемые страницы. Если вы используете плагин для автоматического создания и управления картой сайта, вы должны удостовериться, что у вас есть возможность автоматически создавать и редактировать XML карты. При создании карты сайта важно:

  • новая страница должна автоматически попадать в sitemap.xml;
  • если страница запрещена в robots.txt или мета-тегом, то она не должны быть в карте сайта.

После того, как вы обновили вашу карту сайта и проверили ее на наличие ошибок в Google Search Console, добавьте ее в Google Webmasters и Yandex Вебмастер, если вы продвигает сайт на англоязычный сегмент, не забывайте зайти в Bing WebMaster.

#2.2 — Проверьте robots.txt

Страница может быть заблокирована от индексации по целому ряду причин. Она может содержать мета-тег «NoIndex» в шапке или файл robots.txt может закрыть страницу от индексации. Для сканирования сайта я использую утилиту «Netpeak Spider», которая показывает оба эти параметра при сканировании. Проверьте, не заблокированы ли важные страницы или же наоборот не стоит ли закрыть от индексации определенные страницы. Файл для поисковых роботов robots.txt очень важен для корректной внутренней оптимизации. С помощью директив Disallow и Allow можно управлять сканированием разделов сайта.

#2.3 — Проверьте сайт на наличие ошибок

Ошибки в кодах ответа сервера легко найти, вы можете проверить свой сайт на наличие таких ошибок в Google Search Console перейдите Сканирование > Ошибки сканирования.

Проверьте сайт на наличие ошибок

Необходимо исправить любые ошибки 4XX или 5ХХ, которые вы обнаружите. Исправьте внутренние ссылки, которые ведут на недействительные страницы или настройте 301 редирект с тех страниц, на которые вы не смогли убрать внешние ссылки. Кроме того, убедитесь, что на сайте создана Страница ошибки 404, с которой вы можете отправить ваших посетителей на важные страницы сайта.

#2.4 — Запрос на повторную индексацию

Всякий раз, когда вы проделываете существенные изменения, вы можете попросить поисковые системы повторно просканировать нужные страницы. Так вы сможете проверить устранили ли вы главные ошибки.

Чтобы отправить запрос на повторную индексацию в Google войдите в Google Search Console, перейдите в Сканирование> Просмотреть как Googlebot, вставьте URL обновленной страницы, и нажмите кнопку «Сканировать».

Контрольный список:

  • Исправьте все ошибки на сайте.
  • Проверьте файл robots.txt.
  • Убедитесь, что все важные страницы могут быть проиндексированы.
  • Исправьте страницы с неправильными кодами ответов.
  • Отправьте обновленные страницы на повторную индексацию.

#3 — Избегайте редиректов

Не правильно настроены редиректы на нужные страницы, при перемещении страницы или изменения URL, представляет потенциальную проблему для SEO. Вот некоторые из наиболее распространенных проблем:

#3.1 — 302 редирект

302 редирект – это, временный редирект, который сообщает поисковым системам, что вы временно перенаправляете посетителей, но эта страница вернется в ближайшее время. Таким образом, 302 редирект не будет передает вес пропавшей страницы на новую, как это делает 301 редирект. 302 редирект подойдет, если вы тестируете новую страницу, но если ваша страница пропала навсегда, необходимо настроить с нее 301 редирект.

#3.2 — Rel=”canonical”

Если у вас существует дублирование контента на нескольких страницах, то необходимо указать, какая страница является главной, установив ее в качестве канонического URL. Каждая страница должна иметь не более одного тега Rel=”canonical”.

Контрольный список:

  • Замените временные редиректы (302) на 301, на всех страницах которые больше не появятся.
  • Проверьте Rel=”canonical”.

#4 — Исправьте HTML и CSS ошибки в разметке

Ошибки в коде могу значительно замедлить ваш сайт. Проведение регулярных проверок валидности кода может помочь вам обнаружить и исправить большинство ошибок.

Контрольный список:

  • Найдите и исправьте по возможности все ошибки в коде

#5 — URL-адреса

Один из самых легких способов вернуть утраченные внешние ссылки, это найти и исправить внешние ссылки которые ведут на несуществующие страницы сайта. Используйте инструмент для сканирования сайта или «Внешние ссылки» в Google Webmasters, чтобы найти несуществующие страницы на которые ведут внешние ссылки, а затем исправьте их, либо настройте с них 301 редирект на релевантные страницы, либо свяжитесь с веб –мастером ресурса который ссылается на несуществующую страницу, для обновления ссылки на соответствующую, обновленную страницу.

#5.1 — Избавьтесь от излишних исходящих ссылок

Когда 100 или больше исходящих ссылок находятся на одной страницы, это может указать поисковым системам, что страница может быть спамной. Ограничьте количество исходящих внешних ссылок по максимуму.

#5.2 — Избавьтесь от лишних редиректов

Всякий раз, когда, это только возможно, избавляйтесь от редиректов, чтобы сразу вести посетителей непосредственно на страницу назначения. Мало того что редиректы увеличивают время загрузки страницы, но и указывают поисковым систем на проблемы на сайте.

#5.3 — Избавьтесь от динамических URL-адресов

Динамически генерируемые URL-адреса, трудно читаемые и они не могут подсказать пользователям, где они находятся. Попробуйте избавиться от динамических URL-адресов.

#5.4 — Сократить по максимум длину URL-адреса

Последние данные свидетельствуют о том, что URL — адреса до 35-40 символов доминируют в ТОПе поисковых систем. Конечно, длинные URL -адреса тоже ранжируются но практика показывают, что желательно уменьшить их длину.

#5.5 — Определите ваш основной домен

Вам необходимо точно определить по какому адресу может быть доступен ваш сайт с www или без www. Проверьте что бы ваш сайт работал только по одному адресу, а с другого у вас работал постраничный 301 редирект. К примеру если ваш основной домен http://site.com, то если посетитель введет http://www.site.com, его автоматически переведет страницу без www. Если вы заметили что ваш сайт доступен по адресу с www. и без, зайдите в панель инструментов MOZ, чтобы определить, на какую версию сайта идет больше внешних ссылок и оставьте только ее, настроив с второй 301 редирект.

Так же само вам необходимо убедиться, что сайт доступен только по одному адресу https: // или https: //, и так же возможна такая же ситуация с флешем в конце адреса с «/» или без «/»

Контрольный список:

  • Исправьте неработающие ссылки.
  • Уменьшите количество исходящих ссылок.
  • Уменьшите количество редиректов.
  • Избавьтесь от динамических URL-адресов.
  • Сократите URL-адреса до 40 символов.
  • Определите ваш основной домен.

#6 — Оптимизируйте мета теги

Исправление мета тегов, не займет много времени, но это сможет значительно поднять позиции сайта в поиске и увеличить их CTR. Но не переусердствуйте с этим пунктом, первоочередная цель метаописания, это информирование посетителей (и поисковых пауков), о чем ваша страница, но по возможности, добавьте в них ключевые слова.

#6.1 — Избавьтесь от пустых или длинных Title и Descriptions

Убедитесь, что все ваши мета теги, не длиннее рекомендации по количеству символов (50-60 символов для Title; 150-160 символов для Descriptions).

#6.2 — Избегайте дублирования Title и Descriptions

Многие сайты, в частности, большинство интернет магазинов страдают дублированным контентом, или мета-описаниями. Дублированный контент может сбить с толку поисковые системы так, что они не будут ранжировать ни одну из ваших страниц с дублированным контентом. Поэтому необходимо стараться держать контент на сайте уникальным, как это только возможно.

#6.3 — Оптимизация тегов H (h1-h6)

Теги заголовков (H1), это важный фактор ранжирования на уровне страницы. Используйте его, чтобы сориентировать страницу на конкретные ключевые слова, которые пользователи ищут. Попробуйте также избегать повторений в других тегах H (H2, H3 и т.д.), используйте их для расширения семантики страницы на вторичные ключевые слова, где это необходимо.

Так же убедитесь что теги H, не участвуют в верстке страницы. Зайдите в код страницы и проверьте, что бы тег H1 был только раз на страницы с вхождением главного ключевого слова.

Контрольный список:

  • Оптимизация заголовков title
  • Оптимизация мета-описания Descriptions
  • Оптимизация тегов H (h1-h5)

#7 — Оптимизация содержания

С момента запуска поискового алгоритма Панды, высококачественное содержание стало определяющим фактором ранжирования. Другими словами, вы должны убедиться, что каждая из ваших страниц имеет достаточно содержания, и что содержание является уникальным и полезным.

#7.1 — Найдите страницы с малым содержанием контента

Убедитесь, что на всех страницах сайта у вас достаточно контента, я проделываю такое действие в WebSite Auditor, просто отсортировав все страницы по колонке «Word Count». Проверьте что бы на всех страницах было 1-2 абзаца текста (по крайней мере 250 слов на странице). Когда будете проверять страницы, проверьте форматирование и читаемость текста.

Найдите страницы с малым содержанием контента

#7.2 — Оптимизация Изображений

Просмотрите все изображения на сайте, вам необходимо:

  • Убедиться в отсутствии битых ссылок на изображения;
  • Оптимизировать размер изображений под сайт (если на сайте отображается изображение 500х200, не стоит загружать картинку 3000х1800)
  • Проверить что у каждого изображения прописаны уникальные и информативные атрибуты alt и title.

Контрольный список:

  • Найдите страницы с малым содержанием контента
  • Сделайте содержание уникальным, насколько это возможно
  • Оптимизируйте изображения

Вы сделали это! Хотя это далеко не предел в SEO оптимизации на сайте, но это отличный старт, который будет гарантировать, что ваш сайт соответствует минимальным требованиям поисковых систем. Конечно, если вы чувствуете что этого не достаточно, вы всегда можете обратиться к профессионалам за SEO Аудитом Сайта.