Google может уменьшить частоту сканирования страниц, поскольку все больше заботится об экономии вычислительных ресурсов. Эта тема обсуждалась в подкасте «Search Off the Record» в котором поучаствовал Джон Мюллер, Мартин Шплитт и Гэри Илш.

Среди тем, которые они затрагивают, — сканирование и индексирование, которое, по словам SEO-специалистов и владельцев сайтов, уменьшилось. Сотрудники Google, заявили, что это будет ключевым направлением Google в этом году, поскольку он стремится стать более экологичным за счет экономии вычислительных ресурсов.

Илш обращает внимание на эту проблему, когда говорит, что вычислительная техника в целом не является экологичной:

«…Если вы думаете о Биткойне, то майнинг Биткойна оказывает реальное влияние на окружающую среду, которое вы можете измерить, особенно если электричество поступает от угольных электростанций или других менее экологичных станций.

Мы безуглеродные с 2007 или около того, но это не значит, что мы не можем еще больше уменьшить наше воздействие на окружающую среду. Сканирование — это одна из тех вещей…» – рассказал Гэри Илш.

Сканирование можно сделать более экологичным, сократив количество проверок контента. Например, сканирование страниц, на которых не было обновлений.

Как Google сделает сканирование более экологичным?

Существует два типа сканирования Googlebot:

  • сканирование для обнаружения нового контента,
  • сканирование для обновления существующего контента.

Google рассматривает возможность сокращения сканирования для обновления контента.

Илш продолжает:

«…Google может сократить сканирование для обновления проиндексированых страниц. Сейчас, как только мы обнаружили документ или URL-адрес, мы идем, сканируем его, а затем, собираемся вернуться и повторно посетить этот URL-адрес. Это сканирование с обновлением.

И затем каждый раз, когда мы опять посетим этот URL-адрес, это всегда будет сканирование с обновлением. Мы задались вопросом, как часто нам нужно возвращаться к этому URL?»

Далее он приводит пример определенных сайтов, которые требуют значительного количества обновлений для некоторых страниц, но не для всех. Например, Wall Street Journal, постоянно обновляет свою главную страницу новым контентом, поэтому ее следует сканировать чаще. А вот страницу «О нас» Google не нужно постоянно обновлять.

Пока команда Google только рассматривает эту идею. Будет ли действительно поисковик сокращать количество сканирований, не известно. Но если Google сократит сканирование с обновлением, что не подтверждено на 100%, то какое влияние это может оказать на сайт?

Что означает снижение скорости сканирования?

Существует убеждение, что большая частота сканирования — положительный сигнал SEO, даже если вы не обновляете свой контент так часто, как его сканирует Google. Это заблуждение, говорит Илш, поскольку контент не обязательно будет иметь более высокий рейтинг, потому что его чаще сканируют.

Это тоже своего рода заблуждение, многие думают, что если страница будет сканироваться чаще, она получит более высокий рейтинг. Поэтому, если Google воплотит эту идею в жизнь, это вряд ли повредит вашему сайту.

Идея Google состоит в том, чтобы понять, какие страницы нуждаются в обновлении, а какие нет. Это означает, что страницы, которые чаще обновляются, будут продолжать обновляться с нужной частатой.