Блог » SEO » Новый алгоритм Google Core Web Vitals

Blog Google

С момента появления поисковой системы Google было выпущено множество апдейтов, ориентированных на повышение качества web-сайтов и улучшение взаимодействия пользователей с ними. Таким образом, поисковик стремится показывать людям наиболее комфортные, полезные, информативные и красивые ресурсы. Всем нам хорошо знакомы алгоритмы Гугла Панда и Пингвин, запущенные в 2011 и 2012 годах для борьбы с некачественным контентом и мусорными обратными ссылками. Годом позже появился Колибри, помогающий поисковым ботам распознавать содержание, и понимать смысл опубликованного контента. В 2015 заработал Rank Brain, способный анализировать поведение людей, и сравнивать контент с ТОПовыми ресурсами в нише. В 2016 появился алгоритм Опоссум, ориентированный на локальный поиск под региональные запросы. В 2018 приоритетность в ранжировании получили мобильные страницы, поскольку они стали учитываться системой, как основные за счет внедрения алгоритма Гугла Mobile-Friendly. Как вы можете наблюдать, каждые 1-2 года Google вводит новые алгоритмы, мотивирующие разработчиков создавать качественные сайты. Иначе, если в выдаче будет шлак и мусор, люди начнут использовать другой поисковик, и компания Гугл потерпела бы в таком случае убытки. С другой стороны, вебмастерам и SEO-оптимизаторам регулярно приходится подстраиваться под новые требования поисковой системы, чтобы достичь в выдаче ТОПовых позиций и привлечь максимум людей на сайт. Вот и теперь, в 2020 году анонсирован новый алгоритм Google Page Experience — Core Web Vitals. Заработать он должен в 2021. Благодаря раннему оповещению о новом апдейте у нас есть время подготовится к нему и оптимизировать ресурсы согласно новым требованиям. Что же Гугл придумал снова? Давайте разбираться вместе.

Core Web Vitals — новый крупный апдейт Google

Внедряется он с целью определения производительности интернет-платформ, основываясь на реальном опыте юзеров. На самом деле, скорость работы веб-ресурсов и раньше входила в число факторов ранжирования, но сейчас ее приоритетность заметно возросла. Алгоритм поиска Гугл Core Web Vitals сможет анализировать больше информации, и непосредственно влиять на дальнейшее ранжирование онлайн-ресурсов за счет поведенческих факторов, которые являются важным сигналом для поисковика. Google решил основательно взяться за проверку скорости загрузки веб-ресурсов неспроста. Исследования показали, что пользователи на 24% реже покидают сайты, соответствующие пороговым значениям нового алгоритма. При этом 47% людей ждут загрузку страницы до 2-х секунд, если это время увеличивается до 3-х, показатель отказов возрастает на 32%, до 6-ти — на 106% соответственно. И это актуально для любого ресурса, хоть лендинга, хоть крупного интернет-магазина. Названные выше показатели далеко не все, что удалось выявить Гуглу в результате своих исследований. Поэтому рассмотрим еще ряд факторов влияния скорости загрузки на коммерческую эффективность web-сайтов, подтвержденных цифрами, с которыми, увы, не поспоришь.
  • 70% посетителей покидают медленные веб-ресурсы не дожидаясь их полной загрузки.
  • 1 секунда задержки отображения релевантной страницы снижает конверсию на 7%.
  • 79% посетителей, недовольных быстродействием, не зайдут на сайт повторно.
  • 44% пользователей в случае медленной работы поделятся своим негативным опытом с другими людьми.
  • На 87% сокращается количество покупок в интернет-магазинах, где задержка во время транзакции превышает 2 секунды.
  • В 2 раза уменьшается прибыль от рекламы на мобильных устройствах для сайтов, у которых скорость загрузки адаптивной версии превышает 5 секунд.
  • На 52% повышается лояльность аудитории к быстрым онлайн-ресурсам, тогда как медленные не вызывают доверия у целевой аудитории, что ведет к репутационным потерям продвигаемого бренда.
  • На 25% больше рекламы пользователи просматривают на скоростных сайтах.
Как видите, маркетинг для медленных веб-ресурсов не эффективен. Представьте, вы потратили крупный бюджет на продвижение Google и не получили результата. Все потому, что страницы медленно загружаются и пользователи их сразу покидают, не дождавшись отображения контента. Получается, что новый алгоритм Google 2021 года не просто очередной апдейт, а очевидная необходимость. Ведь борьба за ТОП позиций в каждой нише становится все сильнее, и поисковику важно показывать людям удобные и производительные сайты. noviy algoritm google

Как работает новый алгоритм Google?

Для измерения производительности Core Web Vitals использует три сопоставимых метрики, которые по сути и станут факторами ранжирования в следующем году, влияющими на место страницы в результатах органической выдачи Гугла. Ознакомимся с ними подробнее:
  1. LCP — Отрисовка крупных элементов контента — Largest Contentful Paint. Метрика оценки скорости загрузки основного содержимого страницы, например, баннера, видеоролика, большого текстового блока. Хорошим результатом считается 2,5 секунды. Предельно допустимое — 4 с.
  2. FID — Задержка взаимодействия — First Input Delay. Метрика интерактивности сайта. Показывает, насколько быстро страница становится доступной после загрузки. Оптимальный FID — 100 мс, пороговое значение — 300 мс.
  3. CLS — Визуальная стабилизация — Cumulative Layout Shift. Метрика оценки скорости восстановления макета. Пожалуй, вы замечали на некоторых веб-сайтах смещение элементов верстки сразу после открытия. Так вот, чтобы макет стабилизировался, нужно время, и хорошо, если это будет 100 мс. Когда визуализация занимает более 250 мс — это плохой показатель.
Для проверки производительности и соответствия вашей онлайн-платформы новому алгоритму Гугл используйте специальные сервисы, например, Pingdom Tools, GTmetrix, Loadimpact или же PageSpeed Insights от Google. Они не только демонстрируют быстроту работы в процентном соотношении от 0 до 100%, но и сообщают о проблемах, которые препятствуют ускорению сайта. Среди наиболее часто встречающихся проблем наличие ресурсов, блокирующих отображение контента, устаревшие форматы изображений, не используемые скрипты и стили CSS, некорректное время ответа сервера.

Как “приручить” алгоритм Google Core Web Vitals?

На самом деле, сделать это не сложно, и у нас есть несколько рекомендаций, которые помогут вам разогнать веб-сайт и улучшить его ранжирование в поисковой системе:
  • Включите и настройке кеширование. Так вы ускорите доступ пользователя к страницам, которые он посещал ранее.
  • Оптимизируйте изображения, уменьшите размер крупных картинок, но не перестарайтесь, оптимизация не должна быть в ущерб качеству.
  • Уменьшите число обращений пользователя к базе данных, скорректируйте время ответа сервера.
  • Применяйте Gzip-скрипты для сжатия данных.
  • Используйте только качественный и быстрый хостинг.
  • Старайтесь избегать редиректов. Если долго водить посетителя по страницам, ему это в конце концов не понравится и он покинет ваш ресурс.
  • Используйте CDN. Сети доставки контента позволяют распределить его между несколькими серверами, благодаря чему файлы и данные передаются к посетителю более короткими путями, что ускоряет работу онлайн-ресурса.
  • Используйте современные web-технологии, соответствующие требованиям метрики CLP нового алгоритма Google. Как показало исследование компании Sistrix, 85% сайтов, отвечающих стандартам Core Web Vitals, задействуют фреймворк Ruby on Rails. Также хорошо себя зарекомендовали PHP-фреймворки Yii — 74% или Laravel — 73%. Как видите, дело не в языке программирования, а в способах реализации проекта. Что касается AMP технологии, около 70% проанализированных сайтов соответствуют метрике CLP. Как ни странно, хуже всего обстоят дела с гугловским фреймворком Angular. Менее 50% онлайн-ресурсов, использующих его, соответствуют требованиям Core Web Vitals.
Как видите, акцент нового фактора ранжирования делается на технической стороне web-ресурса, используемых технологиях и программном обеспечении. И если углубиться в суть, то история с новым алгоритмом в общем-то и не про SEO, в отличие от большинства предыдущих крупных апдейтов. Сейчас ключевой становится комфортность взаимодействия пользователей с веб-ресурсом. В 2021 году недостаточно создать хороший и красивый сайт, нужно создать быстрый сайт. И регулярно следить за ним, ведь любые изменения могут отразиться на скорости работы и ранжировании. Как и все в SEO-оптимизации, улучшение производительности должно быть непрерывным процессом, а не разовым мероприятием. К сожалению, многие владельцы сайтов долгое время пренебрегали скоростью загрузки, считая этот аспект работы второстепенным. Однако, при погружении в данный процесс, станет понятно, что нужно приложить немало усилий, а иногда и вовсе переделать web-сайт заново, чтобы получить отличную оценку нового алгоритма Гугл. Тем не менее, вложенные усилия стоят того, ведь довольным будет не только поисковик, но и реальные посетители вашего ресурса. И начинать ускоряться мы рекомендуем в этом году.