Блог » SEO - пошукове просування » Новий алгоритм Google Core Web Vitals

Новий алгоритм Google Page Experience — які зміни чекають пошукову видачу в 2021 році після впровадження Core Web Vitals

З моменту появи пошукової системи Google було випущено безліч апдейтів, орієнтованих на підвищення якості web-сайтів і поліпшення взаємодії користувачів з ними. Таким чином, пошуковик прагне показувати людям найбільш комфортні, корисні, інформативні та красиві ресурси.

Всім нам добре знайомі алгоритми Гугла Панда і Пінгвін, запущені в 2011 і 2012 роках для боротьби з неякісним контентом і “сміттєвими” зворотними посиланнями. Роком пізніше з’явився Колібрі, що допомагає пошуковим роботам розпізнавати зміст, і розуміти сенс опублікованого контенту. У 2015 почав працювати Rank Brain, здатний аналізувати поведінку людей, і порівнювати контент з топовими ресурсами в ніші. З 2016 з’явився алгоритм Опосум, орієнтований на локальний пошук під регіональні запити. У 2018 пріоритетність в ранжируванні отримали мобільні сторінки, оскільки вони стали враховуватися системою, як основні за рахунок впровадження алгоритму Гугла Mobile-Friendly.

Як ви можете спостерігати, кожні 1-2 роки Google вводить нові алгоритми, які б мотивували розробників створювати якісні сайти. Інакше, якщо у видачі буде шлак і сміття, люди почнуть використовувати інший пошуковик, і компанія Гугл зазнала б в такому випадку збитки.

З іншого боку, веб-майстрам і SEO-оптимізаторам регулярно доводиться підлаштовуватися під нові вимоги пошукової системи, щоб досягти у видачі топових позицій і залучити максимум людей на сайт. Ось і тепер, у 2020 році анонсовано новий алгоритм Google Page Experience — Core Web Vitals. Стартувати він повинен в 2021. Завдяки ранньому оповіщенню про новий апдейт у нас є час підготуватися до нього і оптимізувати ресурси відповідно до нових вимог. Що ж Гугл придумав знову? Давайте розбиратися разом.

Core Web Vitals — новий великий апдейт Google

Впроваджується він з метою визначення продуктивності інтернет-платформ, грунтуючись на реальному досвіді користувачів. Насправді, швидкість роботи веб-ресурсів і раніше входила в число факторів ранжування, але зараз її пріоритетність помітно зросла. Алгоритм пошуку Гугл Core Web Vitals зможе аналізувати більше інформації, і безпосередньо впливати на подальше ранжування онлайн-ресурсів за рахунок поведінкових факторів, які є важливим сигналом для пошукача.

Google вирішив ґрунтовно взятися за перевірку швидкості завантаження веб-ресурсів неспроста. Дослідження показали, що користувачі на 24% рідше залишають сайти, що відповідають граничним значенням нового алгоритму. При цьому 47% людей чекають завантаження сторінки до 2-х секунд, якщо цей час збільшується до 3-х, показник відмов зростає на 32%, до 6-ти — на 106% відповідно. І це актуально для будь-якого ресурсу, хоч лендінгу, хоч великого інтернет-магазину.

Названі вище показники далеко не все, що вдалося виявити Гуглу в результаті своїх досліджень. Тому розглянемо ще ряд чинників впливу швидкості завантаження на комерційну ефективність web-сайтів, підтверджених цифрами, з якими, на жаль, не посперечаєшся.

  • 70% відвідувачів залишають повільні веб-ресурси не чекаючи їх повного завантаження.

  • 1 секунда затримки відображення релевантної сторінки знижує конверсію на 7%.

  • 79% відвідувачів, незадоволених швидкодією, не зайдуть на сайт повторно.

  • 44% користувачів в разі повільної роботи поділяться своїм негативним досвідом з іншими людьми.

  • На 87% скорочується кількість покупок в інтернет-магазинах, де затримка під час транзакції перевищує 2 секунди.

  • В 2 рази зменшується прибуток від реклами на мобільних пристроях для сайтів, у яких швидкість завантаження адаптивної версії перевищує 5 секунд.

  • На 52% підвищується лояльність аудиторії до швидких онлайн-ресурсів, тоді як повільні не викликають довіри у цільової аудиторії, що веде до репутаційних втрат продукту та бренду, що просувається.

  • На 25% більше реклами користувачі переглядають на швидкісних сайтах.

Як бачите, маркетинг для повільних веб-ресурсів не ефективний. Уявіть, ви витратили великий бюджет на просування Google і не отримали результату. Все тому, що сторінки повільно завантажуються і користувачі їх відразу покидають, не дочекавшись відображення контенту. Виходить, що новий алгоритм Google 2021 року не просто черговий апдейт, а очевидна необхідність. Адже боротьба за ТОП позицій в кожній ніші стає все сильніше, і пошуковику важливо показувати людям зручні і продуктивні сайти. noviy algoritm google

Як працює новий алгоритм Google?

Для вимірювання продуктивності Core Web Vitals використовує три метрики для порівняння, які по суті і стануть факторами ранжування в наступному році, та почнуть впливати на місце сторінки в результатах органічної видачі Гугла.

Ознайомимося з ними докладніше:

  1. LCP — Вивід великих елементів контенту — Largest Contentful Paint. Метрика оцінки швидкості завантаження основного вмісту сторінки, наприклад, банера, відеоролика, великого текстового блоку. Хорошим результатом вважається 2,5 секунди. Максимально допустимий — 4 с.

  2. FID — Затримка взаємодії — First Input Delay. Метрика інтерактивності сайту. Показує, наскільки швидко сторінка стає доступною після завантаження. Оптимальний FID — 100 мс, порогове значення — 300 мс.

  3. CLS — Візуальна стабілізація — Cumulative Layout Shift. Метрика оцінки швидкості відновлення макета. Мабуть, ви помічали на деяких веб-сайтах зміщення елементів верстки відразу після відкриття. Так ось, щоб макет стабілізувався, потрібен час, і добре, якщо це буде 100 мс. Коли візуалізація займає більше 250 мс — це поганий показник.

Для перевірки продуктивності та відповідності вашої онлайн-платформи новому алгоритму Гугл використовуйте спеціальні сервіси, наприклад, Pingdom Tools, GTmetrix, Loadimpact або PageSpeed ​​Insights від Google. Вони не тільки демонструють швидкість роботи в процентному співвідношенні від 0 до 100%, а й повідомляють про проблеми, які перешкоджають прискоренню сайту. Серед проблем, що найбільш часто зустрічаються, відзначимо наявність ресурсів, які блокують відображення контенту, застарілі формати зображень, скрипти і стилі CSS, які не використовуються, некоректний час відповіді сервера.

Як “приручити” алгоритм Google Core Web Vitals?

Насправді, зробити це не складно, і у нас є кілька рекомендацій, які допоможуть вам розігнати веб-сайт і поліпшити його ранжування в пошуковій системі:

  • Увімкніть і налаштуйте кешування. Так ви зможете прискорити доступ користувача до сторінок, які він відвідував раніше.

  • Оптимізуйте зображення, зменшіть розмір великих картинок, але не перестарайтеся, оптимізація не повинна бути на шкоду якості.

  • Скоротіть число звернень користувача до бази даних, відкоректуйте час відповіді сервера.

  • Підключайте Gzip-скрипти для стиснення даних.

  • Використовуйте тільки якісний і швидкий хостинг.

  • Намагайтеся уникати редиректів. Якщо довго водити відвідувача по сторінках, йому це, зрештою, не сподобається і він покине ваш ресурс.

  • Використовуйте CDN. Мережі доставки контенту дозволяють розділити його між декількома серверами, завдяки чому файли і дані передаються до відвідувача коротшими шляхами, що прискорює роботу онлайн-ресурсу.

  • Використовуйте сучасні web-технології, що відповідають вимогам метрики CLP нового алгоритму Google. Як показало дослідження компанії Sistrix, 85% сайтів, що відповідають стандартам Core Web Vitals, задіють фреймворк Ruby on Rails. Також добре себе зарекомендували PHP-фреймворки Yii — 74% або Laravel — 73%. Як бачите, справа не в мові програмування, а в способах реалізації проекту. Що стосується AMP технології, близько 70% проаналізованих сайтів відповідають метриці CLP. Як не дивно, найгірше йдуть справи у гугловського фреймворку Angular. Менше 50% онлайн-ресурсів, які використовують його, відповідають вимогам Core Web Vitals.

Як бачите, акцент нового фактора ранжування робиться на технічній стороні web-ресурсу, використовуваних технологіях і програмному забезпеченні. І якщо заглибитися в суть, то історія з новим алгоритмом взагалі-то й не про SEO, на відміну від більшості попередніх великих апдейтів. Зараз ключовою стає комфортність взаємодії користувачів з веб-ресурсом. В 2021 році недостатньо створити хороший і красивий сайт, потрібно створити швидкий сайт. І регулярно стежити за ним, адже будь-які зміни можуть позначитися на швидкості роботи і ранжуванні.

Як і усе в SEO-оптимізації, поліпшення продуктивності повинно бути безперервним процесом, а не разовим заходом. На жаль, багато власників сайтів довгий час нехтували швидкістю завантаження, вважаючи цей аспект роботи другорядним. Однак, при зануренні в даний процес, стане зрозуміло, що потрібно докласти чимало зусиль, а іноді і зовсім переробити web-сайт заново, щоб отримати відмінну оцінку нового алгоритму Гугл. Проте, вкладені зусилля варті того, адже задоволеним буде не тільки пошуковик, але і реальні відвідувачі вашого ресурсу. І починати прискорюватися ми рекомендуємо в цьому році.

ukукр