

Новий алгоритм Google Page Experience — які зміни чекають пошукову видачу в 2021 році після впровадження Core Web Vitals
З моменту появи пошукової системи Google було випущено безліч апдейтів, орієнтованих на підвищення якості web-сайтів і поліпшення взаємодії користувачів з ними. Таким чином, пошуковик прагне показувати людям найбільш комфортні, корисні, інформативні та красиві ресурси.
Всім нам добре знайомі алгоритми Гугла Панда і Пінгвін, запущені в 2011 і 2012 роках для боротьби з неякісним контентом і “сміттєвими” зворотними посиланнями. Роком пізніше з’явився Колібрі, що допомагає пошуковим роботам розпізнавати зміст, і розуміти сенс опублікованого контенту. У 2015 почав працювати Rank Brain, здатний аналізувати поведінку людей, і порівнювати контент з топовими ресурсами в ніші. З 2016 з’явився алгоритм Опосум, орієнтований на локальний пошук під регіональні запити. У 2018 пріоритетність в ранжируванні отримали мобільні сторінки, оскільки вони стали враховуватися системою, як основні за рахунок впровадження алгоритму Гугла Mobile-Friendly.
Як ви можете спостерігати, кожні 1-2 роки Google вводить нові алгоритми, які б мотивували розробників створювати якісні сайти. Інакше, якщо у видачі буде шлак і сміття, люди почнуть використовувати інший пошуковик, і компанія Гугл зазнала б в такому випадку збитки.
З іншого боку, веб-майстрам і SEO-оптимізаторам регулярно доводиться підлаштовуватися під нові вимоги пошукової системи, щоб досягти у видачі топових позицій і залучити максимум людей на сайт. Ось і тепер, у 2020 році анонсовано новий алгоритм Google Page Experience — Core Web Vitals. Стартувати він повинен в 2021. Завдяки ранньому оповіщенню про новий апдейт у нас є час підготуватися до нього і оптимізувати ресурси відповідно до нових вимог. Що ж Гугл придумав знову? Давайте розбиратися разом.
Core Web Vitals — новий великий апдейт Google
Впроваджується він з метою визначення продуктивності інтернет-платформ, грунтуючись на реальному досвіді користувачів. Насправді, швидкість роботи веб-ресурсів і раніше входила в число факторів ранжування, але зараз її пріоритетність помітно зросла. Алгоритм пошуку Гугл Core Web Vitals зможе аналізувати більше інформації, і безпосередньо впливати на подальше ранжування онлайн-ресурсів за рахунок поведінкових факторів, які є важливим сигналом для пошукача.
Google вирішив ґрунтовно взятися за перевірку швидкості завантаження веб-ресурсів неспроста. Дослідження показали, що користувачі на 24% рідше залишають сайти, що відповідають граничним значенням нового алгоритму. При цьому 47% людей чекають завантаження сторінки до 2-х секунд, якщо цей час збільшується до 3-х, показник відмов зростає на 32%, до 6-ти — на 106% відповідно. І це актуально для будь-якого ресурсу, хоч лендінгу, хоч великого інтернет-магазину.
Названі вище показники далеко не все, що вдалося виявити Гуглу в результаті своїх досліджень. Тому розглянемо ще ряд чинників впливу швидкості завантаження на комерційну ефективність web-сайтів, підтверджених цифрами, з якими, на жаль, не посперечаєшся.
-
70% відвідувачів залишають повільні веб-ресурси не чекаючи їх повного завантаження.
-
1 секунда затримки відображення релевантної сторінки знижує конверсію на 7%.
-
79% відвідувачів, незадоволених швидкодією, не зайдуть на сайт повторно.
-
44% користувачів в разі повільної роботи поділяться своїм негативним досвідом з іншими людьми.
-
На 87% скорочується кількість покупок в інтернет-магазинах, де затримка під час транзакції перевищує 2 секунди.
-
В 2 рази зменшується прибуток від реклами на мобільних пристроях для сайтів, у яких швидкість завантаження адаптивної версії перевищує 5 секунд.
-
На 52% підвищується лояльність аудиторії до швидких онлайн-ресурсів, тоді як повільні не викликають довіри у цільової аудиторії, що веде до репутаційних втрат продукту та бренду, що просувається.
-
На 25% більше реклами користувачі переглядають на швидкісних сайтах.
Як бачите, маркетинг для повільних веб-ресурсів не ефективний. Уявіть, ви витратили великий бюджет на просування Google і не отримали результату. Все тому, що сторінки повільно завантажуються і користувачі їх відразу покидають, не дочекавшись відображення контенту. Виходить, що новий алгоритм Google 2021 року не просто черговий апдейт, а очевидна необхідність. Адже боротьба за ТОП позицій в кожній ніші стає все сильніше, і пошуковику важливо показувати людям зручні і продуктивні сайти.
Як працює новий алгоритм Google?
Для вимірювання продуктивності Core Web Vitals використовує три метрики для порівняння, які по суті і стануть факторами ранжування в наступному році, та почнуть впливати на місце сторінки в результатах органічної видачі Гугла.
Ознайомимося з ними докладніше:
-
LCP — Вивід великих елементів контенту — Largest Contentful Paint. Метрика оцінки швидкості завантаження основного вмісту сторінки, наприклад, банера, відеоролика, великого текстового блоку. Хорошим результатом вважається 2,5 секунди. Максимально допустимий — 4 с.
-
FID — Затримка взаємодії — First Input Delay. Метрика інтерактивності сайту. Показує, наскільки швидко сторінка стає доступною після завантаження. Оптимальний FID — 100 мс, порогове значення — 300 мс.
-
CLS — Візуальна стабілізація — Cumulative Layout Shift. Метрика оцінки швидкості відновлення макета. Мабуть, ви помічали на деяких веб-сайтах зміщення елементів верстки відразу після відкриття. Так ось, щоб макет стабілізувався, потрібен час, і добре, якщо це буде 100 мс. Коли візуалізація займає більше 250 мс — це поганий показник.
Для перевірки продуктивності та відповідності вашої онлайн-платформи новому алгоритму Гугл використовуйте спеціальні сервіси, наприклад, Pingdom Tools, GTmetrix, Loadimpact або PageSpeed Insights від Google. Вони не тільки демонструють швидкість роботи в процентному співвідношенні від 0 до 100%, а й повідомляють про проблеми, які перешкоджають прискоренню сайту. Серед проблем, що найбільш часто зустрічаються, відзначимо наявність ресурсів, які блокують відображення контенту, застарілі формати зображень, скрипти і стилі CSS, які не використовуються, некоректний час відповіді сервера.
Як “приручити” алгоритм Google Core Web Vitals?
Насправді, зробити це не складно, і у нас є кілька рекомендацій, які допоможуть вам розігнати веб-сайт і поліпшити його ранжування в пошуковій системі:
-
Увімкніть і налаштуйте кешування. Так ви зможете прискорити доступ користувача до сторінок, які він відвідував раніше.
-
Оптимізуйте зображення, зменшіть розмір великих картинок, але не перестарайтеся, оптимізація не повинна бути на шкоду якості.
-
Скоротіть число звернень користувача до бази даних, відкоректуйте час відповіді сервера.
-
Підключайте Gzip-скрипти для стиснення даних.
-
Використовуйте тільки якісний і швидкий хостинг.
-
Намагайтеся уникати редиректів. Якщо довго водити відвідувача по сторінках, йому це, зрештою, не сподобається і він покине ваш ресурс.
-
Використовуйте CDN. Мережі доставки контенту дозволяють розділити його між декількома серверами, завдяки чому файли і дані передаються до відвідувача коротшими шляхами, що прискорює роботу онлайн-ресурсу.
-
Використовуйте сучасні web-технології, що відповідають вимогам метрики CLP нового алгоритму Google. Як показало дослідження компанії Sistrix, 85% сайтів, що відповідають стандартам Core Web Vitals, задіють фреймворк Ruby on Rails. Також добре себе зарекомендували PHP-фреймворки Yii — 74% або Laravel — 73%. Як бачите, справа не в мові програмування, а в способах реалізації проекту. Що стосується AMP технології, близько 70% проаналізованих сайтів відповідають метриці CLP. Як не дивно, найгірше йдуть справи у гугловського фреймворку Angular. Менше 50% онлайн-ресурсів, які використовують його, відповідають вимогам Core Web Vitals.
Як бачите, акцент нового фактора ранжування робиться на технічній стороні web-ресурсу, використовуваних технологіях і програмному забезпеченні. І якщо заглибитися в суть, то історія з новим алгоритмом взагалі-то й не про SEO, на відміну від більшості попередніх великих апдейтів. Зараз ключовою стає комфортність взаємодії користувачів з веб-ресурсом. В 2021 році недостатньо створити хороший і красивий сайт, потрібно створити швидкий сайт. І регулярно стежити за ним, адже будь-які зміни можуть позначитися на швидкості роботи і ранжуванні.
Як і усе в SEO-оптимізації, поліпшення продуктивності повинно бути безперервним процесом, а не разовим заходом. На жаль, багато власників сайтів довгий час нехтували швидкістю завантаження, вважаючи цей аспект роботи другорядним. Однак, при зануренні в даний процес, стане зрозуміло, що потрібно докласти чимало зусиль, а іноді і зовсім переробити web-сайт заново, щоб отримати відмінну оцінку нового алгоритму Гугл. Проте, вкладені зусилля варті того, адже задоволеним буде не тільки пошуковик, але і реальні відвідувачі вашого ресурсу. І починати прискорюватися ми рекомендуємо в цьому році.