Google Core Update 2024

Черговий Google Core Update розпочався 15 серпня 2024 року. Зміни в алгоритмах Google — це подія, яка здатна кардинально змінити гру на полі SEO. Серпневий апдейт 2024 року приніс із собою нові виклики, і багато вебмайстрів вже помітили падіння трафіку. У цій статті ми розглянемо, як правильно аналізувати зміни, які дії варто вжити, і як уникнути типових помилок.

Офіційно було повідомлено, що фокус цього апдейту:

…показуючи більше вмісту, який люди вважають справді корисним, і менше вмісту, створеного лише для того, щоб добре працювати в Пошуку.

Тобто, так само як і восени 2023 року, серпневий Google Core Update 2024 року направлений на переоцінку  корисності контенту і певною мірою на боротьбу з намаганнями маніпулювати результатами пошуку (проти спаму).

Зміни позицій після оновлень часто пов’язані з оцінкою якості контенту та його відповідністю актуальним потребам користувачів. Тут варто враховувати такі алгоритми, як SpamBrain. Ця система на базі штучного інтелекту виявляє та фільтрує спамний контент. Наприклад, якщо на вашому сайті використовувалися сумнівні анкорні посилання або контент, що не відповідає вимогам якості, SpamBrain може значно знизити ваші позиції.

Також важливими є Navboost і Glue, що відповідають за організацію результатів пошуку та задоволення інформаційних потреб користувачів.

Якщо після оновлення ваш сайт зазнав значних втрат у трафіку, слід звернути увагу на таку метрику як Information Satisfaction Score (IS), яка оцінює задоволення користувачів від отриманих результатів. Високий IS Score означає, що ваш контент відповідає очікуванням користувачів і підвищує вашу позицію у видачі.

Наприклад, якщо ваша сторінка з порадами для здорового харчування впала з 5-ї на 15-ту позицію, це може бути сигналом того, що ваш контент вже не відповідає сучасним вимогам або з’явилися конкуренти з кращим контентом.

З нещодавнього витоку документації Google можна зробити такі висновки.

Визначення та характеристики корисного контенту:

Якість та релевантність. Контент має бути добре дослідженим, точним і корисним для користувача. Це включає високу читабельність, належне форматування та релевантну інформацію.

Потенціал залучення. Такі показники, як час перебування на сторінці, показник відмов і глибина прокрутки, можуть вказувати на здатність контенту утримувати інтерес користувачів.

Авторитетність. Достовірність і надійність контенту часто підвищується за рахунок зворотних посилань з авторитетних джерел.

Що може вказувати на втрату корисності контенту?

  • Втрата актуальності, або застарілість контенту.
  • Погіршення «поведінкових метрик», що вказую на зменшення цікавості до контенту.

Мої нещодавні дослідження показали, що, теоретично, можна ще у якості індикатору використовувати частку сканування за «By purpose» у звіті «Crawl stats» Google Search Console.

Якщо контент «корисний/якісний», частка Crawl requests: Discovery має бути від 25 відсотків, а краще від тридцяти. На зображені видно, що сайти з часткою запитів Discovery від 25 відсотків зазвичай мають гарний трафік.

Показники спаму/якості/корисності суттєво впливають на визначення пріоритетності пошукових запитів. Сторінки або домени з високим співвідношенням спаму/низької якості/некорисного контенту отримують менше уваги від пошукових роботів. Такі високі показники можуть призвести до зниження швидкості сканування нового контенту на цих сайтах.

Якщо сайт низької якості або є спамерським, то не варто використовувати ресурси Google для частого сканування цього сайту.

Які періоди й дані потрібно порівнювати після апдейту?

Перший крок після закінчення апдейту — це аналіз даних за допомогою Google Search Console. Порівняйте показники до і після оновлення. Оптимальний період для аналізу — тиждень до оновлення і тиждень після.

Це допоможе вам виявити будь-які значні зміни у позиціях, кліках та показах.

Наприклад, якщо ваш сайт займав 3-ю позицію за запитом «кращі маршрути для хайкінгу в Каліфорнії», а після оновлення він знизився до 12-ї позиції, варто серйозно задуматися про причини. Проте зараз Google вказує, що критичним падінням позиції є на 20 і більше пунктів.

Як діяти далі?

Після виявлення проблем необхідно здійснити ряд кроків для відновлення трафіку. Почніть з покращення якості контенту: оновіть застарілі сторінки, додайте нові дані, покращте структуру контенту.

Не менш важливою є технічна оптимізація сайту — перевірте швидкість завантаження сторінок, оптимізуйте зображення, виправте помилки індексації тощо. Тут би я порадив використовувати український софт — NetPeak Spider.

Приклад з практики: якщо ваш сайт займається оглядами товарів і втратив позиції після оновлення, можливо, варто переглянути контент на відповідність критеріям E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness). Додайте більше деталей у свої огляди, забезпечте достовірність джерел, оновіть метаописання, щоб вони краще відображали суть сторінки.

Беклінки і Google Core Update

Не забудьте перевірити якість зворотних посилань, а також посилань, що вказують на інші сайти.

Кейс. Google оцінюючи джерело (французький сайт) написав: «Essential Homme is a French men’s fashion magazine known for its high-quality photography and stylish content». Це в перекладі означає — Essential Homme — французький журнал чоловічої моди, відомий своїми високоякісними фотографіями та стильним контентом. При цьому, через агресивну рекламу (поганий UX) і токсичні беклінки відрізав їм трафік з Discover.

Те, що після апдейту та й взагалі перевірка посилань ще дуже важлива підтверджується все тими ж матеріалами Google, що утікли в інтернет.

Backlink Authority Metrics

Найкращі інструменти для аудиту посилань традиційно є Majestic і Ahrefs.

Сподіваюся, що ця стаття була корисною для вас і ви поділитеся нею зі своїми друзями. Всім ТОПчика!

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *