Декабрьское обновление Google

Всё о Декабрьском обновлении Google

3 декабря 2020 года Danny Sullivan сообщил о том, что Google запустил очередное основное обновление ядра алгоритма, которое получило название «Декабрьское обновление основного алгоритма 2020».

На самом деле, ещё 1 декабря 2020 года многие вебмастера начали массово сообщать о значительных изменениях в трафике их сайтов.

Давайте посмотрим на график Semrush Sensor (Рис.1).

Значительные колебания - Semrush Sensor

Как видно на Рис.1 значительные колебания Semrush Sensor зарегистрировал ещё 1 декабря 2020 года.

В официальной публикации Google сказано:

Мы тестируем любое обширное обновление ядра до его выпуска…

Я думаю, что, на самом деле, широкое обновление ядра алгоритма Google началось именно 1 декабря 2020 года, т.е. ранее, чем Google об этом официально сообщил.

Почему дата начала обновления очень важна? Потому что при последующем анализе обновления алгоритма Google необходимо использовать правильные временные интервалы.

Что мы знаем о широком обновлении алгоритма Google?

Обычно Google выпускает такие обновления два — три раза в год. Это сопровождается значительными изменениями в позициях и объемах трафика огромного количества сайтов.

Самым провинившимся обычно вместе с трафиком из органики отключают трафик из Google Discover.
Сотрудники Google не многословны в своих комментариях и обычно ограничиваются стандартной фразой — «ничего делать не нужно, это просто крупные изменения, связанные с релевантностью».

Анализ последствий Декабрьского обновления

Декабрьский апдейт Google такой же по силе, а может даже и сильнее, чем Майское обновление ядра алгоритма.
Semrush  в своей публикации сообщил, что Декабрьский апдейт затронул все тематики и средний показатель колебания в SERP  составил 9,4 (такой же, как и при Майском обновлении).

Похоже, что больше всего пострадали крупные домены. Почти 50% крупнейших победителей и проигравших на данный момент — это домены с трафиком, превышающим 1 миллион посетителей в месяц.
— Semrush

Исследование

Из Semrush Sensor я получил ТОП 100 доменов-победителей и доменов-неудачников. Всего выборка составила 200 доменов.
Используя Netpeak Checker (рефка на скидку 25%) по этим доменам я получил значения по таким параметрам:

Visits  Website traffic (Pro),  Host Root Domain  Whois,  Root Domain Indexed URLs  Wayback Machine,  Host Mobile FCP, Mobile FID, Mobile LCP, Mobile CLS, Desktop FCP, Desktop FID, Desktop LCP, Desktop CLS, Mobile Score, Desktop Score, Is Mobile-Friendly, Status Code, Response Time, Title Length, Description Length, Meta Robots, H1 Length, Content Size, Words  –  On-Page, Content-Length, Domain Authority  Moz,  Root Domain Trust Flow  –  Majestic, Citation Flow  –  Majestic, External Backlinks  Majestic, Referring Domains  Majestic.

Дополнительно на основе показателей Majestic Trust Flow и Citation Flow я рассчитал значения для качества ссылочного профиля – Majestic Trust Ratio.

17 процентов доменов не отдавали 200 код. Десять процентов из общего количества доменов отдавали 301 и 302 код. Это говорит о том, что если вы видите существенное снижение трафика на своем сайте, не лишнее сделать его аудит, потому что причина может быть именно техническая (не связанная с обновлением алгоритма).

Для того чтобы определить самые важные параметры (показатели) в моем наборе данных, я создал Deepnets в BigML. Это контролируемый метод обучения для решения регрессии и классификации проблем.

Deepnets – это оптимизированная версия Deep Neural Networks, класса моделей машинного обучения, созданных на основе нейронных схем человеческого мозга.

Рис.2
Deepnets - самые важные показатели

Надеюсь все знают как расшифровывается аббревиатура E-A-T? Это «Экспертность», «Авторитет», «Доверие».

Вы обратили внимание, что самые важные показатели в этом наборе данных – это DA Moz и Trust Flow Majestic. DA – характеризует авторитет домена, а Trust Flow – доверие к ссылочному профилю.
По сути, оба эти показатели имеют отношение к обратным ссылкам вашего сайта.

Десятку самых важных показателей можно разделить на три группы:
a. «Ссылочные параметры».
b. «Мобильность и Web Vitals».
c. «Длина Title и Description».

Во время Майского обновления ядра я высказал гипотезу, что Web Vitals (LCP, FID и CLS) уже с мая 2020 года стали факторами ранжирования.

2 декабря 2020 года, как раз перед официальным запуском Декабрьского обновления алгоритма, Google официально признал, что LCP, FID и CLS являются факторами ранжирования, но пока что только для мобильного поиска. Так что моя теория была верна.

Более того, я считаю, что в Декабрьском обновлении алгоритма Google тестирует в качестве сигнала ранжирования Mobile FCP.
Созданная на основе моего набора данных модель машинного обучения в качестве предиктора для построения дерева решений использует именно Mobile FCP.

Другими словами, логика такова — если значение Mobile FCP такое-то и…. , тогда…

Рис.3
ML - Декабрьское обновление Google

Как видно на Рис.3 самый вероятный (с точностью почти 76%) сценарий классификации домена как «Неудачника» состоит в следующем. Если значение Mobile FCP больше 1468 миллисекунд, на странице количество слов меньше 637 и при этом DA Moz больше 48, — это «Неудачник.

Такую логику можно ещё так объяснить. Мало контента, но много ссылок, — это «Неудачник.

Рис.4
DM - Декабрьское обновление Google
На Рис.4 используя Data Mining мы видим распределение доменов из нашей выборки.

По горизонттали – значение DA Moz, по вертикали –  Citation Flow Majestic. Размер элемента – значение Majestic Trust Ratio. Голубым цветом обозначены «Неудачники», оранжевым – «Победители». Крестиками обозначены не mobile-friendly домены.

Как видно на Рис.4 у «Неудачников» Majestic CF примерно до 35, DA Moz примерно до 30 и у них в основном высокое значение Majestic Trust Ratio. Это говорит о том, что бэклинков у таких доменов много, а вот качество их не лучшее.

Что касается «Победителей», основные сценарии с точностью выше 83% указывают, что для них важно, чтобы количество слов на странице было больше 637.

Повторный тест для проверки предварительных выводов

Набор данных любезно предоставила Lily Ray (@lilyraynyc).
Метрика для определения «Неудачников» и «Победителей» — индекс видимости Sistrix в США.
Размер выборки – 1067 доменов.
Для этого набора данных были получены значения тех же параметров, что и для датасета Semrush.

Используя машинное обучение, я определил самые важные показатели в наборе данных Sistrix:
Citation Flow Majestic — 0.3059
Title Length — 0.2457
Desktop CLS — 0.08604
Mobile Score — 0.05389
Domain Authority  Moz — 0.04545
Mobile FCP — 0.02708
Desktop Score — 0.02653
Desktop LCP — 0.02465
Desktop FCP — 0.02326
Visits Website traffic (Pro) — 0.02161

Как видно из этого списка, самые важные метрики связанны с качеством и количеством обратных ссылок, а также с показателями Core Web Vitals.

Обратите внимание, что метрика Mobile FCP, о которой я упоминал выше, – шестая по важности в наборе данных.

Распределение обратных ссылок в наборе данных Sistrix по их количеству и качеству, аналогично тому, что изображено на Рис. 4.

Итак, кто у нас «Победитель» в наборе доменов Sistrix. Это домен, имеющий показатель DA от 62 качественный ссылочный профиль и хорошие показатели Core Web Vitals.

Рис.5
Sistrix - дерево решений
«Неудачник», соответственно, — это домен у которого DA меньше 62, но, как и в случае с данными Semrush, важным критерием является количество контента.

Как видим на Рис.6 количество слов у «Неудачников» — до 3473.
Рис.6
Google update - Losers

Основные выводы

  1. Результаты, полученные на основе двух разных наборов данных (Semrush и Sistrix), почти тождественны.
  2. Февральское, Майское и Декабрьское обновление, скорее всего, имеют одну общую особенность — качество и количество обратных ссылок. Поэтому, сделайте аудит вашего ссылочного профиля. Похоже на то, что история данных, полученных от алгоритма «Пингивин», каким-то образом накапливается и потом используется как дополнительный инструмент для борьбы с веб-спамом во время очередного широкого обновления ядра.
  3. В Декабрьском обновлении видимо продолжают тестировать в качестве факторов ранжирования метрики (такие как Mobile FCP), которые возможно весной 2021 года официально введут в состав Web Vitals.
  4. Выше я приводил различия в количестве слов между «Победителями» и «Неудачниками». Это не значит, что вы должны использовать минимум 637 слов. Количество слов — это не фактор ранжирования. На мой взгляд, подобное различие между «Победителями» и «Неудачниками» может указывать на то, что у «Победителей» и контента больше и качество его лучше (более релевантный).
  5. Проведите технический аудит вашего сайта. Возможно причина падения трафика является технической.

Если статья вам понравилась, не забудьте поделиться ей и подписаться на телеграм канал SEO Inside.

Так же читайте:

Обновление обзоров продуктов – основные подробности

P.S. Если вдруг мне удасться получить другие данные для анализа, возможно выводы будут скорректированы. Рассматривайте эти выводы как предварительные данные.

15 комментариев к «Всё о Декабрьском обновлении Google 2020»
  1. Вячеслав, спасибо за анализ апдейта. Скажите, может ли доверять метрике TF? Я смотрел в маджестике несколько доменов и увидел что TF тоже можно искусственно поднять.

  2. @Anton

    Добрый день, Антон. На любую метрику можно повлиять, но доверять чему то нужно.

    Я доверяю DA Moz и TF/CF Majestic. DR Ahrefs — как-то не очень.

  3. Спасибо за статью! У меня просели, в основном, сайты на которых нужно подтянуть техническую сторону

  4. "17 процентов доменов не отдавали 200 код. Десять процентов из общего количества доменов отдавали 301 и 302 код. Это говорит о том, что если вы видите существенное снижение трафика на своем сайте, не лишнее сделать его аудит, потому что причина может быть именно техническая (не связанная с обновлением алгоритма)."
    А с каким юзерагентом сканировались сайты? Не значит ли это, что у этих сайтов тупо стоит защита от парсинга?

  5. Интересно. Замечал ещё что по многим запросам вылезли бренды, хотя раньше их не было практически по интересующим запросам. То есть известность бренда довольно сильно подтягивает в топ сайт.

  6. @Unknown
    Скажем так, они отдавали данные, но не все.
    И у меня был выбор, либо сократить и без того небольшую выборку (удалив эти домены), либо взять среднее значение по тем критериям, по которым я не смог получить данных. Я использовал второе.

  7. Большое спасибо за детальный разбор обновления алгоритма. Подтвердились опасения про рост влияния ссылочного… Просадка по позициям сайта произошла небольшая, но при анализе ссылочного у конкурентов обнаружил, что большая их часть стала использовать платные ссылки. И несмотря, на все разговоры, что алгоритм очень хорошо отличает платные seo ссылки от естественных, очень сильно чувствуется влияние именно платных ссылок. Возможно, это только мой частный случай в моей нише, но судя по общей картине, ссылки стали опять играть одну из важных ролей при ранжировании.

  8. Здравствуйте, Вячеслав.
    Поясните, пожалуйста, что имеется в виду под показателем Title Length? Длина тайтла слишком большая?

    1. Добрый день, Эдуард!
      Title Length — это длина тега Title конкретного URL в количестве символов.

      1. Т.е. из исследования ясно, что длина тайтла повлияла, но как именно не ясно?
        Просто хорошо бы иметь какой-то практический вывод, например, рекомендуемую длину тайтла из практики ранжирования, а не из длины снипета гугла.

        1. Там сказано, что среди многих параметров, которые анализировались, длина Title является одним из самых важных.
          Рекомендуемая длина Title для информационных сайтов (сайтов новостей) — от 10 до 110 символов.
          Рекомендую также прочитать https://pro100blogger.com/2019/07/seo-dlya-sajta-optymyzaczyya-zagolovkov-y-opysanyj.html

  9. Интересный анализ. Был бы интересен также отчёт по 2021 году.

    Вообще я обратил внимание, что Google сегодня смотрит «в сторону Яндекса», если говорить о пользовательских факторах, но как-то более широко.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *