388x60 Ads

Кейс: восстановление трафика после майского апдейта Google

Кейс: восстановление трафика после майского апдейта 

Ко мне часто обращаются вебмастера и я помогаю восстанавливать трафик после апдейтов и просадок.

Ведь при каждом обновлении поискового алгоритма Google обязательно кто-то теряет трафик.

Вот и в этот раз ко мне обратился заказчик с просьбой найти причины падения органического трафика Google после майского обновления алгоритма и помочь восстановить его.

Все вы помните мою статью о Майском апдейте Google.

Хочу сказать, что мои выводы и рекомендации из этой статьи подтвердились на практике, а именно позволили восстановить органический трафик Google новостному сайту.

Вот что я рекомендовал сделать всем, у кого упал во время майского апдейта органический трафик Google, а именно:
1) Проверьте качество ваших обратных ссылок.
2) Обновите контент на страницах, которые затронуты.
3) Удалите тонкий контент или добавьте новый полезный контент на эти страницы.
4) Если вы видите падение CTR без соответствующего падения показа, просмотрите последние изменения на сайте, особенно те, которые могут повлиять на то, что отображается в результатах поиска (включая ваши теги TITLE и описания META). Однако в этом случае разумно предположить, что мы наблюдаем общее падение спроса.
5) Тщательно проверьте возможные технические проблемы вашего сайта.
6) Подумайте от какой рекламы вы можете отказаться.  


Итак, рассмотрим конкретный случай.

Новостной сайт. Органический трафик Google до майского апдейта колебался в диапазоне 5-10 тыс. пользователей в день. После апдейта трафик снизился до 2 тыс. посетителей в день, а временами и до 1,5 тыс. посетителей в день.

Что было сделано для восстановления трафика

1) Проведен анализ динамики, количества и качества обратных ссылок. Было выявлено, что за несколько недель до апдейта Google резко выросло количество обратных ссылок низкого качества.

Эти ссылки были отклонены.

Как отбирались домены для отклонения? Для оценки качества ссылочного профиля я традиционно использую Majestic Trust Ratio. Почему Majestic, а не, скажем, Ahrefs? Потому, что, на мой взгляд, метрики Majestic сложнее накрутить.

В общем, я использую такой коэффициент CF/TF > 3. Так же выборочно проверяю домены с CF/TF меньше трех, но болше 2.

2) Сайт использует технологию AMP. При проверке AMP страниц выявлено, что первое, что видит пользователь на таких страницах – большие рекламные объявления. При этом рекламный контент иногда по площади превышал саму новость.

Рекламные блоки на AMP страницах впоследствии были удалены.

3) Как вы помните, в процессе майского апдейта Google анонсировал появление нового сигнала ранжирования «Опыт восприятия страницы».

Он включает новые метрики, а так же ряд старых сигналов, в том числе https. По моему убеждению, роль https, как сигнала ранжирования, в связи с этим была усилена.

Как оказалось, у большинства сайтов, которые я анализировал и которые потеряли трафик из Google после майского апдейта, рейтинг SSL был «В», а требуется «А» или «А+».

На Cloudflare были сделаны соответствующие настройки и рейтинг SSl стал «А+».

SSL Checker

Установите минимальную версию TLS на 1.2. Обратите внимание на то, что не все версии браузера поддерживают TLS 1.2 и выше.

Поэтому, внимательно прочитайте документацию Cloudflare прежде, чем что-то менять. 

В то же время, по состоянию на июнь 2018 года TLS 1.2 является версией, требуемой Советом по стандартам безопасности индустрии платежных карт (PCI). Cloudflare рекомендует перейти на TLS 1.2 для соответствия требованиям PCI.


Результаты

Восстановление после майского апдейта Google

На графике видно, что примерно через сутки трафик резко вырос до 10 тыс. пользователей в сутки и сейчас он колеблется в диапазоне 5-10 тыс. пользователей в сутки.

Другими словами, это позволило вернуть органический трафик Google на уровень, который был до Майского обновления ядра.

P.S. Возможно это совпадение, но результат есть. Всем рекомендую попробовать такую комбинацию действий.

Основной фокус внимания: ссылки, скорость, избыточная (агрессивная) реклама.
Подробнее

Молодой сайт и Песочница Google

Молодой сайт и Песочница Google

На просторах Рунета гуляет старый SEO-миф о существовании у Google алгоритма под названием «Песочница».

Если молодой сайт плохо или не стабильно ранжируется, многие говорят, – «сайт попал в Песочницу». Услышав такой ответ, веб-мастера начинают лихорадочно искать пути выхода из несуществующего "фильтра".

Лет пять назад в Справочном центре для вебмастеров Google была страница FAQ.

Там была такая фраза:
Позиции сайта не присваиваются ему раз и навсегда. В первое время страницы нового сайта могут ранжироваться без учета некоторых факторов, которые для этого сайта еще не выяснены.
Вопрос в том, «первое время» – это сколько? Месяц, три месяца, год?

Я, учитывая аналогию со сроками переезда на новый домен, всегда считал, что период нестабильного ранжирования нового сайта составляет от трех до шести месяцев (180 дней).

Поэтому я немного удивился, когда John Mueller на встрече с вебмастерами 12 июня 2020 года заявил, что период нестабильного ранжирования нового сайта составляет до одного года.
Я думаю, что, если вашему веб-сайту всего пара месяцев, может быть, восемь месяцев, может, год, он ещё слишком молод по сравнению с другими сайтами интернета.
Это как раз то время, когда наши алгоритмы все еще пытаются выяснить, как и где мы должны показывать ваш сайт в результатах поиска в целом. Так что в это время нормально видеть какие-то колебания при ранжировании сайта в поиске. Иногда такой сайт ранжируется выше. Иногда ниже. А потом я бы сказал, что в течение года все стабилизируется.
- John Mueller, Google
Другими словами – в течение первого года любой сайт для Google считается новым.

Существует ли алгоритм «Песочница» в Google?

Да существует, но как тестовая среда для оценки сайтов асессорами.

Что касается нестабильного ранжирования в первый год существования сайта.

Согласно патента «Ранжирование документов» US8244722B1, система определяет первый ранг, связанный с документом, и определяет второй ранг, связанный с документом, где второй ранг отличается от первого ранга. Система также изменяет в течение переходного периода, который происходит во время перехода от первого ранга ко второму рангу, ранг перехода, связанный с документом, на основе функции перехода ранга, которая изменяет ранг перехода с течением времени без какого-либо изменения связанных факторов ранжирования с документом.

В более свежем патенте «Представление информации о результатах поиска» US 20180089199 A1 (дата публикации - 29 марта 2018 г.) сказано, что ранжирование может включать в себя сначала ранжирование множества результатов поиска без использования контента, а затем изменение ранжированных результатов поиска с использованием контента. Выполнение ранжирования дополнительно может включать в себя анализ обратных ссылок, соответствующих множеству результатов поиска.

Как тут не вспомнить слова Андрея Липатцева, что уже давно не ссылками едиными.

Дело в том, что в патенте US 20180089199 A1 речь идет о том, что кроме привычного для нас всех модуля PageRank упоминается ещё один модуль – «Ранкер веб-блокнотов».

PageRank использует обратные ссылки для определения ранжирования. Вместо модуля PageRank может использоваться другой ранкер, например, тот, который анализирует содержимое веб-страницы определенным образом.

Средство ранжирования на основе веб-блокнотов использует контент веб-блокнотов (веб-страниц) для определения рейтинга. Это своего рода шаблон из контента веб-страниц отвечающих поисковому запросу, с которым сравнивается страница сайта.

Учитывая это, рекомендую прочитать, как Google классифицирует сайты используя машинное обучение и нейронные сети.

При работе средство ранжирования может сначала заставить модуль PageRank ранжировать результаты поиска на основе обратных ссылок. Затем может заставлять «Ранкер веб-блокнотов» изменять ранжирование результатов поиска на основе их соответствия другим интернет страницам, которые включены в индекс для ранжирования по конкретному запросу.

Почему возникает фильтр «Песочница»? 

"Возникает" этот фильтр только в воображении тех, кто не совсем хорошо представляет процесс ранжирования.

Как известно, для целей ранжирования Google использует более 200 факторов ранжирования и каждый из них имеет свой вес.

Условно, формула ранжирования имеет такой вид:

Рейтинг = (Фактор1 х 0,7) + … (Фактор135 х 0,4) + …

На начальном этапе такой фактор ранжирования, как PageRank ещё не будет рассчитан, а ведь он определяет авторитет страницы.

И это логично, поскольку новые сайты никто не знает, у них не может моментально появится авторитет и популярность.

Кроме того, новые сайты изначально могут ранжироваться с учетом контента и без него.

В патенте «Ранжирование документов» US8244722B1 также упоминается период перехода от первоначального ранга ко второму. Функция перехода ранга может генерировать «ранг перехода», который вставлен между старым рангом и целевым рангом.

Ранг перехода может вызывать основанный на времени отклик задержки, отрицательный отклик, случайный отклик и / или неожиданный отклик во время перехода от старого ранга к целевому рангу.


Из патента «Ранжирование документов» US8244722B1 следует, что в период перехода от первоначального ранга к следующему целевому, существует некий в период времени, в течение которого Google намерен изрядно попортить веб-мастеру нервы нестабильно ранжируя или не совсем ожидаемо ранжируя новый сайт.

В том же таки патенте US8244722B1 сказано:
для изменения основанной на ссылках информации интернет-страницы может потребоваться приблизительно 70 дней, чтобы изменить ранг документа на его постоянное (целевое) значение.
Надеюсь, что из написанного вам станет понятно почему новый сайт может плохо или не стабильно ранжироваться и почему алгоритма «Песочница» в Google не существует.

Подписывайтесь на мой блог и Телеграм канал SEO inside.
Подробнее

Всё о Песочнице Google (Sandbox Google)


Существует бородатый SEO-миф о том, что у Google якобы есть «фильтр», который применяется преимущественно к новым сайтам, не позволяя им хорошо ранжироваться. Такого "фильтра" нет и никогда не было.

На самом деле, «Песочница» как таковая существует, но она не имеет ничего общего с тем, что описано в указанном выше мифе.

Посмотрите внимательно это видео. На нем идет речь о том, как в Google тестируют результаты поиска.


Раджан Патель: Мы также проверяем изменения в нашей системе при помощи настоящих пользователей. Марк Паскин: Для этого у нас есть специальная тестовая среда, в которую мы перенаправляем незначительный процент пользователей Google.

В оригинале слова Марка Паскина звучит так: «And we do this in something that's called a Sandbox. We send a very small fraction of actual Google traffic to the Sandbox».

Что такое Песочница?

Многие из вас видели в Яндекс Метрике и в Google Analytics переходы с sandbox.google.com.

На мой взгляд, это означает, что в этот период сайт по каким-то причинам отобрали в тестовую среду «Песочницу» и его посещал асессор, который в последствии сделал соответствующие оценки.

Песочница Google


Так что, по моему предположению, переходы с sandbox.google.com, - это посещение сайта асессором. Это и есть "Песочница" Google.


Этой весной (в марте 2020г.) в разделе "Переходы" Google Analytics я видел переходы от joachimheck-gws.sandbox.google.com по двум сайтам.


Оба эти сайта «по счастливой случайности» с началом Майского апдейта резко потеряли в трафике.

Подписывайтесь на мой канал в Телеграм SEO inside.
Подробнее

Google будет блокировать некорректные уведомления


28 мая 2020 года в блоге Chromium опубликовано сообщение о том, что Google будет блокировать некорректные уведомления.

О чём речь и к чему нам готовится?


Некорректные уведомления (Abusive notifications) - уведомления браузера, которые использованы для введения пользователей в заблуждение, для фишинга (получения личной информации) или продвижения вредоносных программ. Эти некорректные уведомления подразделяются на две большие категории: «проблемы с запросом на разрешение» и «проблемы с уведомлением».


Проблемы с запросом разрешения — это запросы, предназначенные для введения в заблуждение, обмана или принуждения пользователей к разрешению уведомлений. Одним из примеров этого являются веб-сайты, которые требуют, чтобы пользователи разрешали уведомления, чтобы получить доступ к контенту сайта, или которым предшествуют вводящие в заблуждение предварительные запросы.


Проблемы с уведомлением включают в себя поддельные сообщения, похожие на сообщения чата, предупреждения или системные диалоги. Они также включают в себя фишинговые атаки, навязчивую тактику, чтобы обманом заставить пользователей делиться личной информацией, и уведомления, которые рекламируют вредоносное программное обеспечение или ссылаются на него.

Начиная со стабильной версии 14 июля 2020 года, сайты с недобросовестными запросами на разрешение или оскорбительными уведомлениями будут автоматически регистрироваться браузером Chrome 84, в специальном интерфейсе уведомлений, а пользователи будут получать уведомление о том, что сайт может пытаться их обмануть.

Некорректные уведомления и веб-инструменты

Возможно кто-то забыл, но в Google Search Console есть специальный раздел «Веб-инструменты».

С целью борьбы с некорректными уведомлениями там уже создан специальный инструмент https://www.google.com/webmasters/tools/abusive-notifications
Google будет блокировать некорректные уведомления

Там вы будете получать от Chrome сообщения четырех типов.


Выключено. К сайту не применяется контроль в Chrome.

Включено. К сайту применяется контроль в Chrome. Это означает, что для всех пользователей Chrome блокируются как запросы на показ уведомлений, так и сами уведомления, даже если ранее пользователи давали соответствующее разрешение.

Приостановлено. Действие контроля в Chrome приостановлено на время проверки сайта.

Начало: [дата]. Действие контроля в Chrome начнется с указанной даты. Мы отправим владельцам и пользователям сайта уведомление об этом как минимум за 30 календарных дней. Чтобы контроль не применялся, устраните нарушения и запросите повторную проверку сайта.

Те сайты, которые используют некорректные уведомления, начиная с 14 июля 2020 года могут резко потерять в трафике.
Подробнее

Опыт восприятия страницы - новый сигнал ранжирования


Google внедрил новый сигнал ранжирования под названием — "Опыт восприятия страницы".

Опыт восприятия страницы — это набор сигналов, которые измеряют то, как пользователи воспринимают взаимодействие с веб-страницей за пределами ее чистой информационной ценности.

Он включает в себя Core Web Vitals, представляющий собой набор метрик, которые измеряют реальный пользовательский опыт для загрузки производительности, интерактивности и визуальной стабильности страницы.
Опыт восприятия страницы - новый сигнал ранжирования

Сигнал восприятия страницы измеряет аспекты того, как пользователи воспринимают взаимодействие с веб-страницей.

Оптимизация под эти факторы делает Интернет более привлекательным для пользователей во всех веб-браузерах и поверхностях и помогает сайтам развиваться в соответствии с ожиданиями пользователей на мобильных устройствах.

Опыт восприятия страницы включает в себя сигналы, полученные от Core Web Vitals, в сочетании с существующими поисковыми сигналами для работы со страницами, включая удобство для мобильных устройств, безопасный просмотр, HTTPS-безопасность и отсутствие навязчивых рекламных вставок, чтобы обеспечить целостную картину восприятия страницы. 

Сигналы опыта страницы 

"Отрисовка крупного контента (LCP)": измеряет эффективность загрузки. Чтобы обеспечить хороший пользовательский опыт, сайты должны стремиться к тому, чтобы LCP появлялся в течение первых 2,5 секунд после начала загрузки страницы.

"Первая задержка ввода (FID)": измеряет интерактивность. Чтобы обеспечить хороший пользовательский опыт, сайты должны стремиться иметь FID менее 100 миллисекунд.

"Совокупное смещение макета (CLS)": измеряет визуальную стабильность. Чтобы обеспечить хороший пользовательский опыт, сайты должны стремиться к тому, чтобы оценка CLS была менее 0,1.

"Mobile-friendly" — страница удобна для мобильных устройств.

"Безопасный просмотр" — страница не содержит вредоносного (например, вредоносного) или вводящего в заблуждение (например, социального инжиниринга) контента.

"HTTPS" — страница использует защищённый протокол HTTPS. Еще три года назад один из инженеров Google говорил, что http — это табу.

"Отсутствие навязчивых вставок" — содержимое на странице легко доступно для пользователя. Рекламные вставки могут сделать контент менее доступным.

Майское обновление Google 2020 

Я опубликовал детальный анализ майского обновления алгоритма Google.

Обращаю ваше внимание на то, что в рамках этого обновления внедрены в качестве сигналов ранжирования LCP, FID, CLS. В Search Concole появился отчет с этими показателями.


Одновременно произошло широкое обновление браузера Chrome, которое нацелено на блокирование тяжелой медийной рекламы, особенно той, которая связана с возможным майнингом и нагрузкой ресурсов компьютеров. Можно говорить о том, что это обновление браузера связано с таким сигналом ранжирования опыта восприятия страницы, как "Отсутствие навязчивых вставок". Об этом я уже писал в своем Телеграм канале SEO inside.

Подписывайтесь на мой блог и Телеграм канал и всегда будете в курсе всех важных новостей.
Подробнее

Майское обновление алгоритма Google 2020 года

Майское обновление алгоритма Google 2020 года

4 мая 2020 года в 21:00 Danny Sullivan в Твиттере сообщил о начале широкого обновления ядра алгоритма Google.

Он указал, что они называют это майским обновлением алгоритма Google 2020 года.

Через два часа после первого твита Danny Sullivan опубликовал одно уточнение:
Как обычно, для этих обновлений, для полного развертывания требуется около одной-двух недель.

Майское обновление алгоритма Google


По моим наблюдениям, развертывание широкого обновления ядра может закончится чуть раньше, через десять дней после его начала.

Обязательно прочитайте об особенностях широких обновлений ядра Google в моих публикациях. Там очень много интересного.

Традиционно, видимо чтобы мы с вами не задавали много вопросов, Danny Sullivan рекомендует нам в очередной раз перечитать официальную публикацию "Что вебмастера должны знать об основных обновлениях Google".

Хочу сказать, что в этой публикации действительно много полезной информации о широких обновлениях ядра Google.

Первые рекомендации для вебмастеров:


1) Следите за обсуждением в этих твитах. Как показывает практика, со временем Danny Sullivan опубликует там чуть больше ценных деталей.

2) Следите за позициями и трафиком на протяжении обновления. Определите список страниц, у которых больше всего в ту или иную сторону в период обновления менялись эти показатели.

3) Подождите минимум десять дней после официального завершения майского обновления алгоритма Google 2020 года и только тогда начинайте анализировать, что могло повлиять и на какие страницы повлияло. Для этого откройте Google Analytics, перейдите в "Источник/Канал", выбираем Google organic.

Можно сравнить десять дней до начала обновления и десять дней после окончания обновления. Дополнительный параметр - "Страница входа". В том случае, если у трафика есть сезонность (например в выходные всегда ниже), рекомендую выбрать более продолжительные, но сопоставимые по времени периоды до и после апдейта. Например, сравните две полные календарные недели до начала обновления ядра и две после него.

Перейдите в Google Search Console. Если вы видите падение CTR без соответствующего падения показов, проверьте последние изменения на сайте, особенно изменения, которые могут повлиять на то, что отображается в результатах поиска (включая ваши теги TITLE и описания META). Однако в этом случае разумно предположить, что вы наблюдаете общее падение спроса, например из-за глобальной пандемии коронавируса COVID-19.

Майское обновление алгоритма Google - первые особенности

По состоянию на 16 часов (по Киеву) 5 мая 2020 года я, как и Marie Haynes никаких особенностей в своей клиентской базе не выявил.

Единственный момент, на который я обратил внимание, что у некоторых клиентов наблюдаются аномальные изменения в трафике с мобильных устройств.

Интересное наблюдение я получил от зарубежных любителей "чёрной шляпы":
Еще одна вещь, которую я заметил, - почти все сайты, которые занимают 1-5 позиций по ключевым словам в этой нише, сейчас не содержат рекламы или очень мало рекламы. По сути, мой веб-сайт — единственный, на котором размещено больше рекламы, что немного беспокоит. В основном все другие сайты, которые имели много рекламы, полностью опустились из первой десятки ... Это обновление может относиться как к рекламе, так и к времени загрузки страницы, поскольку, очевидно, что рекламные материалы сильно влияют на время загрузки. 
Одновременно с обновлением алгоритма поиска произошло широкое обновление браузера Chrome, которое нацелено на блокирование тяжелой медийной рекламы, особенно той, которая связана с возможным майнингом и нагрузкой ресурсов компьютеров.

Подробнее об этом сообщили 14 мая в Блоге Chromium. Там же и указаны параметры рекламы, которая будет блокироваться.

Насколько я знаю, официальные публикации в таких блогах готовятся минимум неделю.
Вот и получается, что запуск обновления Chrome был частью всех этих майских обновлений.

Так что подозрения по поводу возможного понижения сайта в рейтинге из-за обилия или типа рекламы вполне оправданы.

Так же есть хоть и косвенное, но зато официальное подтверждение, что обновление алгоритма включает в себя изменения, связанные со скоростью загрузки сайтов.

В период майского обновления алгоритма в Google Search Console в разделе "Скорость загрузки" появилось сообщение:
В связи с предстоящими изменениями в отчете проверка заданий временно отключена.
В справке Google по этому поводу сказано:
Если отчет содержит сообщение о том, что проверка временно невозможна, значит мы обновляем критерии, относящиеся к некоторым проблемам в этом отчете.
С началом майского апдейта Google, а именно 5 мая 2020 года, в блоге Chromium была опубликована статья о запуске новой программы под названием Web Vitals, которая определяет важные показатели для здорового сайта.

Три основные индикатора:

LCP (Largest Contentful Paint)  измеряет воспринимаемую скорость загрузки и отмечает точку на временной шкале загрузки страницы, когда основное содержимое страницы, вероятно, загружено. Оптимизировать>>>
FID (First Input Delay)  измеряет скорость отклика и количественно определяет опыт, который испытывают пользователи, когда пытаются впервые взаимодействовать со страницей. Оптимизировать>>>
CLS (Cumulative Layout Shift)  измеряет визуальную стабильность и количественно определяет величину неожиданного сдвига шаблона видимого содержимого страницы. Оптимизировать>>>

Все эти метрики созданы для измерения качества пользовательского опыта.

Похоже, что майское обновление ядра Google затронуло трафик из Discover. На Справочном форуме Google появляется всё больше тем по этому поводу. Вот пример.

В официальной публикации Google, посвящённой апдейтам (см. выше), сказано:
Обновления ядра также могут повлиять на Google Discover.
То, что обновление затронуло Google Discover 6 мая 2020 года официально подтвердил Danny Sullivan.

Джон Мюллер в феврале 2020 года подтвердил , что в процессе выкатки январсокго обновления 2020 года так же был затронут трафик с Google Discover. Похоже, на то, что это регулярная практика при широком обновлении алгоритма.

11 мая 2020 года Михаил Шакин специально для этой статьи предоставил такой комментарий:
Я считаю, что выводы можно будет делать через 3-4 недели после начала апдейта, когда накопится необходимая информация. Бывает, что в некоторых тематиках обновления частично откатывают. На данный момент могу сказать по продвигаемым мной англоязычным сайтам, что в тематике домашних животных наблюдаю наибольшие изменения как в минус, так и в плюс. Транспорт, юридическая и музыкальная тематики, мода и красота, технологии  практически без изменений.
Маркус Тобер из Search Metrics прокомментировал ситацию с майским обновлением Google таким образом:
Это обновление кажется более широким, чем предыдущие обновления. Из моего анализа, проведенного всего за несколько часов, кажется, что Google снова работал над факторами контента в сочетании с факторами бренда (возможно, включая CTR / данные пользователя). 
Matt Smith заметил такую особенность, что многие форумы потеряли в видимости. Анализируя этот аспект Glenn Gabe подметил такую деталь — рейтинг потеряли темы форумов 2012 , 2011 годов и более раннее.

В случае с форумами причиной, скорее всего, является устаревание информации (потеря актуальности и интереса пользователей). Вот, что Google пишет по этому поводу:
В рамках наших постоянных усилий, направленных на то, чтобы Поиск работал лучше для вас, новое обновление алгоритма улучшает понимание нашими системами того, какая информация остается полезной с течением времени, а какая быстрее устаревает

Роль EAT и асессоров при обновлении алгоритма Google


В марте 2020 года Google отвечая на вопрос, является ли EAT фактором ранжирования, сказал:
Наши автоматизированные системы используют множество различных сигналов для ранжирования отличного контента в соответствии с критериями EAT.

Таким образом, ЕАТ  это не самостоятельный фактор ранжирования, а набор критериев, для оценки каждого из которых Google использует микро алгоритмы в рамках единой модели оценки.

Вы можете спросить, причём тут какие-то модели и обновление алгоритма Google.

6 мая 2020 года отвечая в Твиттере на один из вопросов о майском обновлении алгоритма Danny Sullivan сказал:
Основные вещи, которые мы ищем для оценки отличного контента, не меняются. Мы просто могли бы улучшить способы моделирования поиска этого контента.
Как известно, Google использует искусственный интеллект и определённую модель для оценки качества сайтов.

Я об этом писал в своём исследовании - "Как Google классифицирует YMYL сайты".

В той же таки публикации Google о специфике обновлений сказано:
...улучшения, которые мы вносим в Поиск, не совершенны. Вот почему мы продолжаем обновлять. Мы тестируем любое широкое обновление ядра, прежде чем его выпустить, включая сбор отзывов от вышеупомянутых оценщиков качества поиска, чтобы выяснить, насколько полезны наши взвешивания сигналов.
Как известно из патентов Google каждому сигналу ранжирования присвоен определённый весовой коэффициент. Судя по всему, поучив и проанализировав отчёты оценщиков, Google эти веса для модели искусственного интеллекта периодически пересматривает.

Как эти веса поменялись и в отношении каких сигналов определить невозможно, но после окончания апдейта попробуем выявить какие-то закономерности.

Анализ майского обновления Google

Традиционно для анализа обновлений алгоритма Google я использую данные SEMrush Sensor.

Судя по данным SEMrush Sensor пик обновления алгоритма Google был 6 мая 2020 года.

Рис.1
SEMrush Sensor - обновление алгоритма Google

Senior Marketing Manager SEMrush Евгений Середа, так прокомментировал эту ситуацию в  сообществе Сообщество Google для вебмастеров Facebook:
Как видно на графике, 6 мая было самое сильное потрясение. Судя по постам в Facebook за сегодня (8 мая 2020 - прим.авт.) и по сенсору, изменения ещё есть. Такие апдейты имеют очень высокое пиковое значение (как на фото), резкий спад в последующие дни и небольшую встряску после. Дело в том, что или сам алгоритм поднастраивается или его поднастраивают. 2 недели, о которых ты пишешь, возможно как раз попадают в этот отрезок времени
Сильно перетрясло все тематики сайтов. По этому победители и проигравшие есть во всех нишах.

Если говорить о первой пятёрке тематик, в которой сильно пострадали сайты, то к ним в этот раз относятся:
* Online Communities -5.8
* Games -5.2
* Internet & Telecom -4.9
* Pets & Animals -4.9
* Arts & Entertainment -4.3

Судя по этим тематикам, в этот раз фокус обновления алгоритма Google не нацелен преимущественно на YMYL - сайты.

Косвенно это подтверждают предварительные результаты исследования Лили Рэй, опубликованные 8 мая 2020 года:
Базовое обновление в мае 2020 года, по-видимому, оказало непропорциональное влияние на YMYL-сайты.
Она проанализировала 550 доменов по индексу видимости Sistrix U.S.

И если в предыдущих подобных обновлениях трясло в основном мобильную выдачу, то в этот раз изменения были одинаковыми для десктопной и мобильной выдачи.

8 мая 2020 года редактор блога SEMrush Melissa Fach опубликовала статью "Обновление Google от мая 2020 года".

С её слов, майское обноление алгоритма Google больее сильное, чем январское обновление 2020 года.
...наиболее подверженными влиянию категориями являются Путешествия, Недвижимость, Здоровье, Животные и животные, Люди и общество. Мы также заметили, что многие крупные домены сильно пострадали. Около половины значительных изменений рейтинга в США происходит на сайтах с трафиком, превышающим 1 миллион посетителей в месяц.
— Melissa Fach
Все эти категории так или иначе связаны с глобальной пандемией, карантином. Google неоднократно сообщал о небывалом росте популярности запроса "Covid-19" и, как следствие, повление огромного количества связанного с этой темой контента. Именно по этому, по данным SEMrush категория "Новости" в числе основных победителей.

Моя гипотеза состоит в том, что в майском обновлении алгоритма Google в какой-то степени происходит перераспределение объемов трафика, которые ранее получали сайты-миллионники, на мение популярные сайты.

Моя выборка по данным SEMrush Sensor на пиковую дату апдейта (6 мая 2020 года) изначально составляла 200 доменов (100 "Победителей" и 100 "Проигравших"). Я отбирал домены из мобильной версии по локации США.

Из них 3,5% (семь доменов) не отдавали ответ 200. Это на уровне статистической ошибки, но, на всякий случай, проверьте техническую сторону работы своих сайтов, особенно редиректы, настройку протоколов и метатегов.

После окончательной очистки и форматирования данных в моей выборке осталось 176 доменов (86 "Проигравших" и 90 "Победители").

Первое, что бросается в глаза – это два пиковых показателя: Total backlink Ahrefs (слева на Рис.2) и External Backlinks  –  Majestic (справа на Рис.2).

Рис.2Майское обновление Google - обновили Пингвин

Я специально на Рис.2 добавил увеличенное изображение этих показателей. Красная линия – это показатель "Победителей", а синяя – соответственно "Проигравших" сайтов.

Напоминаю значение этих показателей:
* Total backlink Ahrefs: это количество внешних обратных ссылок, найденных на ссылающихся страницах, которые ссылаются на цель.
* External Backlinks  –  Majestic: это количество внешних обратных ссылок на целевой URL (режим: Host) в соответствии с Majestic.

Мы видим, что оба показателя – это количество обратных ссылок и в обоих метриках значения показателя "Обратные ссылки" у "Проигравших" сайтов значительно превышает количество обратных ссылок у "Победителей".

В числе основных неудачников в этот раз попал сам LinkedIn. Как вы помните, Seroundtable 6 мая 2020 сообщил о том, что Google исключил из индекса LinkedIn.

Я сначала подумал, что аномальное значение беклинков LinkedIn могло исказить значения на указанном выше графике (Рис.2), но даже после временного исключения LinkedIn из набора данных, показатели пиковых значений остались прежними.

Поэтому, можно предположить, что майское обновление ядра алгоритма Google, в том числе, было нацелено на ссылочный спам. Возможно существенно обновили алгоритм Пингвин.

Обратные ссылки учитываются в расчёте одного из самых глаавных факторов ранжирования Google – Page Rank, который определяет важность страницы. В одном из интервью Джон Мюллер сказал, что с течением времени контент может устаревать и ссылки, которые в нём находятся теряют вес.

Следовательно, с уменьшением релевантности страницы-донора, уменьшается влияние обратных ссылок на ваши целевые страницы, что может привести к падению позиций, а затем и трафика.

Вот первая тройка показателей, по которым между «Победителями» и «Проигравшими» сайтами есть статистически значимые (не случайные) отличия. У сайтов-победителей из моей выборки значения этих показателей в полтора два раза ниже, чем у «Проигравших». Поэтому для ориентира привожу средние значения только для сайтов-победителей.

1. «Images – On-Page: URL» – количество изображений, найденных в тегах <img> на целевой странице. Среднее значение для «Победителей» – 28.
2. «Words – On-Page: URL» – количество слов в разделе <body> целевой страницы. Среднее значение для «Победителей» – 999.
3. «Content Size – On-Page: URL» – количество символов (включая пробелы) в разделе <body> документа, исключая теги HTML. Проще говоря, размер текста на странице, включая пробелы. Среднее значение для «Победителей» – 6171.

Еще статистически значимые отличия есть по параметру «Text/HTML Ratio – On-Page: URL» – это соотношение текстового содержимого (параметр «Размер содержимого») ко всему содержимому (параметр «Размер HTML») в целевом объекте.  У сайтов-победителей это значение в среднем 0,079, а для «Проигравших» соответственно – 0,10 При этом, в группе «Проигравших» большое количество сайтов с соотношением от 0,001 до 0,079.

Рис.3

Метрики влияния при обновлении Google

Как видно на Рис.3, показатели «External Backlinks  –  Majestic»,  «Images – On-Page: URL», «Words – On-Page: URL», «Text/HTML Ratio – On-Page: URL» притягивают к себе в основном сайты-неудачники. Возможно, эти показатели каким-то образом повлияли на определение рейтинга сайтов, которые потеряли позиции и трафик в течение майского обновления алгоритма Google.

По поводу количества слов (символов) на странице, есть такие мысли. Возможно, после запуска Google BERT стала ещё более важной суть написанного, а не количество слов или символов в тексте.

Наверное, хочется хоть в общих чертах понять общие признаки сайтов-победителей.

Используя машинное обучение на базе этого набора данных построим модель в виде дерева решений.

Во всех "ветках" дерева решений предиктором выступает параметр  «Words – On-Page: URL» (количество слов). Это позволяет предположить, что при обновлении одну из решающих ролей сыграли сигналы ранжирования, определяющее качество контента, а не его количество. За качество контента у Google отвечает алгоритм "Панда", а данные он скорее всего получает, в том числе, от Google Bert.

Рис.4
Google may update - Winners

С уровнем уверенности 83% можно сказать, что сайт-победитель имеет такие общие основные параметры:
* Количество слов на странице меньше 600.
* Количество изображений на странице меньше 23.
* Ahrefs Domain Rating больше 44,5.

Это возможно совпадение, но один из пользователей форума BHW поделился наблюдениями, соответствующими моим результатам:
На одном из моих веб-сайтов, который сильно пострадал, было много спамных ключевых слов, а количество контента длиной более 800 слов. Мой другой веб-сайт, контент на котором меньше 500 слов, получил небольшое увеличение, никакого снижения. У моих конкурентов в среднем около 500-600 слов, и они занимают первое место.
Напоминаю, что выборка не большая и содержит только демены, указанные в SEMrush Sensor по состоянию на 6 мая 2020 года, потому эти результаты могут отличаться от выводов других экспертов.



Основные выводы


1) Это обновление не нацелено на E-A-T.
2) Обновление ядра затронуло Google Discover. Похоже, это стало "доброй" традицией.
3) Google внедрил и протестировал новые метрики – LCP, FID и CLS. Как сказал мне по секрету один из инженеров, скоро это будет критически важно для многих сайтов. Возможно LCP, FID и CLS скоро станут очень важными сигналами ранжирования, если уже таковыми не стали.
4) Обновлены основные алгоритмы (Penguin, Panda, BERT).
5) Взвешивание сигналов ранжирования, скорее всего, было изменено в соответствии с новыми качественными данными оценщиков. Это приводит а автоматическому пересчёту рейтинга страниц и обратных ссылок.
6) Произошло широкое обновление браузера Chrome, направленное на блокирование определённого типа рекламы. Те сайты, на которых были подобные рекламные блоки, могли потерять в рейтинге.
7) В процессе анализа данных SEMrush, а так же тех сайтов, которые меня попросили проверить, было выявлено много технических огрехов. Некоторые сайты имели в индексе полные дубли, некоторые в период обновления меняли домен и не все правильно настроили, у некоторых сайтов был закрыт от индексации контент. Так что иногда основная причина не в обновлении алгоритма.

Обратите особое внимание на количество и качество обратных ссылок. Как показали результаты исследования, это является одной из основных причин снижения позиций и трафика.

Еще одна цель этого обновления – качество контента. Часть его устаревает (как в описанном выше случае с форумами), а это означает потерю релевантности.

Так что много пострадавших сайтов, вероятно, попали под воздействие алгоритма Пингвин или Панда.

Что нам нужно сделать?

1) Проверьте качество ваших обратных ссылок.
2) Обновите контент на страницах, которые затронуты.
3) Удалите тонкий контент или добавьте новый полезный контент на эти страницы.
4) Если вы видите падение CTR без соответствующего падения показа, просмотрите последние изменения на сайте, особенно те, которые могут повлиять на то, что отображается в результатах поиска (включая ваши теги TITLE и описания META). Однако в этом случае разумно предположить, что мы наблюдаем общее падение спроса.
5) Тщательно проверьте возможные технические проблемы вашего сайта.
6) Подумайте от какой рекламы вы можете отказаться.
Подробнее