388x60 Ads

Результаты исследований: CTR и ранжирование

Google внёс много изменений в свой интерфейс. В том числе AMP, локальные пакеты объявлений, запуск алгоритма Rank Brain, увеличение количества рекламы в SERP и многое другое.

Как это повлияло на CTR? Существует ли корреляция между CTR и позицией сайта в SERP?

В этой статье я опубликую перевод результатов нескольких исследований.

Факторы ранжирования и CTR

В Патенте Google сказано, что CTR  –  индикатор популярности и, следовательно, потенциальный индикатор качества [1].
CTR – это количество кликов по объявлению, разделённое на число показов.
Высокий CTR означает, что пользователи считают ваши объявления полезными и релевантными. CTR объявления также влияет на расчётный CTR ключевого слова (от которого, в свою очередь, зависит показатель качества), а потому он может влиять на позицию и стоимость объявления.
Cправка - AdWords
Google традиционно опровергает информацию о том, что CTR – это фактор ранжирования.

Инженеры Google говорят о том, что не нужно искать зависимость между результатами органической и рекламной выдачи. Если показатель кликабельности влияет на рекламную выдачу это не означает, что автоматически влияет и на органическую.

Но так ли это? Многие веб-мастера и аналитические агентства сомневаются в том, что нет взаимосвязи между CTR и позицией в органической выдаче. Определённая логика в этом есть. Основная цель Google более высоко показывать в SERP результаты максимально полезные и релевантные поисковому запросу.
Есть две стороны хорошей целевой страницы: качество и релевантность. «Качество» означает, что у пользователей хороший опыт посещения сайта. «Релевантность» означает, что они находят то, что было обещано в объявлении.
AdWords TenScores
Если кликабельность  –  индикатор популярности, качества целевой страницы, полезности и релевантности, то вполне вероятно, что CTR хоть и косвенно, но учитывается для целей ранжирования. С другой стороны, определённая корреляция позиции в SERP показателя кликабельности может быть лишь следствием расчёта рейтинга страницы с учётом признанных факторов ранжирования и выбора пользователя.

Обязательно прочитайте!
О RankBrain в подробностях
Как люди просматривают сайт
Fred не существует

Ignite Visibility провело в 2017 году исследование проанализировав 5000 запросов.

Они отмечают, что, как правило, страницы с более высоким рейтингом в Google имеют более высокий CTR.

Процентные ставки CTR в 2017 году в зависимости от позиции в SERP Google.
CTR и ранжирование
Изображение Ignite Visibility

Распределение процентных ставок CTR в 2017 году по позициям из ТОП 10 Google.
Позиция 1 – 20,5%
Позиция 2 – 13,32%
Позиция 3 – 13,14%
Позиция 4 – 8,98%
Позиция 5 – 9,21%
Позиция 6 – 6,73%
Позиция 7 – 7,61%
Позиция 8 – 6.92%
Позиция 9 – 5,52%
Позиция 10 – 7.95%

Ignite Visibility видит существование чёткой корреляции между ранжированием позиции и кликами в Google. Они считают логичным (закономерным) распределение CTR в зависимости от позиции в SERP до десятой позиции, которая имеет небольшой рост[2].

Основываясь на этом исследовании, Ignite Visibility считает значение CTR важным моментом для ранжирования позиций в Google в 2017 году.

По-прежнему верно, что чем больше запросов сайта на первой странице SERP, тем больше трафика вы получите. Но тут нам следует обратить внимание на другое исследование.

Снижение кликабельности на 37%

Специалисты агентства Wordstream заметили падение трафика по топовым запросам. Они заподозрили, что это связано с изменением представления результатов в SERP Google и привело к снижению CTR.

Wordstream проанализировало 24 запроса, по которым они в течение двух лет неизменно занимают первую позицию.
По данным исследования Wordstream, средний CTR снизился на 37 процентов![3]

Причём несмотря на увеличение доли мобильного трафика Wordstream наблюдают падение CTR на всех типах устройств.

Летом 2017 года Internet Marketing Ninjas (IMN) опубликовал собственное внутреннее исследование о CTR.

IMN проанализировали 20 000 запросов, которые за 3 месяца получили более 64 миллионов показов и более 4 миллионов кликов.

CTR по позициям
Изображение Internet Marketing Ninjas

IMN пришли к таким выводам:[4]
На 30% процентов результатов из ТОП 2 Google вовсе не кликают. Это довольно близко к тем результатам, которые получили специалисты Wordstream.
99% всех кликов по брендовым запросам поступают из Top 3.
● В среднем, позиция №1 в SERPs имеет CTR в диапазоне ниже 20%. IMN обнаружил, что менее половины (~ 40%) позиций № 1 получили оценку CTR не более 30%.
● Позиция №2 обычно составляет примерно половину того, что было зафиксировано в рейтинге для позиции № 1 – CTR в диапазоне 10%.

Влияние рекламных блоков на конкурентность запроса

Ещё одно интересное исследование опубликовало SEO Works.

В феврале 2016 года Google объявил о том, что они перестанут показывать рекламу с правой стороны поисковых запросов, чтобы освободить место для товарных объявлений и объявлений в панели знаний. И вместо рекламы с правой стороны у нас теперь есть реклама как в верхней, так и в нижней части SERP.
Количество блоков рекламы и уровень конкуренции
Изображение SEO Works

По данным SEO Works, уровень конкуренции по  ключевому слову напрямую связан с количеством объявлений, отображаемых в результатах поиска. Запросы, которые содержат модификаторы "купить", "купон" и тому подобное, повышают конкуренцию по ключевому слову на 50%[5].

Повышение уровня коммерциализации SERP приводит к увеличению конкуренции по коммерческим запросам. По мнению Wordstream, это хоть и незначительно, но повлияло на общий уровень снижения CTR.

[1] Патент Google "Website quality signal generation" US 8442984 B1
[2] Исследование Ignite Visibility. GOOGLE CLICK-THROUGH RATES IN 2017 BY RANKING POSITION.
[3] Elisa Gabbert. Value of a #1 Google Ranking Down 37% in Two Years?
[4] Dan O'Leary. Announcing: 2017 Google Search Click Through Rate Study.
[5] Keith Paulin. Google’s PPC Shift: How Ads for “Highly Commercial Queries” Impact Organic Results.
Подробнее

В центре внимания – юзабилити сайта

Результаты трёх исследований о юзабилити сайта


Знаете ли вы, куда посетители смотрят, посещая веб-страницу? Сколько слов и символов они воспринимают? Nielsen Norman Group провела три исследования на эту тему.

Цели тестирования – выяснить что находится в центре внимания посетителя интернет-страницы, как он её просматривает, сколько символов он воспринимает в ссылке.

Исследования в области проверки зрения показывают, что люди просматривают веб-страницы и экраны телефонов в разных шаблонах, один из которых в форме большой латинской буквы F.


В F-образном шаблоне сканирования характерно множество фиксаций внимания, сосредоточенных в верхней и левой частях страницы. В частности: сначала пользователи читают двигая глазами горизонтально, обычно через верхнюю часть области содержимого. Этот начальный элемент образует верхнюю панель шаблона восприятия F.

Затем пользователи немного перемещаются по странице и просматривают её во втором горизонтальном движении, которое обычно покрывает более короткую область, чем предыдущее движение. Этот дополнительный элемент образует нижнюю планку F.

Наконец, пользователи просматривают левую сторону содержимого в вертикальном движении.

Иногда это медленное и систематическое сканирование, которое выглядит как сплошная полоска. В других случаях пользователи двигаются быстрее. Этот последний элемент образует "стебель" шаблона внимания F.
Последствия F-шаблона внимания:
● Первые строки текста на странице получают больше взглядов, чем последующие строки текста на одной странице.
● Первые несколько слов слева от каждой строки текста получают больше фиксаций, чем последующие слова в одной строке[1].

В первых строках текста люди сканируют больше слов справа, чем на следующих.

Эта картина сканирования напоминает форму буквы F, но она редко бывает в форме идеальной литеры F. Например, в некоторых случаях люди могут заинтересоваться абзацем на странице и могут фиксироваться на большее количество слов, снова считывая вправо, поэтому картина иногда похожа на Е.

F-образный шаблон применяется для чтения пользователями области содержимого веб-страницы. Он описывает поведение людей, когда они посещают веб-страницу и оценивают ее контент, а не их поведение, когда они находятся в новом разделе веб-сайта, и проверяют навигационные панели (как правило, наверху и / или слева от страницы), чтобы решить куда идти дальше. Таким образом, в F-шаблоне, взгляды слева падают на левую часть области содержимого, а не на саму левую часть полной страницы, если левая колонка занята навигационной направляющей.
В центре внимания – юзабилити сайта
Изображение nngroup.com
Пользователи тратят 80% своего времени на просмотр левой половины страницы.
Двадцать процентов времени люди тратят, просматривая правую половину[2].

Учитывайте эргономичность при разработке сайтов и  SEO продвижении. Удобство пользования и размещения основного контента поможет максимизировать эффективность пользователей и прибыль сайта.

Обязательно прочитайте!
Как раскрутить сайт своими силами

Использование данных  SERP составляло 16% веб-тестирования и анализировались отдельно, чтобы предотвратить перекос данных. Nielsen Norman Group обнаружили, что шаблоны просмотра на страницах результатов поиска (SERP) отличаются от шаблонов просмотра в общей сети. В SERP 94% фиксаций упали на левую сторону страницы[2].

Способы убедится, что клиенты могут легко найти приоритетный контент :
- Используйте обычные верхние навигационные или левые навигационные форматы.
- Приоритетное содержание размещайте спереди и в центре, имея в виду, что правая сторона страницы привлекает гораздо меньше внимания, чем левая, и что крайняя левая область должна быть зарезервирована для навигации (если используется такой шаблон).
- Сохраняйте вспомогательный контент справа.
- Если вы используете правую часть контента, убедитесь, что люди действительно смотрят туда.
Ещё один дельный совет был опубликован на Хабре.
Избегайте рассеивания внимания. Пользователи, особенно мобильные, не любят, когда неожиданно меняется содержимое экрана. К этому нужно прибегать только в ответ на явные действия пользователей[3].
Если мы все проснёмся завтра в мире, где все сайты будут размещать навигацию справа, пользователи это заметят и будут вынуждены менять свои привычки просмотра, чтобы адаптироваться к этому новому миру.

Если вы хотите победить в гонке за внимание пользователя, убедитесь, что ваш сайт выигрывает от удобства использования. Позвольте вашим пользователям быть успешными. Успешные пользователи достигают своих целей. Поддержка целей пользователей является наиболее важной частью достижения бизнес-целей.

Тестирование того, насколько хорошо люди понимают первые 11 символов ссылки, показывает, что сайты создают для пользователей, которые обычно сканируют, а не читают списки элементов.

Цель новейшего исследования usability сайта, проведённого Nielsen Norman Group, – проверить, насколько хорошо пользователи понимают первые 11 символов ссылок и заголовков сайта.

Вам будут интересны их результаты.
● Обычно пользователи видят около 2 слов для большинства элементов списка;
● они увидят немного больше, если слова короткие;
● и только первое слово, если слова длинные.
Конечно, люди не видят ровно 11 символов каждый раз, но это число выбрали, чтобы обеспечить единообразие на сайтах, которые тестировали. Подобные принципы применимы как к ссылкам, так и к заголовкам[4].

По материалам:

1. KARA PERNICE. F-Shaped Pattern of Reading on the Web: Misunderstood, But Still Relevant (Even on Mobile)
2. THERESE FESSENDEN. Horizontal Attention Leans Left
3. Статья на Habrahabr "15 шагов по улучшению юзабилити", 30 марта 2016.
4. JAKOB NIELSEN. First 2 Words: A Signal for the Scanning Eye
Подробнее

Как Google использует слова синонимы


Почему синонимы очень важны для продвижения сайтов? Как Google использует похожие слова при обработке запросов? Синонимы  это фактор ранжирования? В этой статье вы получите ответы на эти вопросы.

Цель поисковой системы — вернуть наилучшие результаты для поиска, а понимание языка имеет решающее значение для возвращения лучших результатов. Ключевая часть этого — система для понимания синонимов. Google использует много методов для извлечения синонимов. Их системы анализируют огромное количество веб-документов и исторических данных поиска, чтобы создать сложное понимание того, что слова означают в разных контекстах.

Исследования показывают, что синонимы влияют на 70 процентов пользовательских запросов на более чем 100 языках, поддерживаемых Google.

Google взял ряд запросов и проанализировал, насколько точны синонимы, и был доволен результатами: на каждые 50 запросов, где синонимы значительно улучшали результаты поиска, Google получил только один плохой синоним[1].

Об этом в 2010 году писал инженер Google Steven Baker.


Мэтт Катс, комментируя эту статью, посоветовал веб-мастерам подумать о разных словах, которые поисковики могут использовать при поиске вашего контента. «Подумайте о сленге, который будут набирать пользователи. Не упускайте из вида термины, которые люди будут печатать, подумайте о синонимах, естественным образом соответствующие вашему контенту. Не засоряйте статью ключевыми словами, но если вы используете разные способы рассказать о предмете естественным образом, это может помочь пользователям»[2].

Так что Мэтт Катс тоже рекомендовал использовать синонимы в контенте сайта.

Что такое слова синонимы?

Определим критерии термина "синонимы".
Слова синонимы — слова, принадлежащие, как правило, к одной и той же части речи, различные по звучанию и написанию, но имеющие похожее лексическое значение.
Википедия[3]
Что происходит на практике. Часто пользователь вводит запрос на одном языке, а результаты получает на другом.

Пример — в Google-ua вводится запрос на украинском языке из четырёх слов, несозвучных и не однокоренных с похожими словами на русском языке. При этом результаты выдачи на запрос пользователь получает на русском языке.

Второй пример. Пользователь вводит запрос, а в перечне результатов видит страницы, в которых ключевое слово запроса отсутствует.

Google понимает термин "слова синонимы" более широко. Это слова одинаковые или близкие по смыслу и упоминаются в одинаковом контексте. Это необязательно слова на одном языке.

Google использует систему Knowledge base, поэтому рискну предположить, что "Корпорация добра" выкупила у Xerox Corporation патент US 8103669 B2.

Слово «синоним» относится к термину (к слову или фразе), который встречается в запросе пользователя и считается эквивалентным термину в базе знаний (knowledge base) или наоборот. Он может иметь такое же или сходное значение для термина базы знаний.
Патент US 8103669 B2[4]
«Синонимическое правило» — это тип правила расширения запроса, которое указывает пару (проблематичный термин, заменяющий термин) и необязательно содержит ограничение на контекст. Контекстное ограничение может указывать другой термин, связанный / не связанный с проблемным термином и / или заменять термин для правила расширения запроса, которое должно применяться.
Патент US 8103669 B2

Инженер Google Paul Haahr третьего марта 2016 года на конференции SMX West выступил с докладом «Как работает Google». Обратите внимание на этот слайд из доклада.
Как Google использует слова синонимы

Процесс понимания поисковой системой Google запроса состоит из трёх этапов:
- Содержит ли запрос имя или известную сущность;
- Существуют ли полезные синонимы;
- Какой контекст использования.
Как указано в Патенте US 8103669 B2 синонимы полезны в нескольких контекстах. Системы поиска информации нуждаются в создании и обслуживании правил расширения запросов на основе синонимов, поскольку терминология, используемая в доступном для поиска содержании базы знаний, часто отличается от терминологии, применяемой пользователями поисковой системы.

Системы устранения неполадок с пользовательским взаимодействием на основе пользовательского языка обеспечивают эффективные результаты только в том случае, если у пользователя есть определённый опыт терминологии, используемой в базе знаний (knowledge base), и он может выбирать правильные слова для запроса.

Синонимы должны определяться точно и выборочно чтобы быть полезными. Общий список синонимов для естественных языков в некоторых случаях отсутствует. Большинство баз знаний имеют ограниченное число правил расширения запросов, которые заменяют один или несколько синонимов для запрашиваемого термина. 

Примерный вариант реализации изобретения обеспечивает способ разработки правил расширения запросов, который может выполняться, по меньшей мере, полуавтоматически, для улучшения поиска из структурированной базы знаний (knowledge base).

Предполагается, что полуавтоматическая система [с привлечением редакторов] формирования правил расширения запроса включает в себя модуль, который автоматически извлекает пары синонимов из выражений, используемых пользователями в запросах при поиске в базе знаний. Модуль экспорта правил синонимии экспортирует правила расширения запросов на носитель данных для использования при расширении пользовательских запросов при поиске базы знаний.

Если Google использует этот Патент, подбор синонимов производится примерно в таком порядке
1. Пользователь вводит запрос;
2. Система проверяет, содержит ли он имя или сущность;
3. Система анализирует контекст использования;
4. Система производит поиск синонимов в knowledge base;
5. Система получает из knowledge base информацию и создаёт список релевантных страниц;
6. Система ранжирует (англ. ranking) каждую страницу из списка используя факторы ранжирования.

Слова синонимы - фактор ранжирования

Синонимы являются фактором ранжирования, как это ни удивительно для многих звучит. Не верите? Смотрите на слайд из доклада инженера Paul Haahr.
Синонимы — это фактор ранжирования

Paul Haahr объяснил, что синонимы — это сигнал ранжирования, зависимый от запроса. Как слова синонимы влияют на ранжирование, не совсем ясно. Можно предложить, что синонимы используются Google в модели LSA.
Латентно-семантический анализ (ЛСА) (англ. Latent semantic analysis, LSA) — это метод обработки информации на естественном языке, анализирующий взаимосвязь между коллекцией документов и терминами в них встречающимися, сопоставляющий некоторые факторы (тематики) всем документам и терминам. Впервые ЛСА был применён для автоматического индексирования текстов, выявления семантической структуры текста и получения псевдодокументов. Затем этот метод был довольно успешно использован для представления баз знаний и построения когнитивных моделей.
Википедия[5]

Обязательно прочитайте!
Обновления алгоритма Google - Fred и его друзья
Google Algorithm Update 7 февраля 2017 года

Я уже писал, основываясь на документах Google, что если RankBrain видит незнакомое ему слово или фразу, машина может сделать предположение относительно того, какие слова или фразы имеют аналогичный смысл и фильтровать результат.
Судя по всему, модуль подбора синонимов  часть алгоритма RankBrain и синонимы не являются самостоятельным сигналом ранжирования. RankBrain — это система машинного обучения, объединяющая сигналы ранжирования и понимание документов.

SEO продвижение и подбор синонимов

Нужно активно использовать семантические аналоги для продвижения сайтов, поскольку инженер Google Paul Haahr говорит о синонимах как о факторе ранжирования.
Если пары синонимов в knowledge base действительно периодически корректируются редакторами, то "человеческий фактор" может при каких-то обновлениях алгоритма опосредовано влиять на результаты выдачи. В таких случаях веб-мастерам будет всё сложнее искать причины падения трафика или позиций. Рекомендую посмотреть это видео.
Итак, где найти примеры синонимов? Первое что вам поможет — это сам Google. Поисковая система подсвечивает полужирным текстом ключевые слова из запроса и их синонимы. Примеры синонимов видны в инструменте автозамены при вводе запроса в окно поиска; в результатах выдачи; подсказках внизу результатов выдачи.

Автоматизировать процесс сбора подсказок можно при помощи программы Словодер.

Также используйте:
Викисловарь
Словарь синонимов
Словари gramota.ru
Парсинг подсветок Yandex

Ещё одним полезным инструментом является Google Correlate.
Google Correlate

Google Correlate использует информацию об активности веб-поиска для поиска запросов с похожим шаблоном в целевой серии данных.

Если ввести в этот инструмент слово "консультация" Google выдаст результаты, которые коррелируют с трудоустройством, медицинской тематикой, и в меньшей степени с юриспруденцией. Предположительно Google Correlate указывает на контекст, в котором Google хочет обрабатывать запрос.

Источники:
1. Google Official Blog. January 19, 2010. Steven Baker, Software Engineer. Helping computers understand language.
2. Matt Cutts. January 19, 2010. More info about synonyms at Google.
3. Синонимы. Статья из Википедии.
4. Патент US 8103669 B2. System and method for semi-automatic creation and maintenance of query expansion rules.
5. Латентно-семантический анализ. Статья из Википедии.
Подробнее

Обновления алгоритма Google - Fred и его друзья


Что повлияло на трафик сайтов в феврале 2017 года? Что такое Fred и существует ли он? Что такое "медицинский апдейт" и был ли он на самом деле?

Наверно только ленивый не писал об алгоритме Fred. Я в числе таких лентяев, потому что пишу только сейчас. Теперь давайте обсудим три комплексные обновления поискового алгоритма Google, произошедшие в 2017 году.

Обновление алгоритма в феврале 2017 года

Кто не помнит, началось все с февральского обновления. Тогда тоже в кругах веб-мастеров возникла паника, потому что не было понятно что повлияло на ухудшение результатов сайтов.
Есть основания считать, что в феврале 2017 года было крупное обновление алгоритма Панда. Подробности по ссылке выше. Смотрите так же видео ниже.
Тогда же в феврале 2017 года на мой вопрос Джон Мюллер ответил следующим образом:
Это не столько «обновление основного алгоритма», сколько, вообще, нормальные изменения, как всегда, но несколько одновременно и это скорее по совпадению, чем по плану.  Мы не комментируем их, это просто наши нормальные изменения. Некоторые сайты растут, работая над улучшением качества сайта, некоторые сайты идут вниз.
John Mueller, Google
Алгоритм Панда обновляется ежемесячно. Крупные обновления происходили в начале месяца. Гипотеза — если к ежемесячному обновлению Панды подмешиваются обновления других алгоритмов — это приводит к комплексному обновлению. Учитывая, что ядром февральского, мартовского и, возможно, сентябрьского обновлений может быть Панда, будет полезным напомнить слова Gary Illyes об этом алгоритме.
Это часть основного алгоритма ранжирования. Вам нужно улучшить качество сайта, смена доменов не улучшит ваш рейтинг.
Панда оценивает качество сайта, проверяя подавляющее большинство страниц. Но, по сути, позволяет нам учитывать качество всего сайта при ранжировании страниц и корректировать рейтинг для страниц. Если вы хотите получить простой ответ, алгоритм не будет снижать оценку, он будет фактически понижать.
Gary Illyes, Google

Рождение Фреда — март 2017 года

Всем известный "рупор" новостей из Google Барри Шварц, общаясь в твиттере с Гэрри Илшем, попросил его прокомментировать подобные комплексные изменения алгоритмов Google, которые произошли в начале марта 2017.
Gary Illyes об алгоритме Fred

У нас  3 обновления [алгоритма, — прим. авт.] в день в среднем. Я думаю, можно с уверенностью предположить, что недавно было... [обновление, — прим. авт.]
Gary Illyes, Google
Барри предложил как-то назвать это обновление, на что Гэрри Илш ответил:
Конечно! С этого момента каждое обновление, если не указано иное, называется Fred.
Gary Illyes, Google

SEO-порталы быстро растиражировали это под "соусом" того, что якобы появился новый алгоритм Fred. Мало кто обратил внимание, что это лишь одно из нескольких регулярных обновлений и название Fred было, скорее всего, шуткой Гэрри Илша.

Три месяца назад ещё один сотрудник Google мне подтвердил, что как такового алгоритма Fred не существует и никогда не существовало.

Казалось бы, прошло уже полгода, а интерес к алгоритму Фред не утихает. 5 сентября 2017 г. вебмастера на очередной видеовстрече допрашивали Джона Мюллера есть ли жизнь на Марсе существует ли Fred.
Название Fred использовалось для целой серии алгоритмических обновлений, которые начались весной ... Люди объединяют все это в имя Fred, что, с моей точки зрения, не делает его намного проще для понимания. Иногда возникают очевидные проблемы с качеством, в соответствии с которыми мы обновляем эти алгоритмы. Иногда есть очевидные проблемы со ссылками, на которые могут сосредоточиться наши алгоритмы. Но если вы сложите все это вместе и скажете: "Я нашёл пять веб-сайтов, которые похожи на это. Поэтому Фред должен быть таким", то это вводит в заблуждение.
John Mueller, Google
Как видим, так называемый  Fred, — это результат комплексного обновления нескольких алгоритмов Google.

Я как и многие веб-мастера пытался понять какие именно из известных нам алгоритмов обновились в марте. Проанализировав несколько десятков сайтов были выявлены общие признаки.

По моему, мнению  Fred, — это обновление в течении короткого периода времени таких алгоритмов качества:
- Панда
- Алгоритмы, оценивающие UX
- Page Layout. Если кто не помнит, — этот алгоритм наказывает сайты за агрессивную рекламу.
- Алгоритмы, связанные с оценкой качества мобильной версии сайта.

Подробнее на видео.

Да, такие обновления приводят к значительным изменениям в выдаче и объёме трафика и довольно сложно веб-мастеру понять причину снижения позиций или трафика.

Обновление алгоритма Google в сентябре 2017

Веб-мастера активно обсуждают последствия обновления алгоритмов Google, которое произошло 6-10 сентября 2017 года. Как и в феврале, и в марте 2017 года у сайтов наблюдается резкое снижение трафика. Веб-мастера отмечают, что пострадали в основном сайты медицинской тематики из США и Западной Европы.

В это же время ко мне обратились владельцы шести сайтов adult тематики, у которых тоже резко просел трафик. Не знаю насколько это показательно, но их объединяло то, что у всех этих сайтов была низкая скорость загрузки в мобильной версии.

Сотрудники Google категорически отрицают тот факт, что обновление может касаться какой-то одной ниши.

По этому, говорить о том, что сентябрьский апдейт носит ярко выраженную медицинскую направленность нет оснований.


Рекомендую "медикам" почитать Руководство Google для асессоров. В нём ясно сказано что Google ожидает от таких сайтов. Собственно в Руководстве сказано, что сайты, относящиеся к категории YMYL, должны отвечать самым высоким критериям качества, авторитета и доверия (модель E-A-T). Вам также будет интересно прочитать - Как Google использует слова синонимы.

Ради интереса была проанализирована выдача из ТОП 10 Google-ru по запросам "Прыщи", "Лифтинг кожи", "Протезирование зубов виды". Полученный список сайтов был проверен сервисом testmysite.withgoogle.com.

Вот такие получились результаты.
Скорость загрузки сайтов ТОП 10 Google-ru

В ТОП 10 ниши "Медицина" только 22 процента медленных сайтов. Лучшие сайты в этой нише имеют скорость загрузки 5 секунд и ниже. Не забывайте о том, что Google постепенно внедряет mobile-index, экспериментируя на десятках тысячах сайтов. Вполне вероятно, что ваш сайт попал в их число. И если мобильная версия вашего сайта не отвечает требованиям mobile-index, то, возможно, это тоже сказалось на ранжировании.

Посмотрим динамику популярности запросов "прыщи", "сыпь","лифтинг кожи", "протезирование зубов виды". Именно  с 10 по 16 сентября популярность отдельных запросов медицинской тематики упала. Это могло быть одной из причин падения трафика.
Динамика популярности запроса прыщи

о запросам "сыпь","лифтинг кожи", "протезирование зубов виды" такая же динамика популярности в период с 6 по 10 сентября как и по запросу "прыщи" .

Владельцы (веб-мастера) возмущались почему в ТОП 10 по медицинским запросам появились такие сайты, как "Комсомольская правда", "АиФ". А почему им там и не быть? Это качественные трастовые сайты. Никто им не запрещает создать у себя раздел медицинской тематики.

Я сделал небольшой анализ качества контента по запросу "Прыщи". Я не доктор и мне сложно судить о смысловой оригинальности контента. По этому для своей модели анализа качества контента я решил использовать статистические показатели и несколько оценочных.
Анализ качества контента
На момент снятия позиций "Комсомольская правда" занимала 1 позицию, а "АиФ" шестую.
Средний "показатель качества контента" у сайтов в ТОП 10 [28,24] выше, чем в ТОП 20 [26,26] и это логично.  Если посмотреть на такой показатель как "количество информации", то у сайтов в ТОП 10 он тоже выше, чем у сайтов в ТОП 20.

"Средняя частота релевантности ТОП5 биграмм" показывает, что контент о прыщах не является для сайтов "Комсомольская правда" и "АиФ" достаточно релевантным. Даже если этот контент для них не достаточно релевантен, он высокого качества.

Почти у всех сайтов из ТОП 20 контент не уникален. Его скопировали другие сайты. Обновление контента хороший сигнал для поисковика  —  устаревший контент в какой-то степени актуализируется; техническая уникальность его повысилась.

Учитывая, что "Комсомольская правда" и "АиФ" являются авторитеным ресурсами, то за счёт других сигналов ранжирования они вполне могли потеснить сайты медицинской тематики по этому запросу.

Пока точно не известны причины понижения трафика отдельных сайтов медицинской тематики после апдейта Google в начале сентября. Возможно причины в снижении популярности запросов в определенный период времени, а именно с 2 по 10 сентября.

Поскольку определённости в причинах нет, обратите внимание на следующее:
- Сайт должен загружаться быстрее, чем за 3 секунды. Google говорит о том, что 50% людей ожидают, что сайт загрузиться быстрее, чем за две секунды. Не обманите их ожидания. The New York Times утверждает, что достаточно разницы в 0,25 секунды при загрузке, чтобы люди предпочли один сайт другому;
- Контетнт должен быть оригинальным по смыслу и максимально удовлетворять информационные потребности пользователя;
- Google планирует сделать с 2018 года мобильный индекс основным, поэтому ваша мобильная версия сайта должна быть оптимально оптимизирована и содержать контент в таком же объёме, как и в десктопной;
- В Google Search Console появился раздел Web Tools, в котором будут показываться результаты проверки вашего сайта на соответствие стандартам Better Ads Standards.  В браузере вы увидите последствия этого начиная с 2018 года. Поэтому, проверьте какие рекламные объявления используете на сайте, где размещены рекламные блоки и в каких количествах;
- Ещё один тренд Google - переход сайтов на https. Вебмастеров всеми возможными способами "стимулируют" к такому переходу. Во-первых: https — это один из факторов ранжирования. Во-вторых: многие помнят не единоразовые массовые рассылки "писем счастья" от Google о том, что сайт небезопасен и нужно перейти на https. Если вы пользуетесь инструментом SEMrush Sensor увидите сколько сайтов из ТОП 10 или ТОП 20 в вашей нише используют https. В большинстве случаев, этот процент превышает 50%. Следовательно - хотите быть в ТОПе, не забывайте о https;
- Внедряйте PWA на тех сайтах, где это целесообразно. Это новая "любимая игрушка" Google. Постарайтесь быть в числе первых;
- О ссылках. Куда же без них. Все по-старому. Обилие неестественных ссылок снижает рейтинг сайта и показатель общего качества. Одним из индикаторов снижения общего качества страницы сайта является отключение расширенных сниппетов.

От веб-мастера мало что зависит

Google проводит очень много экспериментов. Они делятся на два вида автоматическое A/B тестирование и оценка асессоров.

Обратите внимание на слайд Paul Haahr (Google Software Engineer).
Google проводит очень много экспериментов
Как видно из текста на изображении A/B тестирование проводится на реальном трафике. В одном эксперименте дают больше трафика, в другом меньше. А веб-мастера тем временем лихорадочно ищут причины резких колебаний трафика.

Google изучает шаблоны кликов. Пример эксперимента. Страницы А [ответ на запрос в контенте] и В [ответ на запрос в контенте и в сниппете] отвечают информационным требованиям пользователя. Если алгоритм ставит страницу А перед страницей В и пользователь кликает на страницу А, оценка "хорошо". Если алгоритм ставит страницу В выше страницы А и пользователь не кликает на страницу В, оценка "плохо".

На конференции SMX 2016 Инженера Paul Haahr  спросили — учитывает ли Google оценку CTR как фактор ранжирования. Пауль ответил: "мы используем оценку CTR для экспериментов и для персонализации выдачи". Отвечая на вопрос — использует ли Google прямые и косвенные сигналы ранжирования Paul Haahr ответил: "я не могу сказать ни да, ни нет".

А также Пауль объяснил почему маленький сайт может иметь более высокую оценку качества, чем крупный интернет-ресурс. "Потому что наши асессоры хорошо делают свою работу", — ответил  Paul Haahr.

Вот вам ещё один пример непрямого сигнала ранжирования. Инженеры Google, обобщают результаты экспериментов, делают выводы и вносят коррективы в алгоритмы оценки качества и ранжирования.

RankBrain объединяет много факторов ранжирования и технологию машинного обучения. Вероятно, что он получает информацию из knowledge base, данные в которой  редактор может изменять в ручном режиме. При очередном обновлении алгоритма возможно значительное влияние "человеческого фактора".

У веб-мастера всё меньше возможностей узнать причины падения трафика или позиций.
Подробнее

⇶ Основы DMCA и алгоритма Google Pirate

Основы DMCA и алгоритма Google Pirate

Поиск Google организует и индексирует огромное количество общедоступных веб-страниц в интернете. Во всем мире в поиске Google ежедневно производится более 3,5 миллиарда поисковых запросов, что делает его наиболее широко используемой поисковой системой в мире. Популярность Google имеет ощутимые преимущества для правообладателей, поскольку он помогает более чем миллиарду людей во всём мире найти лицензионные копии контента, который они хотят потреблять[1].

Программа TCRP, внедрённая  Google, позволяет доверенным владельцам авторских прав и агентам по обеспечению безопасности упростить процесс подачи уведомлений об удалении больших объёмов веб-страниц. С 2012 года более семидесяти тысяч различных организаций подали запросы в Google для удаления веб-страниц из результатов поиска аргументируя нарушением отдельными сайтами авторских прав. Из этих семидесяти тысяч только 114 пользователи TCRP. Таким образом, подавляющее большинство уведомлений каждый год приходится на небольшой процент заявителей. Лишь несколько организаций отправляют в Google сотни тысяч (в одном случае более миллиона) уведомлений об удалении url[2].


В интернете более 60 триллионов адресов, но только бесконечно малая часть из них связана с пиратством. Тем не менее Google не хочет включать какие-либо ссылки на материалы, нарушающие авторские права, в свои результаты поиска, и прилагает значительные усилия для предотвращения появления веб-страниц с нарушением правил.

Основные три направления этих усилий можно изложить так:
- Чистые результаты для запросов пользователей, связанных с мультимедиа: фактически, благодаря усилиям инженеров Google, подавляющее большинство запросов, связанных с медиа, которые пользователи ежедневно вводят в поисковую систему, возвращают результаты, которые включают только законные сайты. Тут нужно сделать пометку на то, что это суждение справедливо в основном для выдачи в США и Канаде.
- Замечания по удалению url и дате понижения: Несмотря на то, что подавляющее большинство запросов, связанных с медиа, дают чистые результаты, есть некоторые редкие запросы, в которых результаты включают проблематичные ссылки. Для этих «низкочастотных» запросов Google сотрудничает с владельцами авторских прав для решения проблемы. Во-первых, Google разработал самые современные инструменты, позволяющие правообладателям и их исполнительным агентам эффективно отправлять уведомления об удалении в больших объёмах (десятки тысяч в день) и обрабатывать эти уведомления в среднем в течение шести часов. Во-вторых, Google затем использует эти уведомления для понижения сайтов-нарушителей в результатах поиска.
- Законные альтернативы: Google полагает, что предоставление удобных, убедительных, законных альтернатив является одним из лучших способов борьбы с пиратством. Соответственно, Google запустил ряд инициатив по представлению законных альтернатив пользователям в рамках результатов поиска, в том числе предоставление рекламы по запросам для фильмов и музыки, чтобы связать пользователей с законными способами приобретения контента. Google также сотрудничает с владельцами авторских прав и музыкальными сервисами, чтобы помочь им понять, как использовать методы оптимизации SEO (поисковой оптимизации), чтобы получить предложения о результатах поиска для «низкочастотных» запросов[1].
Обязательно прочитайте!
Как работает алгоритм Google RankBrain
Влияние Better Ads Standards на ранжирование сайтов
Ссылочный спам – точка зрения Google

Интересной является такая тенденция. По словам Google, крупные корпорации злоупотребляют системой для удаления файлов и ссылок на контент, нарушающий авторские права, отправляя миллионы поддельных ссылок в попытке закрыть определённые сайты.

«Значительная часть недавнего увеличения объёмов подачи DMCA для Google Search происходит из уведомлений, которые кажутся дублирующими, ненужными или ошибочными», - заявил Google в своём официальном ответе для U.S. Copyright Office.

«Значительное количество запросов на удаление, отправленных в Google, предназначено для URL-адресов, которые никогда не были в нашем поисковом индексе и поэтому никогда не появлялись в наших результатах поиска»[3].

Другими словами, компании используют возможности DMCA Google, чтобы попросить Google удалить ссылки, которые на самом деле не существуют.

«Например, в январе 2017 года наиболее “плодовитый” заявитель представил уведомления, которые Google выполнил по 16 457 433 URL-адресам. Но при дальнейшей проверке оказалось, что из них 16,450,129 (99,97 процента) в нашем поисковом индексе отсутствовали» [3].

И если вы думаете, что это делает только одна компания, вы ошибаетесь. Опять же, согласно Google, «в общей сложности 99,95% всех URL-адресов, обработанных Google в рамках Программы TCRP в январе 2017 года, не были в нашем индексе»[3].

То, что, по-видимому, происходит, заключается в том, что юристы по интеллектуальной собственности берут все новые фильмы, альбомы, отдельные книги и копируют структуру URL-адресов тысяч разных веб-сайтов для отправки запроса на удаление. Это выглядит как автоматизированный спам правообладателей.

Проверка этих запросов показывает, что они являются явно автоматизированными, поскольку используется один и тот же синтаксис снова и снова для разных веб-сайтов и даже на тех же веб-сайтах, при этом все возможные варианты и комбинации включаются  с целью попасть на настоящий URL-адрес.

Последствия нарушения DMCA

Google с августа 2012 года учитывает в качестве сигнала ранжирования [Google Pirate – прим. авт.] количество действительных уведомлений о нарушении авторских прав. Сайты с большим количеством таких уведомлений могут оказаться ниже в результатах поиска[4].

Давайте вспомним, как повлияло это обновление на ранжирование и трафик торрент-сайтов в 2014 году, основываясь на данных исследования TorrentFreak.

Популярные «пиратские» сайты отмечали резкое падение поискового трафика.
TorrentFreak общался с различными владельцами торрент-сайтов, которые подтверждали, что трафик от Google сильно пострадал от изменений алгоритма. «Ранее на этой неделе [в 2014 году – прим. авт.] весь поисковый трафик упал наполовину»,  – сообщила команда сайта Isohunt.to[5].
Последствия нарушения DMCA
Изображение - TorrentFreak

Снижение иллюстрируется ежедневным сопоставлением трафика до и после внесения изменений, как показано ниже. График показывает значительную потерю трафика, который Isohunt.to исключительно приписывает изменениям в алгоритме Google Pirate. Сайты, которые попали под Google Pirate, в 2016 получили падение поискового трафика в размере 89%[1].

Снижение рейтинга влияет на все сайты, которые имеют относительно высокий процент запросов на удаление DMCA. Когда пользователи Google ищут популярные названия фильмов, музыки или программного обеспечения в сочетании с такими терминами, как «загрузка», «смотреть» и «торрент», эти сайты понижаются в рейтинге.

Обновление алгоритма в 2014 году оказалось гораздо более эффективными, чем предыдущие изменения алгоритма поиска, и затронули все основные «пиратские» сайты.

Ниже представлен обзор видимости [в 2014 году – прим. авт.] нескольких крупных торрент-сайтов в Великобритании и США, основанный на списке из 100 ключевых слов.
Алгоритм Google Pirate
Изображение - TorrentFreak

Как работает алгоритм нам конечно никто не скажет, давайте посмотрим, что на этот счёт написано в патентах Google. Не исключено, что некоторые из этих идей были реализованы при разработке алгоритма.

Если количество поданных жалоб превышает пороговое значение, автоматизированный компонент решения IP может сделать первоначальное определение того, следует ли сразу предположить, является ли жалоба действительной или недействительной на основании прошлой истории жалоб, связанных с подавшей жалобу стороной.

Если часть ранее поданных жалоб, которые были определены как действительные, превышает второй порог (например, 75%), ожидающая жалоба может автоматически считаться действительной. В таком случае, подозрительный контент может быть немедленно удалён из SERP до дальнейшего ручного просмотра.

С другой стороны, если доля прошлых жалоб, которые были действительными, ниже второго порога, не делается никаких предположений относительно подозрительного контента, и содержание может продолжаться показываться до тех пор, пока оно не будет оценено вручную.

Следовательно, Патент предполагает, что автоматически признанные действительные жалобы рассматриваются вручную.

Если доля ранее поданных жалоб, не прошедших успешную проверку, чрезвычайно высока (т. е. большая часть жалоб недействительна), новая жалоба может быть отменена без какого-либо ручного обзора.

Методы, описанные выше, позволяют немедленно обрабатывать и принимать новые жалобы, связанные с IP[6].

Лицензионные переводы тоже часть контента, который охраняется DMCA. Обратите внимание на такой Патент.

Контекст слова или фразы часто играет важную роль в обеспечении точного перевода. В одном варианте делается предположение, что в пределах среднего диапазона достоверности (например, от 50% до 70%) , контент может быть помечен как потенциальное нарушение, так как этот диапазон указывает на то, что для идентификации имеется достаточное сходство, но и достаточно разницы в значительной степени. Например, нелицензированный перевод может быть идентифицирован по схожести между текстом нелицензионного перевода и текстом официальной версии с автопереводом[7].

Достаточное сходство – от 50% до 70% для определения факта нарушения.
Дублированные или почти дублированные документы могут указывать на плагиат или нарушение авторских прав. Одним из важных приложений для обнаружения дубликатов документов является контекст хранения и извлечения информации. Например, для документа из «n» слов желательно иметь 50% -ную вероятность, что изменение n / 10 слов приведёт к тому, что документ не будет использовать общие отпечатки…[8]
Немного запутано конечно, но можно предположить, что документы (страницы) которые содержат меньше 50% собственного оригинального контента, могут быть признанными дублированными. Теоретически на этом основании правообладатель может подать жалобу на удаление такой веб-страницы.

Просмотр вручную такого количества жалоб правообладателей дело весьма затратное. Если процент url, помеченных для удаления, превышает 75% все решения в отношении сайта – нарушителя принимает алгоритм – отключает (понижает) трафик и снижает позиции вплоть до полного исключения из индекса.

Для проверки этой гипотезы были проверены показатели сайтов, представители которых задали соответствующие вопросы на Справочном форуме для веб-мастеров Google и на searchengines.guru. Из пятнадцати сайтов нашей выборки – десять это торрент-сайты.
DMCA - влияние алгоритма Google Pirate
Диапазоны воздействия алгоритма Google Pirate  

Ключевые показатели:
● Процент удалённых url;
● Верхний квартиль - 91,2%
● Медиана - 84,3%
● Нижний квартиль - 75,7%
Выборка, конечно, не репрезентативная, но по этой совокупности можно сделать вывод, что проблемы с алгоритмом Google Pirate возникают в основном у сайтов, процент удаленных url у которых от 75% до 90%.

Есть конечно "аномалии" - сайты с процентом удалённых url за пределами верхнего и нижнего квартилей.

В одном из Патентов Google сказано, что существует некий второй порог (75%), при соответствии или превышении которого ожидающая жалоба может автоматически считаться действительной.

Значение второго порога соответствует показателю нижнего квартеля в нашем примере. Что это нам даёт?
Показатель 75% удалённых url из общего числа заявленных к удалению за всё время могут служить индикатором того, воздействует ли на сайт алгоритм Google Pirate или нет. Как пишет Google, в качестве демотивирующего сигнала он использует количество валидных абуз. Можно предположить, что "количество" означает больше 1000 полученных и утвержденных абуз. При этом, должно наблюдаться падение органического трафика от 50% до 90%. 

Ещё одна поправка. Если общее количество страниц, на которых пожаловался правообладатель, не очень велико (несколько десятков или пару сотен), то решение об их удалении, скорее всего, принимается после ручного обзора. Прямым подтверждением этому может быть письмо от Adsense об отключении показа рекламы на котой выявлены признаки нарушения DMCA.

Алгоритм Google Pirate - борьба с абузами

Способов борьбы с абузами (Google Pirate recovery) не так много. Вот некоторые из них, которые описаны в интернет. - Смена домена. Настроить постраничный 301 редирект на новый домен и закрыть старый сайт от индексирования ботами Google.
- Смена url. Нужно, если это целесообразно, старую страницу закрыть от индексирования ботами Google и/или настроить 301 редирект на новую страницу.
- Удаление незаконного контента. Можно заменить определённый медиа - контент,  например, короткое видео, gif-файлом. Если целесообразно удалить всю страницу, желательно чтобы она отдавала 410 код.
- Блокирование доступа к авторскому контенту из стран правообладателей или их агентов.
- Подача встречного уведомления. В этом есть смысл, если контент спорный (или жалоба безосновательна) и у вас есть доказательства наличия прав на объекты интеллектуальной собственности. 
Заполняйте форму по ссылке, которую Вам прислали , так как Вы не удалили контент, а подаёте встречное уведомление о том, что контент не нарушает авторских прав.
Андрей Липатцев, Google
Это подтверждает то, что встречное уведомление подаётся, если страница со спорным контентом не удалена, иначе нечего оспаривать.

Если заявитель (правообладатель) не будет подавать встречных действий на протяжении следующих 15 дней, оспариваемый контент, в случае его блокировки, должен быть восстановлен[9]. В самом же DMCA сказано, что на это дается от 10 до 14 рабочих дней.

Источники:
[1] Отчёт «How Google Fights Piracy 2016 - Final E-reader version»
[2] "How Google is Fighting Piracy". Sabina Hartnett on July 18, 2016.
[3] Письмо Google в U.S. Copyright Office от 21.02.2017 года.
[4] "An update to our search algorithms".  Amit Singhal, SVP, Engineering. August 10, 2012.
[5]Google’s New Search Downranking Hits Torrent Sites Hard.
[6] Patent "Automated determination of validity of complaints". US 8380571 B1. Publication date  19 Feb 2013. Original Assignee Google Inc.
[7] Patent «Automatic translation of digital graphic novels». WO 2017052820 A1. Publication date   30 Mar 2017. Applicant Google Inc.
[8] Patent «Detecting duplicate and near-duplicate files». US 9275143 B2. Publication date 1 Mar 2016.Original Assignee Google Inc.
[9]Patent "Blocking of Unlicensed Audio Content in Video Files on a Video Hosting Website". US 20110289598 A1. Publication date 24 Nov 2011. Original Assignee Google Inc.

Подробнее

Влияние Better Ads Standards на ранжирование сайтов

Влияние Better Ads Standards на ранжирование сайтов

В Google Quality Guidelines сказано, что всё содержимое веб-страницы состоит из следующего: Основной контент (MC), Дополнительный контент (SC) и Реклама / Монетизация (Ads). Сейчас сложно себе представить сайт без рекламных блоков, может быть за исключением официальных сайтов, .gov и .edu сайтов.

Формально из Google Quality Guidelines следует, что реклама — это часть сайта, которая не является контентом (ни основным, ни дополнительным).

Google books Ngram Viewer показывает динамику упоминаний фраз (N-грамм) в корпусе книг в течение определённого периода времени. Резкий рост упоминания слова "реклама" начался в 1987 году, а слова "сайт" — в 1996.

При этом количество упоминаний слова "сайт" в 2004 году превысило количество упоминаний слова "реклама".
Тренд рекламы в Google books Ngram Viewer

Подавляющее большинство разработчиков онлайнового контента финансируют свою работу доходами от рекламы. Это означает, что они хотят, чтобы объявления, которые запускались на своих сайтах, были привлекательными, полезными — такими, которые люди действительно хотят видеть и с которыми хотят взаимодействовать. Но в большинстве своём, люди сталкиваются с раздражающими, навязчивыми объявлениями в интернете — например, неожиданное звуковое сопровождение, или реклама, заставляющая вас ждать 10 секунд, прежде чем вы сможете увидеть контент на странице.

Эти разочаровывающие впечатления могут заставить некоторых людей заблокировать все объявления, что сильно повлияет на создателей контента, журналистов, веб-разработчиков и видеооператоров, которые зависят от рекламы как источника финансирования создания их контента.

"Мы считаем что онлайн-реклама должна быть лучше. Именно поэтому мы присоединились к Коалиции за лучшую рекламу", — сказал Шридхар Рамасвами, Старший Вице-Президент Google по рекламе и торговле.
Что это значит для веб-мастеров? Многие из вас помнят последствия обновлений алгоритмов Google в марте этого года, получивших название "Fred".
На многих сайтах обилие рекламы приводило к очень плохому user experience, что не соответствовало ожиданиям пользователей.
Такие сайты в марте 2017 очень сильно потеряли в объёмах поискового трафика Google.

User experience — восприятие данных пользователем или удобство взаимодействия пользователя с сайтом. Как следует из Google Quality Guidelines страницы, которые обеспечивают плохой пользовательский интерфейс, например страницы, которые пытаются загружать вредоносное программное обеспечение, должны получать низкие оценки.

Следовательно, скорее всего, присоединение Google к Better Ads Standards уже нашло свою реализацию в соответствующих поисковых алгоритмах. Будет примечательной следующая цитата.

В данном случае, скачки трафика не были напрямую связаны с тем, что на сайте что-то сильно поменялось, но если бы не было проблем с рекламой, то не было бы и скачков. Мой совет (в качестве долгосрочной выигрышной стратегии) - следить за тем, какая показывается реклама и аккуратно подходить к размещению и пометке рекламных блоков, чтобы не вводить пользователя в заблуждение.
Ринат Сафин, Google

Следует прислушаться к рекомендациям Adsense — "избыток объявлений может загромоздить страницу и сделать ее неудобной. А когда пользователи не находят того, что им нужно, они покидают сайт".

Вернёмся к  Google Quality Guidelines. Если у страницы основной контент присутствует, но его трудно использовать из-за отвлекающих /вводящих в заблуждение объявлений, другого контента / функций и т. д., обычно ей присваивают низкий (Low) рейтинг.


Google рассматривает такие типы страниц, как обманные веб-страницы, потому что пользователи не получили то, что они ожидали. Асессорам рекомендовано использовать наименьшую оценку, если страница предназначена специально для того, чтобы манипулировать пользователями при минимальных усилиях или без усилий.

Вот несколько распространённых типов обманных страниц:
● Страницы, которые маскируют рекламу как основной контент. Фактический основной контент может быть минимальным или создаваться для поощрения пользователей нажимать на объявления.
● Страницы, которые скрывают рекламу как ссылки для навигации по сайту.
● Страницы, на которых основной контент не используется или не отображается. Например, на странице с большим количеством объявлений вверху страницы (до основного контента), чтобы большинство пользователей не увидели основной контент или страницу, где основной контент является невидимым текстом.

Пункт 6.3.3 Google Quality Guidelines "Вводящие в заблуждение заголовки, объявления или дополнительный контент". Должно быть ясно, какие части страницы являются основным контентом, дополнительным контентом или рекламой. И также должно быть ясно, что произойдёт, когда пользователи взаимодействуют с контентом и ссылками на веб-странице. Если пользователи вводятся в заблуждение, нажимая на объявления или дополнительный контент, или если клики по объявлениям или дополнительному контенту оставляют пользователей удивлёнными, обманутыми или смущёнными, присвоение низкого рейтинга такой странице оправдано.

Например, объявления представляются как дополнительный контент (ссылки), и пользователь ожидает, что нажатие на ссылку приведёт его к другой странице на том же веб-сайте, но фактически перенаправляется на другой веб-сайт.
 Социальная инженерия

В ноябре 2015 года Google начал бороться с социальной инженерией (сайтами для фишинга и обмана пользователей). В случаях, когда контент содержится во всплывающих объявлениях или перенаправляет пользователей на опасные страницы,  страницы с рекламой, использующей приемы социальной инженерии, будут считаться нарушающими правила.

Отчет о реализации рекламы

Так же Шридхар Рамасвами анонсировал запуск такого инструмента как Отчет о реализации рекламы.

Новый отчет о реализации рекламы помогает издателям понять, как стандарты более качественных объявлений (Better Ads Standards) распространяются на их собственные веб-сайты и не вводят ли они посетителей в заблуждение. Он предоставляет скриншоты и видеоролики раздражающих рекламных событий, которые Google определил, чтобы упростить поиск и устранение проблем.
Отчет о реализации рекламы
Изображение blog.google

Шридхар Рамасвами сказал: "мы планируем, что Chrome перестанет показывать рекламу (включая принадлежащую или обслуживаемую Google) на веб-сайтах, которые не соответствуют стандартам Better Ads, начиная с начала 2018 года".

Если ваш сайт не соответствует критериям Better Ads Standards (проблемы с объявлениями, которые по мнению представителей отрасли доставляют пользователям значительные неудобства) или на нём выявлены очень серьёзные нарушения (введение в заблуждение и злоупотребление доверием), веб-мастер должен будет устранить проблемы и запросить проверку сайта через Отчёт о реализации рекламы.

Следовательно Отчёт о реализации рекламы создан для реагирования на пессимизацию сайта на уровне браузера за несоответствие критериям Better Ads Standards.

Список раздражающих рекламных событий отличается для настольных и мобильных сред. Например, мигающие анимированные объявления считаются более раздражающими на мобильных устройствах, чем на экранах настольных компьютеров. Из-за этого Google будет выборочно просматривать отдельные страницы сайта как на декстопных, так и на мобильных версиях вашего сайта, и вы увидите статус обзора для каждой среды в отчёте о реализации рекламы.

Сайт не проверен (Not reviewed): Google ещё не рассмотрел возможности рекламы на вашем сайте.
Статус проверки

Беглая проверка (Passing) : Google просмотрел ваш сайт и не обнаружил на ваших страницах значительного количества раздражающих рекламных материалов.

Предупреждение (Warning). Google рассмотрел ваш сайт и обнаружил ряд рекламных материалов, которые нарушают Better Ads Standards. Вы должны исправить проблемы как можно скорее и отправить свой сайт для повторного обзора.

Отрицательный результат (Failing): Google рассмотрел ваш сайт и обнаружил вопиющие нарушения Better Ads Standards. Вы должны исправить проблемы как можно скорее и отправить свой сайт для повторного обзора. Если ваш сайт остаётся в этом состоянии, Chrome будет фильтровать рекламу.

Рекламный опыт является вопиющими и ему автоматические присваевается статус Failing, если он отвечает любым из следующих условий:
● Реклама хостов или ссылок на вредоносное ПО или нежелательное программное обеспечение, которое может быть установлено на компьютере пользователя.
● «Фишинг» информации пользователей.
● Автоматическое перенаправление страниц без действий пользователя.
● Реклама, которая вводит в заблуждение пользователя. Примеры:
- Объявления, напоминающие предупреждения системы или сайта или сообщения об ошибках.
- Объявления, имитирующие сообщения, диалоговые окна, меню или уведомления о запросах.
- Рекламные объявления, которые неотличимы от другого контента.
- Объявления с изображением функций, которые не работают.
- Объявления с прозрачным фоном.
- Объявления с перемещением и нажатием стрелок.
- Объявления с кнопкой «закрыть», которая не закрывает объявление, а вместо этого нажимает на объявление или переходит к другому контенту.
- Объявления, где клик в любом месте за пределами видимой пользователем границы объявления приводит к целевой странице объявлений.

Better Ads Standards

Реклама помогает поддерживать различные типы бесплатного контента, журналистику и тесные социальные связи, которые охватывают весь мир. Но по мере того как интернет вырос, опыт онлайн-рекламы иногда не оправдывал ожиданий потребителей, о чём свидетельствует, в частности, появление блокировщиков рекламы. Например, реклама, которая нарушает работу браузера или задерживает доступ к контенту, может помешать потребителям.

В целях улучшения потребительского опыта ведущие международные торговые ассоциации и компании в онлайн-медиа-экосистеме объединили свои усилия для создания Коалиции за лучшую рекламу. Коалиция проводит исследования с целью разработки стандартов, ориентированных на данные для онлайн-рекламы. Цель состоит в том, чтобы измерить предпочтения потребителей о типах объявлений, которые они наименее предпочитают, чтобы помочь глобальному рынку предпринять шаги для улучшения качества рекламы.

Следующие типы рекламного опыта, которые были наименее предпочтительными для потребителей и несоответствуют минимальным стандартам Better Ads for mobile web:
● Всплывающая (Pop-up) реклама.
● Проприетарные объявления.
● Мобильные страницы с плотностью рекламы более 30%.
● Мигающие анимации.
● Постинциальные объявления, для которых требуется обратный отсчет.
● Полноэкранные объявления прокрутки.
● Большие прилипающие (sticky) объявления.
● Автовоспроизведение видео со звуком.

Типы рекламного опыта, которые были наименее предпочтительными для потребителей и не соответствуют минимальным критериям Better Ads Standard для настольных компьютеров:
● Всплывающая реклама.
● Автовоспроизведение видео со звуком.
● Проприетарные объявления с обратным отсчетом
● Большие прилипающие объявления.

Веб-мастерам нужно уже сейчас проверить, соответствуют ли типы используемых на сайте рекламных объявлений минимальным критериям  Better Ads Standards.
Подробнее