bv

Накрутка поведенческих факторов. Как это работает и как с этим бороться

Накрутка поведенческих факторов. Как это работает и как с этим бороться

Поведенческие факторы говорят о полезности ресурса. Их искусственное завышение является нарушением. Пойманные сайты понижаются в ранжировании или исключаются из индекса. Приемом пользуются недобросовестные конкуренты. Накручивают поведенческие факторы топам, а когда те попадают под санкции, занимают их место. Как узнать, что сайт атаковали, и что делать в такой ситуации – расскажем в статье.

 

Накрутка поведенческих факторов

Поведенческие факторы - это активность посетителей сайта: переходы на сайт, перемещение между страницами, время нахождения на сайте, нажатие на кнопки, регистрации и заявки. Чем больше действий совершают пользователи, тем лучше поведенческие факторы, и тем полезнее сайт с точки зрения поисковой системы.

Поведенческие факторы играют важную роль в ранжировании. Ресурсы с активной аудиторией чаще появляются выдаче и занимают высокие позиции. Тенденция особенно заметна в Яндексе. Специалисты по SEO-продвижению пользовались этим. Создавали искусственный трафик, имитирующий поведение реальных людей. В ответ поисковики ввели фильтры. Нарушители понижаются или исключаются из индекса на срок от 8 до 12 месяцев.

Сегодня накрутка применяется в двух случаях. Для быстрой оптимизации нового сайта, когда нет времени и денег на разрешенные методы продвижения. И для выведения из топа конкурентов. При этом достигается сразу две цели: лучше работает собственное продвижение, и ухудшается ранжирование ресурса-мишени.

 

Виды накруток

Накрутка бывает позитивной (поднятие собственных позиций) и негативной (атака на конкурента). Она может быть направлена на увеличение определенных показателей (кликабельность, глубина просмотра, целевые переходы, время нахождения на сайте). Есть два типа накруток по способу организации:

  • Нативные. Пользователи регистрируются на сервисах по накрутке и выполняют задания. Например, ввести ключевую фразу, перейти по первой ссылке, посидеть на сайте 10 секунд и закрыть вкладку. В результате генерируется много отказов. Прием относительно долгий и дорогой;
  • RPA-накрутки. Создаются аналогично, но действия выполняет робот. Способ быстрый и дешевый, но неэффективный. Поисковики вычисляют ботов и не учитывают их. Но накрутчики пошли на хитрость: направляют алгоритм сначала на случайные ресурсы, а затем на мишень. Так у робота накапливается история браузера, и его сложнее отличить от человека.

 

Как распознать накрутку

Накрутка отслеживается в сервисах веб-аналитики, например, в Яндекс.Метрике. Она выделяется резким ростом посещаемости с переходами из социальных сетей и сторонних сайтов, редко – из поисковика. Появляется много новых нетипичных источников. Метрика определяет такие сессии и отсекает их. Они отображаются в отчете «Роботность».

Еще одно проявление накрутки – увеличение отказов и уменьшение времени пребывания на сайте. Динамика видна на соответствующих графиках. В Вебмастере накрутка вычисляется по скачкам кликабельности и множеству запросов вида «ключевая фраза и домен сайта».

На профессиональном жаргоне явление называется «нагул ботами». В большинстве случаев поисковики легко его определяют и не наказывают ресурс. Но бывают исключения.

 

Последствия накруток

Накрутка выявляется не мгновенно, а на следующий день, когда в Метрике и Вебмастере накапливаются данные за прошлые сутки. Ее последствия зависят от внутренних алгоритмов поисковика. Результат всегда непредсказуем, особенно в Яндексе. Сайт может понизиться в выдаче, удалиться из поиска или остаться без изменений.

Если трафик упал в несколько раз, то ресурс попал под фильтры. Он не виден в поиске. Вернуться в индекс получится после снятия санкций. Если сайт потерял позиции и выпал из первой страницы выдачи, то в топ вернуться возможно. Сроки и стоимость зависят от конкретного проекта.

 

Как защититься от накруток

Есть несколько способов уменьшить или свести к нулю последствия накрутки. Одни – работают на профилактику, другие – устраняют последствия. Эффективность индивидуальна для каждого ресурса.

1. Анти-бот скрипты

Устанавливается скрипт, который отсеивает ботов и пропускает пользователей. Действует в автоматическом режиме. На идентификацию уходит от 1 до 3 секунд. Метод сработает если, сайт еще потерял позиции.

Скрипт делит посетителей на три группы:

  • Поисковые роботы. Это алгоритмы поисковых систем и социальных сетей. Они нужны для индексации, поиска контента и других действий. Скрипт их пропускает;
  • Пользователи. Реальные посетители. Допускаются до ресурса;
  • Спам-боты. Боты для накрутки и прочих целей. Блокируются и не попадают на страницы.

Один из популярных скриптов – Antibot.cloud. Он платный с пробным периодом в 15 дней. Но у метода есть свои недостатки. Например, сайт не получится продвигать через контекстную рекламу Google Ads. Объявления не пройдут модерацию по технической части. Также скрипт несовместим с некоторыми технологиями кэширования.

2. Перенаправление на другой адрес

Способ подойдет, если веб-страница потеряла позиции. И роботов, и посетителей направляют на другой домен с помощью 301-го редиректа. Трафик минует просевший сайт. Так можно вернуться в топ и выйти из бана. Метод работает лучше, чем покупка авторитетных ссылок и оптимизация контента.

Чтобы воспользоваться приемом, нужен запасной домен, а лучше 3-4. Он должен быть занятым не менее дух лет и иметь хотя бы одну проиндексированную страницу. Такой мини-сайт хорошо воспринимается поисковиками. Результат заметен спустя неделю. Но придется обновить все онлайн-справочники и сервисы, где указан адрес компании.

3. Скрытие аналитики от ботов

Всем новым посетителям (у которых нет cookie) показывается всплывающее окно. В нем просят подтвердить город, указать возраст или согласиться на использование cookie. Если происходит взаимодействие с окном, то пользователь реальный. Тогда скрипт загружает Яндекс.Метрику и Google Analytics. В противном случае веб-аналитика не включается и не фиксирует сессию.

К таким всплывающим окнам аудитория привыкла. Люди на автомате нажимают их. Они не вызывают раздражение и не приводят к отказам. Роботы на них не реагируют, поэтому легко вычисляются. Скрипт можно совместить с информацией о куки, которая и так обязательна по закону.

Способ фильтрует до 90% спам-ботов. Статистика очищается от пустых данных. Увеличивается вовлеченность и количество регистраций. Число отказов не растет. Скрытие аналитики от роботов допустимо и для защиты от накрутки, и для выхода из-под санкций.

4. Обращение в техподдержку Яндекса

По любому вопросу можно написать в Яндекс. Но рассчитывать на помощь не стоит. В 99% случаях ответ стандартный, что позиции просели не из-за накруток, а из-за сайта. Поддержка отвечает, что в алгоритме предусмотрены действия злоумышленников, и они не влияют на позицию ресурса в поиске.

Но по факту страница может просесть из-за накрутки. Яндекс видит, что на сайте искусственно завышаются поведенческие факторы и понижает его. Как он определяет, что это атака, а не действия владельца ресурса? Он проверяет, бывал ли владелец на тех же платформах, что и боты. Если бывал, то накладываются санкции, если нет, то ничего не меняется. Но методика не дает гарантии 100%, и могут быть ошибки.

Если сайт не находится по ключевым запросам в топ-100, то ресурс попал под фильтр. Он отобразится только по прямому запросу адреса. Если позиции упали, но страница есть в выдаче, то причина в другом. Например, часть контента переполнена ключами.

5. Платформа Servicepipe

Сервис защищает ресурс от ботов и DDoS-атак. Он фильтрует трафик через прокси-сервер и блокирует подозрительные запросы (парсинг, роботы, попытки взлома и другие несанкционированные действия). Технология проводит технический, статистический, поведенческий анализ и использует машинное обучение.

Платформа обезопасит от внешних угроз в интернете. Это надежное средство от спам-ботов и искажения данных. Подойдет в качестве профилактики. Не поможет, если веб-страница уже попала под санкции и выпала из выдачи.

 

Чего делать нельзя

На сайт идет посторонняя накрутка. В Метрике зашкаливает роботность, резко вырос трафик с подозрительных источников. Что предпринять, мы уже описали выше. Чего не стоит делать:

  • Запускать позитивную накрутку. Дополнительная накрутка даже с качественными длинными сессиями усугубит ситуацию. Поисковик лишний раз убедится в нарушении и усилит санкции;
  • Фильтровать трафик самостоятельно. Запрет посещений по определенному признаку, например, по региону, не поможет. Злоумышленники заранее вычислят, откуда заходят пользователи и настроят ботов. Фильтр отсечет и реальных людей;
  • Анализировать вручную. Можно посмотреть все сессии и заблокировать адреса ботов. Прием работает, но он долгий, трудоемкий и не оправдывает себя. Хакер легко поменяет IP;
  • Устанавливать капчу. Капча гарантированно отсеивает роботов, но отпугивает и обычных пользователей. Вводить ее неудобно, особенно со смартфона.

 

Заключение

Накрутка поведенческих факторов – это нечестный метод SEO-продвижения и способ атаки на конкурентов. В большинстве случаев он не приводит к понижению позиций или санкциям. Но полностью защититься от него невозможно. Стоит приобрести запасной домен с таким же адресом, но в другой зоне. Он спасет, если сайт выпадет из выдачи.

Если страница потеряла позиции, но появляется в выдаче, накрутка может быть не при чем. Нужно проанализировать контент и найти, что тянет вниз. Специалисты Белой Вороны помогут оптимизировать сайт и подняться в топ. Обсудим Ваш проект прямо сейчас. Позвоните нам или оставьте заявку на сайте. Приведем клиентов из интернета!

Если Вам понравилась статья - ставим лайк и делимся ей в социальных сетях. Хотите получать больше полезных статей? Подпишитесь на рассылку. Раз в неделю пишем коротко про интернет-маркетинг.

Подпишитесь на наш блог

Вам также может понравиться