48 часов до приговора: как Яндекс вычисляет ботов изнутри — полный разбор алгоритма антифрода ПФ
В среде накрутчиков ПФ есть устойчивое наблюдение: если накрутка некачественная, Яндекс «понимает» это в течение примерно 48 часов. Не неделю и не месяц — а двое суток. Сайт ещё стоит на позициях, в Метрике всё выглядит ровно, заказчик радуется первым отчётам — а в это время в недрах поискового движка уже принято решение, что трафик неживой, и идёт молчаливая подготовка к одному из сценариев: понижение, ботовыдача или жёсткий фильтр.
Эта статья — реверс-инжиниринг того, что происходит внутри Яндекса в эти 48 часов. Без мифов, без рекламных лозунгов и без «инсайдерских сливов из закрытых чатов». Только то, что подтверждается публичными выступлениями инженеров Яндекса, патентами, утечками формул ранжирования и многолетней практикой работы с сотнями проектов под накруткой.
Поведенческими факторами под Яндекс я занимаюсь с момента появления алгоритма Снежинск. За эти годы у меня не было ни одного клиентского сайта, попавшего под фильтр за накрутку. Поэтому всё, что ниже — это не теория, а технологический разбор того, почему одни сайты палятся за двое суток, а другие держатся в ТОПе годами.
Почему именно 48 часов: окно подтверждения сигнала
Яндекс не выносит вердикт по одной сессии. Это было бы экономически невозможно — миллионы запросов в секунду нельзя обрабатывать в реальном времени тяжёлыми ML-моделями. Поэтому архитектура антифрода построена на принципе отложенной оценки с накоплением сигналов.
Когда пользователь делает клик из выдачи на сайт, Яндекс фиксирует несколько десятков параметров: фингерпринт устройства, поведенческие микропаттерны, источник трафика, профиль аккаунта, географию, цепочку запросов до и после. Эти данные складываются в очередь обработки. На первом этапе работают лёгкие эвристики — они отсеивают совсем грубых ботов (без JavaScript, с прямым curl-запросом, с битыми заголовками). Это менее 1% входящего бот-трафика.
Дальше начинается интересное. Сырые данные о визитах попадают в систему агрегации, где формируется так называемая сессионная подпись — компактное представление поведения пользователя на сайте и в выдаче. Эти подписи кластеризуются: похожие визиты группируются вместе. И вот тут включается главное оружие антифрода — анализ совпадений в кластерах.
Если в кластере оказывается аномально много визитов на один и тот же сайт с близкими подписями (даже с разных IP, даже с разных «профилей»), система помечает кластер как подозрительный. Это как раз тот объём данных, который Яндекс способен накопить и оценить примерно за 24–48 часов. Поэтому это окно — не магия, а инженерное ограничение: меньше суток — недостаточно данных, больше двух суток — система начинает терять деньги на содержании санкционно-нечистого сайта в ТОПе.
Слой первый: технический фингерпринт браузера и устройства
Первое, что снимается с каждого клика — техническая подпись браузера. Это не один параметр, а композиция из примерно 40–60 атрибутов, многие из которых пользователь даже не может изменить без переустановки системы.
Canvas fingerprint. Браузер рендерит невидимое изображение через тег canvas — букв, фигур, шрифтов. Разные комбинации GPU, видеодрайвера, шрифтового рендерера и сглаживания дают разный хеш этого изображения. Простые антидетект-браузеры подменяют его случайным шумом — но Яндекс умеет вычислять «слишком случайные» подписи, потому что у реального пользователя canvas хеш стабилен от сессии к сессии.
WebGL и графика. Через WebGL можно узнать видеокарту, её модель и драйвер. Дешёвая накрутка использует виртуалки с одинаковыми видеоконтекстами — на дистанции это видно как массовое совпадение редкой связки GPU и ОС.
Audio context. Аналогично canvas — браузер генерирует тестовый звуковой буфер и снимает с него отпечаток. Совпадение audio-хешей у тысяч «разных» пользователей — мгновенный красный флаг.
Шрифтовая полка. Перечень установленных в системе шрифтов уникален для каждого реального человека: одно лишь наличие или отсутствие конкретного офисного, дизайнерского или специализированного шрифта — это десятки бит энтропии. Чистые виртуальные машины с базовым набором шрифтов выдают себя сразу.
Часовой пояс, локаль, разрешение, плотность пикселей. Каждый параметр сам по себе ничего не значит, но в комбинации создаёт уникальную сигнатуру. Если бот с IP из Москвы выдаёт en-US локаль и Europe/London — это палится на первом же визите.
Подробнее о том, какие именно технические параметры режут низкокачественную накрутку, я разбирал в материале «Почему Яндекс знает о вашей накрутке быстрее, чем вы думаете» — там детальная техническая раскладка по каждому слою фингерпринта.
Слой второй: сетевой уровень и работа с прокси
Сетевой слой — это та часть антифрода, на которой палится 80% бюджетной накрутки в 2026 году. Яндекс не просто смотрит на IP-адрес — он анализирует весь сетевой контекст.
ASN и репутация подсети. Каждый IP принадлежит автономной системе (ASN). У хостинг-провайдеров (DigitalOcean, OVH, Hetzner) свои ASN, у российских провайдеров домашнего интернета — свои, у мобильных операторов — свои. Накрутка с серверных ASN определяется мгновенно. Накрутка с резидентских прокси выглядит лучше, но Яндекс знает крупных продавцов резидентских пулов и помечает их подсети как «потенциально арендованные».
IPv6 и ошибка 429. Долгое время IPv6-прокси были основой бюджетной накрутки. Но с конца 2024 года Яндекс начал агрессивно блокировать IPv6-подсети, выдавая массовые ошибки 429 (Too Many Requests). Целые сервисы накрутки фактически встали — об этом кризисе я писал в статье «Кризис в накрутке ПФ: ошибка 429 и блокировка IPv6 прокси Яндексом».
Геоконсистентность. IP в Краснодаре, локаль ru-RU, часовой пояс Europe/Moscow, а Яндекс.Карты у этого «пользователя» в истории показывают активность по Санкт-Петербургу — несоответствие фиксируется. Реальный человек редко путешествует географически без длинной истории, бот «приезжает» в новый регион резко.
Поведение прокси под нагрузкой. Один и тот же мобильный IP, через который проходит 50 разных «пользователей» за сутки — это не невозможно, но статистически крайне редко (только многоквартирный CGNAT-узел). Антифрод знает паттерны CGNAT и умеет отделять их от пула одного бота-фермера.
Слой третий: поведенческие микропаттерны
Самый дорогой и самый интересный слой защиты. Здесь Яндекс работает с тем, как именно человек двигает мышью, скроллит и кликает.
Кривая мыши. Реальный человек двигает мышь по дугам, с переменным ускорением, с короткими остановками и микро-коррекциями. Бот, даже с генератором кривых Безье, выдаёт слишком гладкие траектории или, наоборот, слишком случайные. У Яндекс.Метрики есть отдельный модуль анализа моторики курсора — он работает в фоне на всех сайтах со счётчиком и собирает миллиарды эталонных треков.
Паттерн скролла. Человек скроллит рывками, останавливается на абзацах, возвращается назад, ускоряется на длинных однотипных блоках. Бот скроллит равномерно с фиксированным шагом или, в продвинутом варианте, по записанному «человеческому» сценарию — но если у тысячи «разных» пользователей сценарий совпадает, это палится.
Тайминги между действиями. Время между прибытием на страницу и первым кликом, между кликом и началом скролла, между разными микро-действиями — у живого человека эти интервалы распределены по логнормальному закону. У бота — либо слишком ровно, либо слишком случайно (равномерное распределение, что в природе встречается реже).
Тачскрин против десктопа. Мобильный пользователь делает свайпы, тапы, иногда долгие удержания. Эмуляция тача в десктоп-браузере с автоматическим переключением user-agent на мобильный — частая ошибка дешёвых ботов. Антифрод сверяет, действительно ли есть touchstart-события, или просто кликают мышью «как будто с телефона».
Реакция на интерактив. Если на странице есть калькулятор, форма или меню — реальный пользователь иногда наводится на интерактивный элемент без клика, читает подсказку, передумывает. Бот идёт по жёсткому сценарию: щёлкнул-проскроллил-вышел. Этот паттерн отсутствия любопытства тоже фиксируется.
Какие из поведенческих факторов сегодня имеют решающий вес для ранжирования — и где именно проходит граница между «человеком» и «ботом» — детально разобрано в материале «Топ-7 поведенческих факторов, которые реально влияют на ранжирование в 2026 году».
Слой четвёртый: профиль и история — алгоритм Крипта
Это, пожалуй, самое страшное оружие Яндекса против накрутки — система Крипта. Если коротко, Крипта строит социально-демографический профиль каждого пользователя на основании всей доступной Яндексу истории его взаимодействия с экосистемой: поиск, Карты, Маркет, Дзен, Музыка, Почта, Браузер.
У каждого реального человека эта история тянется годами и содержит характерные паттерны: какие сайты он посещает, в какое время суток, с какой периодичностью, на какие темы реагирует, какие коммерческие запросы у него были раньше. Это даёт несколько сотен признаков пользователя — и Крипта оценивает каждый клик в выдаче на соответствие профилю.
Если на коммерческий запрос «купить пластиковые окна Москва» переходит «пользователь», у которого в истории за последний год — только запросы про криптовалюту и игры, Крипта понимает: либо это нетипичный визит (бывает), либо это арендованный профиль. Накопив за 48 часов достаточно таких подозрительных совпадений на конкретный сайт, система помечает его кандидатом на санкции.
Особенность Крипты в том, что её обмануть «нагулом» в течение пары дней невозможно. Профиль с реальной двухлетней историей запросов нельзя создать за неделю прогулок ботом по сайтам. Поэтому качество накрутки в 2026 году определяется не количеством «разогретых» профилей, а тем, какие именно профили используются: их возрастом, тематической релевантностью и реалистичностью поискового следа.
Подробный технический разбор того, как именно Крипта противодействует накрутке, я делал в статье «Алгоритм Яндекса Крипта против накрутки ПФ: как обойти антифрод и не стать донором для его алгоритмов».
Слой пятый: ML-кластеризация и графовый анализ
Финальный и самый мощный слой защиты — машинное обучение поверх всех предыдущих сигналов. Здесь работают не правила, а нейросетевые модели, обученные на триллионах размеченных сессий.
Кластеризация подписей. Каждая сессия превращается в вектор из сотен признаков. Эти векторы группируются — и аномальные кластеры (где много сессий с подозрительно близкими признаками, идущих на один сайт) поднимаются на верх для дополнительного анализа.
Графовый анализ связей. Яндекс строит огромный граф «профиль → сайт → запрос → клик». В этом графе арендованные ботофермы выглядят как плотные узлы, где много профилей переходит на одни и те же небольшие списки сайтов. У реальной аудитории граф разрежён — у каждого живого человека свой уникальный паттерн посещений.
Каскад моделей. Сначала работает быстрая модель, отсеивающая массовые очевидные кластеры. Потом — средняя по сложности модель, проверяющая поведение. Финально — тяжёлая модель, которая выносит вердикт по конкретному сайту. Каждый каскад добавляет минуты или часы к окну детекции — отсюда и получается итоговый интервал в 24–48 часов.
Самообучение на новых паттернах. Если накрутчики придумали новый трюк (например, новый способ генерации canvas-хешей), модель сначала пропускает его. Но через неделю-две накопленные данные позволяют переобучить модель и закрыть эту дыру. Поэтому любой публичный софт за накрутку устаревает быстро — большинство сервисов из ТОПа открытого рынка живут на устаревших паттернах, давно известных антифроду.
Что происходит после того, как 48 часов истекли
Когда антифрод накопил достаточно данных и подтвердил, что трафик неживой, начинается одна из санкционных процедур.
Сценарий мягкий — обнуление веса сигналов. ПФ перестают влиять на ранжирование сайта. Позиции откатываются туда, где сайт был бы без накрутки. Заказчик это видит как «накрутка перестала работать», ругается на сервис, идёт к другому. Сервис, естественно, говорит, что «алгоритмы обновились». На деле — модель просто перестала верить трафику на этот конкретный домен.
Сценарий средний — XML-ботовыдача. Сайт продолжает показываться на ТОП-позициях в Яндекс.Вебмастере, в Топвизоре, в любых сервисах проверки через XML-выдачу. Но в реальной органической выдаче для живых пользователей сайт уже невидим. Этот сценарий особенно жесток — заказчик ещё месяц или два уверен, что у него ТОП-3, а заявки давно умерли. Разбор того, как диагностировать ботовыдачу и вывести сайт обратно, я делал в материале «Как вывести сайт из ботовыдачи Яндекса: полное руководство по снятию фильтра за накрутку ПФ».
Сценарий жёсткий — фильтр на весь домен. Сайт улетает в минус 30, минус 50 позиций или вообще пропадает из индекса. Снятие такого фильтра — отдельная многомесячная история, иногда дешевле бросить домен и стартовать новый.
Побочный эффект — резка лидов из Яндекс.Директ. Это то, о чём почти не пишут публично, но что мы видим у клиентов, попавших под некачественную накрутку. После того как антифрод помечает сайт как «бот-получатель», Яндекс начинает резать показы платной рекламы на этот сайт — алгоритм считает домен подозрительным. И заказчик внезапно теряет не только органику, но и контекст. Подробный разбор этого эффекта — в статье «Почему некачественная накрутка ПФ "выключает" лиды из органики и Яндекс.Директа: экспертный разбор».
Где проходит граница: что Яндекс распознать не может
Главный вопрос — а что вообще может пройти через антифрод? Ответ есть, и он не магический.
Антифрод Яндекса — это статистическая система. Она ищет аномалии. Если поведение бота статистически неотличимо от поведения живого человека по всем перечисленным слоям, кластеризация не сработает: бот просто растворится в общем шуме реального трафика. Это не теория — это математика.
Чтобы добиться такой неотличимости, нужно одновременно:
Во-первых, использовать профили с реальной длинной историей — не «нагулянные за неделю», а с многомесячным или многолетним поисковым следом по разнообразной тематике. Такие профили нельзя массово штамповать — их собирают штучно, кропотливо, годами. Качество нагула профилей напрямую определяет, поверит ли Крипта в визит — об этом я подробно писал в статье «От чего зависит качество нагула профилей для накрутки поведенческих факторов в Яндекс».
Во-вторых, тематически релевантные профили. Если бот идёт на сайт автосервиса, в его поисковой истории должны быть запросы про машины, ремонт, ОСАГО, шиномонтаж — а не случайный шум. Это и есть «тематические боты»: профили, заранее заточенные под конкретную нишу.
В-третьих, корректная социально-демографическая привязка — соцдем должен соответствовать реальной целевой аудитории сайта. Если у вас сайт детских товаров, а к вам идут «мужчины 18–24 без детей», Крипта это видит. Тонкости настройки соцдема разбираю в материале «Соцдем в накрутке ПФ: что это такое и почему он определяет успех продвижения в Яндексе».
В-четвёртых, точная геопривязка ботов под регион продвижения. Сайт в Москве не может ранжироваться по московским запросам с трафиком из Краснодара — алгоритм геобиндинга это прекрасно фиксирует. О настройке геолокации — отдельный материал «Гео-спека в накрутке ПФ: что это, зачем нужна и как правильно настроить геолокацию ботов».
В-пятых, реальные мобильные прокси и индивидуальные технические профили устройств — чтобы фингерпринт не повторялся в кластерах.
Когда все пять условий соблюдены одновременно, бот для Яндекса перестаёт быть ботом. Не потому что система «обманута», а потому что система по своей математике не имеет оснований этого визита различить — для неё это просто один из миллиардов реальных пользователей.
Почему 98% сервисов накрутки сливают сайты
Объективная причина — экономика. Чтобы держать пул из 50 000 настоящих тематических нагулянных профилей с двухлетней историей и индивидуальной географией, нужно несколько лет работы, серьёзная инфраструктура и постоянное обслуживание. Это не стартовая позиция «зашёл на форум, купил софт, начал крутить» — это инфраструктурный бизнес.
Большинство публичных сервисов идут по дешёвой схеме: купить пакет резидентских прокси, запустить эмулятор браузера с базовой рандомизацией canvas, прогнать через софт массовые сессии. Это даёт первые результаты на пару недель — пока кластеризация Яндекса не накопила данных. После этого начинаются санкции, а сервис разводит руками: «Извините, алгоритмы обновились».
Подробный сравнительный обзор того, как именно отличается качественная накрутка от типовой бюджетной, есть в материале «Чем отличается качественная накрутка поведенческих факторов от некачественной».
И ещё одно объяснение того, почему вы видите конкурента в ТОП-3 годами без признаков фильтра — он не «обманул Яндекс», он просто использует тот класс ботов, который антифрод не распознаёт по своей архитектуре. Подробнее — в статье «Почему ваш конкурент в ТОП-3 крутит ПФ — и почему Яндекс этого не видит».
Итог: что нужно понимать перед заказом накрутки
Антифрод Яндекса — это не «магический алгоритм, который вычислит всё». Это математическая статистическая система с понятной архитектурой и измеримыми пределами. Если вы знаете, как она работает, вы знаете, какие сигналы она проверяет, в каком окне она принимает решение и какие именно паттерны поведения проходят сквозь её сито.
48 часов — это не приговор и не дамоклов меч. Это просто временное окно, в течение которого решается, отнесёт ли система ваш трафик к «реальной аудитории» или к «арендованной ботоферме». И определяется этот вердикт не везением, а качеством инструмента: профилями, прокси, фингерпринтами, сценариями, соцдемом и геобиндингом.
Если вы хотите видеть сайт в ТОПе и через неделю, и через год, без скачков, фильтров и срезов лидов — выбирайте подрядчика не по цене и не по обещаниям, а по тому, как он работает с каждым из пяти слоёв антифрода, описанных в этой статье. Если хоть один слой проседает — двое суток, и сайт начинает терять позиции.
Закажите качественную накрутку ПФ, которую Яндекс не отличает от живых людей
В ProfSEO24 мы 3+ года ведём накрутку ПФ без единого фильтра, бана или среза лидов по более чем 300 проектам в ТОП-1. Работаем не с шаблонными ботами и не с серверными виртуалками — у нас собственный пул нагулянных тематических профилей с реальной многолетней историей в Яндексе, индивидуальными фингерпринтами, мобильными прокси под нужный регион и ML-сценариями поведения, неотличимыми от живого пользователя.
Что вы получаете:
— Первые сдвиги по позициям уже на 3-й день, без 48-часового слива в антифрод — Качественные тематические боты с реалистичным соцдемом и геопривязкой под вашу нишу — Лиды, а не ботовыдача: трафик, который Яндекс.Директ принимает как органический и не режет показы — Гарантия результата и прозрачная отчётность по каждому ключу — Тарифы от 20 000 ₽ — индивидуальный расчёт под количество запросов и регион
Или напишите напрямую в Telegram-канал ProfSEO24 — ответим в течение 15 минут, проведём экспресс-анализ вашего сайта и покажем, какой именно класс ботов нужен под вашу нишу.