68 миллионов посещений ИИ-краулеров показывают, что движет видимостью поиска ИИ

68 миллионов посещений ИИ-краулеров показывают, что движет видимостью поиска ИИ

<стр>Исследование 68 миллионов посещений ИИ-сканеров показывает четкие закономерности, которые повышают эффективность ИИ-поиска на бизнес-сайтах.

Новый анализ 858 457 сайтов, размещенных на платформе Duda, показывает, как роботы с искусственным интеллектом взаимодействуют с веб-сайтами в большом масштабе. Эти данные дают более четкое представление о том, как растет активность сканирования и что должны делать оптимизаторы и компании, чтобы увеличить трафик от поиска с помощью ИИ.

Сканирование ИИ уже достигло масштаба

Сканирование с помощью искусственного интеллекта быстро растет: все больше запросов связано с ответами в реальном времени, и большая часть этой активности исходит от одного провайдера. Данные создают шаблон, который показывает, какие сайты сканируются и, что более важно, почему.

Годовой рост числа рефералов LLM

<п>За последний год количество рефералов по трафику LLM резко возросло, при этом несколько платформ продемонстрировали значительный рост с самых разных отправных точек.

Схемы трафика рефералов AI

<ул>

  • Всего рефералов LLM: с 93 484 до 161 469 (+72,7%)
  • ChatGPT: с 81 652 до 136 095 (+66,7%)
  • <ли>Клод: со 106 до 2488 (рост в 23 раза)

  • Второй пилот: от 22 до 9560 (от почти нуля)
  • Растерянность: с 11,533 до 13,157 (+14,1%)
  • <п>Рост происходит неравномерно, но в целом реферальный трафик из систем искусственного интеллекта увеличивается. Это делает открытия, созданные ИИ, растущим, а не второстепенным источником трафика.

    Сканеры все чаще извлекают контент для обоснования ответов

    Сканеры с искусственным интеллектом больше не используются в основном для индексации, большая часть активности теперь связана с получением контента в реальном времени для генерации ответов для пользователей.

    Большая часть сканирования теперь происходит в ответ на запросы пользователей, а не для создания индекса, что меняет способы доступа и использования контента.

    <ул>

  • Извлечение пользователей (ответы в режиме реального времени): 56,9% всей активности сканеров, почти полностью обеспечиваемая ChatGPT
  • Обучение (обучение модели): 28,8%, распределено между GPTBot и другими сканерами моделей
  • Обнаружение (индексирование контента): 14,3%, распределено по нескольким системам
  • Объём выборки пользователей ChatGPT: ~39,8 миллиона посещений
  • <п>Эти тенденции во многом обусловлены ChatGPT, который отвечает почти за всю активность поиска в реальном времени. Это означает, что переход к сканированию на основе ответов даже не распространяется, а концентрируется на одной платформе, определяющей способ доступа к контенту. Эта тенденция может измениться с появлением нового сканера Google-Agent от Google.

    <ч2>Концентрация рынка при сканировании ИИ

    Деятельность сканеров AI сильно сконцентрирована, причем OpenAI отвечает за подавляющее большинство запросов, что отражает его положение как основного инструмента, на который пользователи полагаются при поиске и получении информации.

    <ул>

  • OpenAI: 55,8 миллиона посещений (81,0%)
  • Антропный (Клод): 11,5 миллионов (16,6%)
  • Недоумение: 1,3 миллиона (1,8%)
  • Google (Близнецы): 380 000 (0,6%)
  • <п>Большая часть активности сканирования ИИ исходит от OpenAI, что соответствует роли ChatGPT как основного инструмента для поиска и получения информации. Клод следует за ним с гораздо меньшей долей, предполагая другую модель использования, в то время как на остальную часть рынка приходится минимальная часть активности сканеров.

    Масштаб и что это на самом деле означает

    Сканирование с помощью искусственного интеллекта уже работает на значительной части сети, охватывая сотни тысяч сайтов и генерируя десятки миллионов запросов за один месяц.

    <п>Более половины всех сайтов в наборе данных хотя бы один раз посетили роботы с искусственным интеллектом, что показывает, что эта активность не ограничивается небольшим подмножеством веб-сайтов.

    <ул>

  • Всего проанализированных сайтов: 858,457
  • Сайты, на которых хотя бы один раз посетил робот с искусственным интеллектом: 506 910 (59%)
  • Общее количество посещений сканера ИИ (февраль 2026 г.): 68,9 миллиона
  • Сканирование с помощью ИИ не ограничивается только громкими или посещаемыми сайтами. Он уже широко распространён, и его активность стабильно наблюдается в большей части сети.

    Взаимосвязь между сканированием и реальным трафиком

    Сайты, которые позволяют системам искусственного интеллекта сканировать их, последовательно демонстрируют более высокую вовлеченность по множеству показателей.

    На самом деле данные показывают:

    <ол>

  • Сайты, которые позволяют сканировать ИИ, получают значительно больше трафика
  • Сайты с большим трафиком сканируются с большей вероятностью
  • <п>Сайты, которые позволяют сканировать системы искусственного интеллекта, получают значительно больше человеческого трафика: в среднем 527,7 сеансов по сравнению с 164,9 для сайтов, которые не сканируются. Это не устанавливает причинно-следственную связь, но показывает четкую связь между сайтами, которые привлекают посетителей, и тем, как часто системы ИИ повторно посещают их.

    <ул>

  • Средний трафик людей (сканирование с помощью ИИ или без него): 527,7 против 164,9 (в 3,2 раза выше)
  • Среднее количество завершенных форм: 4,17 против 1,57 (в 2,7 раза выше)
  • Среднее число кликов до звонка: 8,62 против 3,46 (в 2,5 раза выше)
  • Сайты с более чем 10 тыс. сеансов: скорость сканирования 90,5%
  • <п>Системы искусственного интеллекта не обнаруживают слабые или неактивные сайты и не поднимают их. Они возвращаются на сайты, которые уже привлекают посетителей. Для маркетологов это отвлекает внимание от попыток «просканироваться»; и к созданию реального спроса аудитории, поскольку видимость в системах искусственного интеллекта, похоже, следует за ним.

    Что связано с более ползанием

    В ходе исследования сравнивались сайты, которые включают в себя определенные сторонние интеграции, структурированные функции и глубину контента, с теми, которые этого не делают, и выяснилось, какие из них наиболее важны для активности ИИ-сканеров и рефералов.

    По всему набору данных 59% сайтов хотя бы раз посетили роботы с искусственным интеллектом в феврале 2026 года. Сайты, которые сканируются чаще, обычно сочетают в себе три типа сигналов: внешнюю интеграцию, структурированные бизнес-данные и глубину контента.

    <х3>1. Внешние интеграции

    Эти интеграции подключают сайт к внешним системам, которые проверяют и распространяют бизнес-информацию.

    <ул>

  • Дополнительная интеграция: 97,1% скорости сканирования против ~58% без (+38,9pp)
  • Интеграции с отзывами: 89,8% скорости сканирования против 58,8% без него, 376,9 средних посещений сканера
  • Сайты, подключенные к внешним данным и системам проверки, сканируются все чаще и чаще, что указывает на то, что системы искусственного интеллекта полагаются на эту интеграцию как на сигналы о том, что бизнес реален, поддается проверке и к нему стоит вернуться.

    <х3>2. Структурированные функции сайта и бизнес-данные

    Они встроены в сайт и помогают системам искусственного интеллекта понимать и проверять идентичность компании.

    <ул> <ли>Синхронизация бизнес-профиля Google: скорость сканирования 92,8 % против 58,9 % без нее, среднее число посещений сканера – 415,6 

  • Локальная схема: 72,3% против 55,2% (+17,1пп), внедрение 22,3%
  • Динамические страницы: 69,4% против 58,2% (+11,2пп)
  • Электронная торговля: 54,2% против 59,2% (-5,0пп)
  • Сайты, которые четко определяют свою бизнес-идентичность и структурируют свою информацию в машиночитаемом виде, сканируются чаще, показывая, что системы ИИ отдают предпочтение сайтам, которые они могут легко интерпретировать, проверять и извлекать информацию из.

    <х3>3. Глубина контента (объем полезных данных)

    Сайты с большим количеством контента предоставляют системам ИИ больше возможностей для извлечения, ссылки и повторного использования информации в ответах.

    <ул>

  • Сайты с более чем 50 сообщениями в блогах: 1373,7 средних посещений сканера против 41,6 без блога (~33 раза выше)
  • <п>Сайты с большим количеством контента сканируются гораздо чаще, что указывает на то, что системы ИИ могут вернуться к источникам, которые предлагают больший объем полезной информации, из которой можно извлечь ответы при генерировании ответов.

    Полнота схемы местного бизнеса = больше сканирования

    Эта часть исследования сосредоточена конкретно на локальной бизнес-схеме, сравнивая, как полнота реализации схемы для передачи бизнес-деталей связана с деятельностью ИИ-сканера. Измеряемые поля включают название компании, номер телефона, адрес, часы работы и профили в социальных сетях.

    <ул>

  • Нет полей локальной схемы: скорость сканирования 55,2%
  • 10–11 заполненных полей схемы: скорость сканирования 82%
  • Сайты с более полной локальной схемой демонстрируют скорость сканирования на 26,8 процентных пункта выше (82% против 55,2%)
  • Сайты, которые предоставляют более полную информацию о местном бизнесе в структурированной форме, сканируются чаще и получают больше посещений. Чем больше полей заполнено, тем выше скорость и частота сканирования.

    Данные показывают, что четко определенные локальные бизнес-данные облегчают системам ИИ идентификацию, проверку и последующее повторное посещение сайта, обеспечивая все необходимые условия для получения трафика от поиска ИИ.

    <ч2>Вынос

    Сканирование с помощью искусственного интеллекта — это параллельный метод обнаружения контента, и исследования показывают четкие закономерности для сайтов, которые сканеры посещают чаще всего.

    <ул>

  • Сканирование с помощью искусственного интеллекта работает параллельно с традиционным поиском, изменяя способ доступа к контенту и его повторного использования
  • Сайты со структурированными локальными сигналами, более глубоким содержанием и более полной схемой сканируются чаще
  • Несколько подкрепляющих сигналов появляются вместе на одних и тех же участках, а не изолированно
  • Данные показывают направление, а не причинно-следственную связь, но закономерности совпадают
  • Данные показывают, что сайты, которые позволяют сканерам ИИ легко индексировать и повторно посещать их, как правило, работают лучше. Интересно, что сайты, которые предоставляют четкую, структурированную и поддающуюся проверке информацию, продолжая при этом создавать реальный спрос со стороны аудитории, с большей вероятностью будут повторно посещаться системами искусственного интеллекта и получат выгоду от трафика, генерируемого посредством поиска с помощью искусственного интеллекта.

    Back To Top