<стр>Исследование 68 миллионов посещений ИИ-сканеров показывает четкие закономерности, которые повышают эффективность ИИ-поиска на бизнес-сайтах.стр>
Новый анализ 858 457 сайтов, размещенных на платформе Duda, показывает, как роботы с искусственным интеллектом взаимодействуют с веб-сайтами в большом масштабе. Эти данные дают более четкое представление о том, как растет активность сканирования и что должны делать оптимизаторы и компании, чтобы увеличить трафик от поиска с помощью ИИ.
Сканирование ИИ уже достигло масштаба
Сканирование с помощью искусственного интеллекта быстро растет: все больше запросов связано с ответами в реальном времени, и большая часть этой активности исходит от одного провайдера. Данные создают шаблон, который показывает, какие сайты сканируются и, что более важно, почему.
Годовой рост числа рефералов LLM
<п>За последний год количество рефералов по трафику LLM резко возросло, при этом несколько платформ продемонстрировали значительный рост с самых разных отправных точек.
Схемы трафика рефералов AI
<ул>
<ли>Клод: со 106 до 2488 (рост в 23 раза)ли>
мл> <п>Рост происходит неравномерно, но в целом реферальный трафик из систем искусственного интеллекта увеличивается. Это делает открытия, созданные ИИ, растущим, а не второстепенным источником трафика.
Сканеры все чаще извлекают контент для обоснования ответов
Сканеры с искусственным интеллектом больше не используются в основном для индексации, большая часть активности теперь связана с получением контента в реальном времени для генерации ответов для пользователей.
Большая часть сканирования теперь происходит в ответ на запросы пользователей, а не для создания индекса, что меняет способы доступа и использования контента.
<ул>
мл> <п>Эти тенденции во многом обусловлены ChatGPT, который отвечает почти за всю активность поиска в реальном времени. Это означает, что переход к сканированию на основе ответов даже не распространяется, а концентрируется на одной платформе, определяющей способ доступа к контенту. Эта тенденция может измениться с появлением нового сканера Google-Agent от Google.
<ч2>Концентрация рынка при сканировании ИИч2>
Деятельность сканеров AI сильно сконцентрирована, причем OpenAI отвечает за подавляющее большинство запросов, что отражает его положение как основного инструмента, на который пользователи полагаются при поиске и получении информации.
<ул>
мл> <п>Большая часть активности сканирования ИИ исходит от OpenAI, что соответствует роли ChatGPT как основного инструмента для поиска и получения информации. Клод следует за ним с гораздо меньшей долей, предполагая другую модель использования, в то время как на остальную часть рынка приходится минимальная часть активности сканеров.
Масштаб и что это на самом деле означает
Сканирование с помощью искусственного интеллекта уже работает на значительной части сети, охватывая сотни тысяч сайтов и генерируя десятки миллионов запросов за один месяц.
<п>Более половины всех сайтов в наборе данных хотя бы один раз посетили роботы с искусственным интеллектом, что показывает, что эта активность не ограничивается небольшим подмножеством веб-сайтов.
<ул>
мл>
Сканирование с помощью ИИ не ограничивается только громкими или посещаемыми сайтами. Он уже широко распространён, и его активность стабильно наблюдается в большей части сети.
Взаимосвязь между сканированием и реальным трафиком
Сайты, которые позволяют системам искусственного интеллекта сканировать их, последовательно демонстрируют более высокую вовлеченность по множеству показателей.
На самом деле данные показывают:
<ол>
ол> <п>Сайты, которые позволяют сканировать системы искусственного интеллекта, получают значительно больше человеческого трафика: в среднем 527,7 сеансов по сравнению с 164,9 для сайтов, которые не сканируются. Это не устанавливает причинно-следственную связь, но показывает четкую связь между сайтами, которые привлекают посетителей, и тем, как часто системы ИИ повторно посещают их.
<ул>
мл> <п>Системы искусственного интеллекта не обнаруживают слабые или неактивные сайты и не поднимают их. Они возвращаются на сайты, которые уже привлекают посетителей. Для маркетологов это отвлекает внимание от попыток «просканироваться»; и к созданию реального спроса аудитории, поскольку видимость в системах искусственного интеллекта, похоже, следует за ним.
Что связано с более ползанием
В ходе исследования сравнивались сайты, которые включают в себя определенные сторонние интеграции, структурированные функции и глубину контента, с теми, которые этого не делают, и выяснилось, какие из них наиболее важны для активности ИИ-сканеров и рефералов.
По всему набору данных 59% сайтов хотя бы раз посетили роботы с искусственным интеллектом в феврале 2026 года. Сайты, которые сканируются чаще, обычно сочетают в себе три типа сигналов: внешнюю интеграцию, структурированные бизнес-данные и глубину контента.
<х3>1. Внешние интеграциич3>
Эти интеграции подключают сайт к внешним системам, которые проверяют и распространяют бизнес-информацию.
<ул>
мл>
Сайты, подключенные к внешним данным и системам проверки, сканируются все чаще и чаще, что указывает на то, что системы искусственного интеллекта полагаются на эту интеграцию как на сигналы о том, что бизнес реален, поддается проверке и к нему стоит вернуться.
<х3>2. Структурированные функции сайта и бизнес-данные
Они встроены в сайт и помогают системам искусственного интеллекта понимать и проверять идентичность компании.
<ул> <ли>Синхронизация бизнес-профиля Google: скорость сканирования 92,8 % против 58,9 % без нее, среднее число посещений сканера – 415,6
мл>
Сайты, которые четко определяют свою бизнес-идентичность и структурируют свою информацию в машиночитаемом виде, сканируются чаще, показывая, что системы ИИ отдают предпочтение сайтам, которые они могут легко интерпретировать, проверять и извлекать информацию из.
<х3>3. Глубина контента (объем полезных данных)ч3>
Сайты с большим количеством контента предоставляют системам ИИ больше возможностей для извлечения, ссылки и повторного использования информации в ответах.
<ул>
мл> <п>Сайты с большим количеством контента сканируются гораздо чаще, что указывает на то, что системы ИИ могут вернуться к источникам, которые предлагают больший объем полезной информации, из которой можно извлечь ответы при генерировании ответов.
Полнота схемы местного бизнеса = больше сканирования
Эта часть исследования сосредоточена конкретно на локальной бизнес-схеме, сравнивая, как полнота реализации схемы для передачи бизнес-деталей связана с деятельностью ИИ-сканера. Измеряемые поля включают название компании, номер телефона, адрес, часы работы и профили в социальных сетях.
<ул>
мл>
Сайты, которые предоставляют более полную информацию о местном бизнесе в структурированной форме, сканируются чаще и получают больше посещений. Чем больше полей заполнено, тем выше скорость и частота сканирования.
Данные показывают, что четко определенные локальные бизнес-данные облегчают системам ИИ идентификацию, проверку и последующее повторное посещение сайта, обеспечивая все необходимые условия для получения трафика от поиска ИИ.
<ч2>Выносч2>
Сканирование с помощью искусственного интеллекта — это параллельный метод обнаружения контента, и исследования показывают четкие закономерности для сайтов, которые сканеры посещают чаще всего.
<ул>
мл>
Данные показывают, что сайты, которые позволяют сканерам ИИ легко индексировать и повторно посещать их, как правило, работают лучше. Интересно, что сайты, которые предоставляют четкую, структурированную и поддающуюся проверке информацию, продолжая при этом создавать реальный спрос со стороны аудитории, с большей вероятностью будут повторно посещаться системами искусственного интеллекта и получат выгоду от трафика, генерируемого посредством поиска с помощью искусственного интеллекта.
