Исследование показывает, что веб-сканеры с искусственным интеллектом завоевывают позиции среди традиционных поисковых систем, меняя подходы к оптимизации контента веб-сайтов.
- ИИ-боты становятся основными игроками в веб-сканировании. ли>
- Веб-сайты должны использовать новые стратегии оптимизации для сканеров с искусственным интеллектом. ли>
- Будущее SEO должно будет учитывать как поисковые системы, так и ботов с искусственным интеллектом. ли> мкл>
<стр>В отчете, опубликованном Vercel, подчеркивается растущее влияние ботов на основе искусственного интеллекта в веб-сканировании.стр> <стр>GPTBot от OpenAI и Claude от Anthropic генерируют почти 1 миллиард запросов ежемесячно в сети Vercel.стр> <стр>Данные показывают, что за последний месяц GPTBot сделал 569 миллионов запросов, а на долю Клода пришлось 370 миллионов.
Кроме того, PerplexityBot выполнил 24,4 миллиона выборок, а AppleBot добавил 314 миллионов запросов.
Вместе эти роботы с искусственным интеллектом представляют примерно <сильные>28%сильные> общего объема робота Googlebot, который составляет 4,5 миллиарда выборок.< /p>
Вот что это может означать для SEO.
Основные выводы по роботам с искусственным интеллектом
<п>В ходе анализа рассматривались модели трафика в сети Vercel и различных веб-архитектурах. Он обнаружил некоторые ключевые особенности сканеров ИИ:
<ул>
- Основные ИИ-сканеры не обрабатывают JavaScript, хотя и извлекают файлы JavaScript.
- Сканеры с искусственным интеллектом часто неэффективны: ChatGPT и Claude тратят более 34% своих запросов на 404 страницы.
- Тип контента, на котором фокусируются эти сканеры, варьируется. ChatGPT отдает приоритет HTML (57.7%), а Клод больше фокусируется на изображениях (35.17%).ли> мкл> <ч3>Географическое распространениеч3>
В отличие от традиционных поисковых систем, которые работают в нескольких регионах, роботы с искусственным интеллектом в настоящее время концентрируют свои поисковые системы в США. наличие:п> <ул>
- ChatGPT работает из Де-Мойна (Айова) и Феникса (Аризона)
- Клод работает из Колумбуса (Огайо)
- Реализовать рендеринг на стороне сервера для критического контента
- Убедитесь, что основной контент, метаинформация и структуры навигации присутствуют в исходном HTML
- Используйте статическое создание сайта или поэтапную статическую регенерацию, где это возможно
- Приоритет HTML-контента (57,70%)
- Тратит 11,50% выборки на файлы JavaScript
- Особое внимание уделяется изображениям (35,17%)
- Выделяет 23,84% выборок для файлов JavaScript
- Четко и семантически структурировать HTML-контент
- Оптимизация доставки изображений и метаданных
- Включить описательный альтернативный текст для изображений
- Реализовать правильную иерархию заголовков
- Поддерживать обновленные карты сайта
- Реализовать правильные цепочки перенаправления
- Используйте согласованные шаблоны URL-адресов
- Регулярный аудит ошибок 404
мкл>
Корреляция веб-альманаха
<п>Эти выводы согласуются с данными, представленными в главе SEO веб-альманаха, в которой также отмечается растущее присутствие сканеров с искусственным интеллектом.
Согласно отчету, веб-сайты теперь используют файлы robots.txt для установки правил для ИИ-ботов, сообщая им, что они могут или не могут сканировать.
GPTBot — наиболее упоминаемый бот, появляющийся на
2,7% изученных мобильных сайтах. Также часто упоминается бот Common Crawl, который часто используется для сбора обучающих данных для языковых моделей.
В обоих отчетах подчеркивается, что владельцам веб-сайтов необходимо приспосабливаться к поведению роботов с искусственным интеллектом.
3 способа оптимизации для краулеров с искусственным интеллектом
<стр>Основываясь на последних данных Vercel и Веб-альманаха, вот три способа оптимизации для поисковых роботов с искусственным интеллектом.
<х3>1. Рендеринг на стороне сервера
Сканеры с искусственным интеллектом не выполняют JavaScript. Это означает, что любой контент, основанный на рендеринге на стороне клиента, может быть невидимым.
Рекомендуемые действия:
<ул>
мкл> <х3>2. Структура контента и Доставкач3>
Данные Верселя показывают различные предпочтения типов контента среди поисковых роботов с искусственным интеллектом:
<п><сильный>ЧатGPT:
<ул>
мкл>
<сильный>Клод:сильный>
<ул>
мкл>
Рекомендации по оптимизации:
<ул>
мкл> <х3>3. Технические соображенияч3>
Высокие показатели 404 от поисковых роботов с искусственным интеллектом означают, что вам необходимо учитывать следующие технические аспекты:
<ул>
мкл> <ч2>Взгляд в будущееч2>
Для поисковых маркетологов идея ясна: чат-боты с искусственным интеллектом — это новая сила в веб-сканировании, и сайтам необходимо соответствующим образом адаптировать свою SEO.
Хотя сейчас ИИ-боты могут полагаться на кэшированную или датированную информацию, их способность анализировать свежий контент со всей сети будет расти.
Вы можете гарантировать, что ваш контент сканируется и индексируется с помощью рендеринга на стороне сервера, чистых структур URL-адресов и обновленных карт сайта.