Отслеживание цитирования Bing AI, скрытые домашние страницы HTTP и amp; Страницы попадают под лимит сканирования

Отслеживание цитирования Bing AI, скрытые домашние страницы HTTP и amp; Страницы попадают под лимит сканирования

Bing запускает отслеживание цитирования с помощью искусственного интеллекта в Инструментах для веб-мастеров, Мюллер находит скрытую ошибку на домашней странице HTTP, а новые данные показывают, что большинство страниц соответствуют лимиту сканирования робота Googlebot.

<п>Добро пожаловать на недельный «Пульс для SEO»: обновления рассказывают о том, как вы отслеживаете видимость ИИ, как страница-призрак может испортить имя вашего сайта в результатах поиска и что новые данные сканирования показывают об ограничениях размера файла робота Googlebot.

<стр>Вот что важно для вас и вашей работы.

В Инструменты для веб-мастеров Bing добавлена панель AI Citation

Microsoft представила панель мониторинга производительности ИИ в инструментах Bing для веб-мастеров, позволяющую издателям видеть, как часто их контент цитируется в Copilot и ответах, генерируемых ИИ. Эта функция теперь находится в общедоступной предварительной версии.

Ключевые факты: Панель мониторинга отслеживает общее количество цитирований, среднее число цитируемых страниц в день, активность цитирования на уровне страниц и основные запросы. Заземляющие запросы показывают фразы, которые ИИ использует при получении вашего контента для ответов.

Почему это важно

<п>Bing теперь предлагает специальную панель мониторинга для видимости цитирования ИИ. Google включает обзоры ИИ и действия в режиме ИИ в общие отчеты об эффективности Search Console, но не выделяет отдельный отчет и не предоставляет подсчет URL-адресов в стиле цитирования. Обзоры ИИ также присваивают всем связанным страницам одну позицию, что ограничивает то, что вы можете узнать о производительности отдельных страниц в ответах ИИ.

<п>Панель управления Bing идет еще дальше, отслеживая, какие страницы цитируются, как часто и какие фразы вызывают цитирование. Недостающий фрагмент — данные о кликах. На информационной панели показано, когда ваш контент цитируется, но не отображается, приводят ли эти цитирования к трафику.

<стр>Теперь вы можете подтвердить, на какие страницы ссылаются ответы ИИ, и выявить закономерности в обоснованных запросах, но для того, чтобы связать видимость ИИ с результатами бизнеса, по-прежнему требуется объединение этих данных с вашей собственной аналитикой.

Что говорят SEO-специалисты

Уил Рейнольдс, основатель Seer Interactive, отметил эту функцию в X и сосредоточился на новых данных базовых запросов:

“Bing теперь предоставляет вам базовые запросы в инструментах Bing для веб-мастеров!! Только что подтвердил, теперь мне нужно понять, что мы от них получаем, что это значит и как это использовать.”

<п>Корай Туğberk GÜB&Uuml;R, основатель Holistic SEO &amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;B&B&B&B&B&B&R, основатель Holistic SEO &amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;AMP; Digital сравнил его непосредственно с инструментами Google на X:

.

“Инструменты Microsoft Bing для веб-мастеров всегда были более полезными и эффективными, чем Google Search Console, и они еще раз доказали свою приверженность прозрачности.”

Фабрис Канель, главный менеджер по продуктам Microsoft Bing, описал запуск X как мост между традиционной оптимизацией и оптимизацией на основе искусственного интеллекта:

<блоковая цитата><п>“Теперь издатели могут видеть, как их контент отображается в эпоху искусственного интеллекта. GEO сочетается с SEO, подкрепите свою стратегию реальными сигналами.”

Реакция в социальных сетях была сосредоточена на общем разочаровании. Это те данные, которые просили специалисты-практики, но они поступают от Bing, а не от Google. Несколько человек выразили надежду, что Google и OpenAI последуют их примеру и представят сопоставимые отчеты.

Прочитайте наш полный обзор: Bing Webmaster Tools добавляет данные о производительности AI Citation

Скрытая домашняя страница HTTP может нарушить название вашего сайта в Google

Джон Мюллер из Google поделился случаем устранения неполадок в Bluesky, когда оставшаяся домашняя страница HTTP вызывала неожиданные проблемы с именем сайта и значками в результатах поиска. Эту проблему легко не заметить, поскольку Chrome может автоматически обновлять HTTP-запросы до HTTPS, скрывая проблемную страницу от обычного просмотра.

Основные факты: Сайт использовал HTTPS, но домашняя страница HTTP по умолчанию для сервера все еще была доступна. Автоматическое обновление Chrome означало, что издатель никогда не видел HTTP-версию, но робот Googlebot не следовал поведению Chrome при обновлении, поэтому робот Googlebot извлекал данные не с той страницы.

Почему это важно

<п>Это проблема, которую вы не обнаружите при стандартном аудите сайта, потому что ваш браузер никогда ее не показывает. Если имя вашего сайта или значок в результатах поиска не соответствуют вашим ожиданиям, а ваша домашняя страница HTTPS выглядит правильно, стоит проверить HTTP-версию вашего домена.

Мюллер предложил запустить Curl из командной строки, чтобы увидеть необработанный ответ HTTP без автоматического обновления Chrome. Если он возвращает страницу сервера по умолчанию вместо вашей фактической домашней страницы, это источник проблемы. Вы также можете использовать инструмент проверки URL-адресов в Search Console с интерактивным тестом, чтобы увидеть, что Google извлек и отобразил.

<п>В документации Google по именам сайтов особо упоминаются дублирующиеся домашние страницы, включая версии HTTP и HTTPS, и рекомендуется использовать одни и те же структурированные данные для обоих. Случай Мюллера показывает, что происходит, когда версия HTTP содержит контент, отличный от содержимого домашней страницы HTTPS, которую вы планировали.

Что говорят люди

Мюллер охарактеризовал случай на Bluesky как «странный». отметив, что основная проблема не видна при обычном просмотре:

“Chrome автоматически обновляет HTTP до HTTPS, поэтому вы не видите страницу HTTP. Однако робот Googlebot видит и использует его, чтобы влиять на имя сайта &amp; выбор значка”

<п>Этот случай подчеркивает закономерность, когда функции браузера часто скрывают то, что видят сканеры. Примеры включают автоматическое обновление Chrome, режимы чтения, рендеринг на стороне клиента и контент JavaScript. Чтобы устранить проблемы с именем сайта и значком сайта, проверяйте ответ сервера напрямую, а не только загрузку браузера.

Прочитайте наш полный обзор: Скрытая HTTP-страница может вызвать проблемы с именем сайта в Google

Новые данные показывают, что большинство страниц хорошо вписываются в лимит сканирования робота Google

<п>Новое исследование, основанное на реальных веб-страницах, показывает, что большинство страниц занимают значительно меньше лимита загрузки Googlebot в 2 МБ. Данные, проанализированные Роджером Монтти из Search Engine Journal, основаны на измерениях HTTP-архива, чтобы поместить вопрос об ограничении сканирования в практический контекст.

Основные факты: Данные HTTP-архива показывают, что размер большинства страниц значительно меньше 2 МБ. Google недавно уточнил в обновленной документации, что лимит Googlebot для поддерживаемых типов файлов составляет 2 МБ, а для PDF-файлов — 64 МБ.

Почему это важно

Вопрос об ограничении сканирования активно обсуждался в технических дискуссиях по SEO, особенно после того, как Google обновил документацию по роботу Google в начале этого месяца.

Новые данные отвечают на практический вопрос, на который не может ответить сама документация. Имеет ли значение ограничение в 2 МБ для ваших страниц? Для большинства сайтов ответ — нет. Стандартные веб-страницы, даже насыщенные контентом, редко достигают этого порога.

Где ограничение может иметь значение, так это на страницах с чрезвычайно раздутой разметкой, встроенными скриптами или встроенными данными, которые увеличивают размер HTML за пределы типичных диапазонов.

В более широком плане Google делает свои системы сканирования более прозрачными. Перемещение документации на отдельный сайт сканирования, разъяснение того, какие ограничения применяются к каким сканерам, а также наличие реальных данных для проверки этих ограничений дает более четкое представление о том, с чем работает робот Googlebot.

Что говорят специалисты по технической SEO

<п>Дэйв Смарт, технический консультант по SEO в Tame the Bots и эксперт по продуктам Google Search Central Diamond, изложил цифры в перспективе в сообщении на LinkedIn:

“Робот Googlebot получит только первые 2 МБ исходного HTML-кода (или другого ресурса, такого как CSS, JavaScript), что кажется огромным сокращением по сравнению с 15 МБ, о которых сообщалось ранее, но, честно говоря, 2 МБ все еще огромны.”

<п>Затем Смарт обновил свой инструмент выборки и рендеринга Tame the Bots, чтобы имитировать обрезание. В сообщении Bluesky он добавил предостережение о практическом риске:

“Рискуя преувеличить, насколько это реальная проблема (на самом деле это не для 99,99% сайтов, как я себе представляю), я добавил функцию ограничения текстовых файлов до 2 МБ для имитации это.”

Джон Мюллер из Google одобрил этот инструмент на Bluesky, написав:

“Если вас интересует ограничение на получение HTML-кода роботом Google в 2 МБ, вот способ проверить.”

Мюллер также поделился данными веб-альманаха на Reddit, чтобы представить ограничение в контексте:

“Медиана на мобильных устройствах составляет 33 КБ, 90-процентиль – 151 КБ. Это означает, что 90% страниц имеют размер HTML менее 151 КБ.”

<п>Роджер Монтти, пишущий для Search Engine Journal, пришел к аналогичному выводу после просмотра данных HTTP-архива. Монтти отметил, что данные, основанные на реальных веб-сайтах, показывают, что большинство сайтов значительно ниже предела, и назвал «с уверенностью сказать, что можно вычеркнуть размер HTML из списка SEO-вещей, о которых стоит беспокоиться».

Прочитайте наш полный обзор: Новые данные показывают, что лимита сканирования 2 МБ робота Google достаточно

Тема недели: Диагностический пробел

<стр>Каждая история на этой неделе указывает на то, что практикующие не могли увидеть раньше или проверить неправильно.

Панель цитирования ИИ Bing заполняет пробел в измерениях, который существовал с тех пор, как ответы ИИ начали цитировать контент веб-сайтов. В случае с домашней страницей HTTP Мюллера обнаруживается невидимая страница, которую стандартный аудит сайта и проверка браузера полностью пропускают, поскольку Chrome ее скрывает. А данные о лимите сканирования Googlebot отвечают на вопрос, который поднимался в обновлениях документации, но не мог быть решен самостоятельно.

Связующая нить не в том, что это новые проблемы. Цитирование ИИ происходит без инструментов измерения. Страницы-призраки HTTP вводят в заблуждение системы имен сайтов с тех пор, как Google представил эту функцию. А ограничения на сканирование уже много лет указаны в документах Google без реальной проверки. Что изменилось на этой неделе, так это то, что каждый пробел получил конкретную диагностику: панель мониторинга, команду Curl и набор данных.

Вывод: инструменты и данные для понимания того, как поисковые системы взаимодействуют с вашим контентом, становятся все более конкретными. Проблема в том, чтобы знать, где искать.

Back To Top