Владелец сайта обвинил Google AI Search в ложном сообщении о том, что его сайт отключен от сети. Объяснением был урок о доставке контента.
Джон Мюллер из Google предложил простое решение пользователю Redditor, который обвинил Google в “AI” за заметку в поисковой выдаче о том, что сайт не работает с начала 2026 года.
Реддитор не создавал пост на Reddit, он просто дал ссылку на свой пост в блоге, в котором обвиняли Google и искусственный интеллект. Это позволило Мюллеру сразу перейти на сайт, определить причину, связанную с реализацией JavaScript, а затем прямо указать им, что это не вина Google.
Реддитор обвиняет ИИ Google
<п>Сообщение в блоге Reddit обвиняет Google, озаглавив статью набором модных словечек в области компьютерных наук, которые чрезмерно усложняют и (неосознанно) искажают реальную проблему.
Заголовок статьи:
“Google может подумать, что ваш сайт не работает
Как межстраничная агрегация ИИ может создать новые векторы ответственности.”
Та часть о “межстраничном агрегировании AI” и “векторы ответственности” вызывает удивление, потому что ни один из этих терминов не является устоявшимся термином в области информатики.
<п>Параметр “межстраничный” Скорее всего, это отсылка к Google’s Query Fan-Out, где вопрос в режиме искусственного интеллекта Google преобразуется в несколько запросов, которые затем отправляются в классический поиск Google.
Что касается “векторов ответственности” Вектор — это реальная вещь, которая обсуждается в SEO и является частью обработки естественного языка (NLP). Но “Вектор ответственности” не является его частью.
В блоге Redditor признается, что они не знают, может ли Google определить, не работает сайт или нет:
“Я не знаю, есть ли у Google какие-либо специальные возможности определять, работают ли веб-сайты или нет. И даже если моя внутренняя служба выйдет из строя, Google не сможет это обнаружить, поскольку она находится за стеной входа в систему.
И они, похоже, не знают, как работает RAG или Query Fan-Out, или, возможно, как работают системы искусственного интеллекта Google. Автор, похоже, считает открытием то, что Google ссылается на свежую информацию вместо параметрических знаний (информация в LLM, полученная в результате обучения).
Они пишут, что в ответе ИИ Google говорится, что сайт указал, что сайт не в сети с 2026 года.:
<блоковая цитата><п>“…в формулировке говорится, что указан веб-сайт, а не указаны люди; хотя в эпоху неопределенности, связанной с получением степени магистра права, это различие может уже не иметь большого значения.
…в нем четко указаны временные рамки – начало 2026 года. Поскольку веб-сайт не существовал до середины 2025 года, это на самом деле говорит о том, что у Google есть относительно свежая информация; хотя опять же, степень магистра права!”
Чуть позже в своем блоге пользователи Redditor признаются, что не знают, почему Google говорит, что сайт недоступен.
<п>Они объяснили, что реализовали решение «шот в темноте», удалив всплывающее окно. Они ошибочно предположили, что причиной проблемы было всплывающее окно, и это подчеркивает важность уверенности в том, что вызывает проблемы, прежде чем вносить изменения в надежде, что это их устранит.
Пользователи Redditor поделились, что не знают, как Google суммирует информацию о сайте в ответ на запрос о сайте, и выразили обеспокоенность тем, что, по их мнению, возможно, что Google может собрать нерелевантную информацию, а затем показать ее в качестве ответа.
Они пишут:
“…мы не знаем, как именно Google собирает набор страниц, которые он использует для генерации ответов LLM.
<п>Это проблематично, поскольку теперь все на ваших веб-страницах может влиять на несвязанные ответы.
…ИИ Google может ухватить все это и представить как ответ.”
Я не виню автора в том, что он не знает, как работает поиск Google AI, я вполне уверен, что это не широко известно. Легко создать впечатление, что это ИИ, отвечающий на вопросы.стр> <п>Но в основном происходит то, что поиск ИИ основан на классическом поиске, при этом ИИ синтезирует контент, который он находит в Интернете, в ответ на естественном языке. Это похоже на то, как если бы кто-то задал вопрос: он загуглил его, а затем объяснил ответ на основе того, что узнал, прочитав страницы веб-сайта.
Джон Мюллер из Google объясняет, что происходит
Мюллер ответил на сообщение этого человека на Reddit в нейтральной и вежливой манере, показав, почему вина кроется в реализации Reddit.
Мюллер объяснил:
“Это ваш сайт? Я бы рекомендовал не использовать JS для изменения текста на вашей странице с “недоступно” на “доступно” и вместо этого просто загрузить весь этот кусок из JS. Таким образом, если клиент не запускает ваш JS, он не получит вводящую в заблуждение информацию.
<п>Это похоже на то, как Google не рекомендует использовать JS для изменения метатега robots с “noindex” чтобы “пожалуйста, рассмотрите мою прекрасную работу по HTML-разметке для включения” (нет метатега “index” robots, поэтому вы можете проявлять творческий подход).”
В ответе Мюллера объясняется, что сайт использует JavaScript для замены текста-заполнителя, который кратковременно отображается перед загрузкой страницы, что работает только для посетителей, чьи браузеры действительно запускают этот скрипт.
Здесь произошло следующее: Google прочитал текст-заполнитель, который веб-страница отображала как проиндексированный контент. Google обнаружил исходный контент с пометкой “недоступно” сообщение и воспринимал его как контент.
Мюллер объяснил, что более безопасный подход состоит в том, чтобы с самого начала в базовом HTML-коде страницы присутствовала правильная информация, чтобы и пользователи, и поисковые системы получали один и тот же контент.
<ч2>Выносч2>
Здесь можно сделать несколько выводов, выходящих за рамки технической проблемы, лежащей в основе проблемы Redditor. В начале списка указано, как они пытались угадать путь к ответу.
Они действительно не знали, как работает поиск с помощью искусственного интеллекта Google, что привело к ряду предположений, которые усложнили их способность диагностировать проблему. Затем они внедрили “fix” основываясь на догадках, что, по их мнению, могло быть причиной проблемы.
Угадайка — это подход к решению проблем SEO, который оправдан непрозрачностью Google, но иногда дело не в Google, а в пробеле в знаниях в самом SEO и сигнале о необходимости дальнейшего тестирования и диагностики.
