- Google запускает февральское основное обновление Discover, первое обновление которого объявлено специально для Discover. ли>
- Alphabet сообщает, что запросы в режиме искусственного интеллекта в 3 раза длиннее, чем традиционные поисковые запросы, реклама и оформление заказа находятся на стадии тестирования. ли>
- Джон Мюллер из Google называет предоставление Markdown ботам LLM «глупой идеей», вызывая технические проблемы. ли> мл>
Google выпускает основное обновление, ориентированное только на Discover, Alphabet раскрывает рекламные планы в режиме AI, а Мюллер отказывается от контента, предназначенного для ботов. Пять историй.стр>
<п>Добро пожаловать на недельный «Пульс для SEO»: обновления влияют на то, как Google ранжирует контент в Discover, как он планирует монетизировать поиск с помощью ИИ и какой контент вы предоставляете ботам.
<стр>Вот что важно для вас и вашей работы.стр>
Google выпускает основное обновление только для Discover
Google выпустил основное обновление Discover в феврале 2026 года — масштабное изменение рейтинга, ориентированное на ленту Discover, а не на поиск. Внедрение может занять до двух недель.
Основные факты: Изначально обновление предназначено только для англоязычных пользователей в США. Google планирует распространить его на большее количество стран и языков, но не предоставил сроков. Google описал это как предназначенное для «улучшения качества Discover в целом». Применяются существующие основные обновления и рекомендации Discover.
Почему это важно для SEO-специалистов
<п>Исторически Google переносил изменения рейтинга Discover в более широкие основные обновления, которые также затрагивали поиск. Объявление основного обновления, ориентированного на Discover, означает, что рейтинги в ленте теперь могут меняться без каких-либо соответствующих изменений в результатах поиска.
<п>Это различие создает проблему мониторинга. Когда вы отслеживаете эффективность в Search Console, вам следует самостоятельно проверять трафик Discover в течение следующих двух недель. Снижение трафика, похожее на штраф за обновление ядра, может быть только для обнаружения. Если относиться к ним как к проблемам поиска, это приводит к неправильному диагнозу.
Обнаружьте, что концентрация трафика для издателей выросла. Генеральный директор NewzDash Джон Шехата сообщил, что на долю Discover приходится примерно 68% трафика, поступающего на новостные сайты из Google. Основное обновление, ориентированное на эту поверхность независимо, повышает ставки для любого издателя, полагающегося на канал.
<стр>Прочитайте наш полный обзор: Google выпускает основное обновление, ориентированное на открытия
Доходы Alphabet за 4 квартал раскрывают планы монетизации режима AI
Alphabet отчиталась о прибыли за четвертый квартал 2025 года, показав, что доход от поиска вырос на 17% до $63 млрд. В ходе разговора был впервые подробно рассмотрен вопрос о том, как Google планирует монетизировать режим искусственного интеллекта.
<сильный>Основные факты:сильный>Генеральный директор Сундар Пичаи сказал, что запросы в режиме AI в три раза длиннее, чем традиционные поиски. Главный коммерческий директор Филипп Шиндлер описал полученный рекламный ресурс как охват запросов, которые «ранее было сложно монетизировать». Google тестирует рекламу под ответами режима AI.
Почему это важно для SEO-специалистов
<п>Детали монетизации имеют большее значение, чем заголовок о доходах. Google рассматривает AI Mode как дополнительный инвентарь, а не как замену традиционной поисковой рекламы. Более длинные запросы создают новые рекламные поверхности, которых не было, когда пользователи вводили поисковые запросы из трех слов. Для специалистов по платному поиску это означает новую территорию кампании в диалоговых запросах.
Показатели, отмеченные Google в ходе этой телеконференции, описывают, что пользователи остаются в Google дольше. Google назвал более длительные сеансы в режиме искусственного интеллекта драйвером роста, и инфраструктура монетизации следует этой логике. Компромисс, за которым стоит следить, — это реферальный трафик.
Режим ИИ создает плавный путь из обзоров ИИ, как подробно описано в нашем репортаже на прошлой неделе. Данные о доходах показывают, что Google рассматривает сдерживание как часть истории роста.
<стр>Читайте полностью: Alphabet Q4 2025: Тесты монетизации в режиме искусственного интеллекта и рост доходов от поискастр>
Мюллер отказывается от предоставления уценки ботам LLM
Защитник Google Search Advocate Джон Мюллер отверг идею предоставления файлов Markdown сканерам LLM вместо стандартного HTML, назвав эту концепцию «глупой идеей». о Bluesky и о технических проблемах на Reddit.
Ключевые факты: Разработчик описал планы по предоставлению необработанного Markdown ботам ИИ, чтобы сократить использование токенов. Мюллер задался вопросом, могут ли боты LLM распознавать Markdown на веб-сайте как нечто иное, чем текстовый файл, или переходить по его ссылкам. Он спросил, что будет с внутренними ссылками, заголовками и навигацией. В отношении Bluesky он был более прямолинеен, назвав преобразование «глупой идеей».
Почему это важно для SEO-специалистов
Такая практика существует, поскольку разработчики предполагают, что LLM обрабатывают Markdown более эффективно, чем HTML. В ответе Мюллера это рассматривается как техническая проблема, а не оптимизация. Перенос страниц в Markdown может удалить структуру, необходимую ботам для понимания взаимоотношений между страницами.
<п>Технические рекомендации Мюллера последовательны, включая его советы по многодоменному сканированию и рекомендации по спаду сканирования. Это соответствует схеме, согласно которой Мюллер проводит четкие границы вокруг форматов контента, специфичных для ботов. Ранее он сравнил llms.txt с метатегом ключевых слов, и анализ 300 000 доменов, проведенный SE Ranking, не выявил связи между наличием файла llms.txt и уровнем цитируемости LLM.
Читайте полностью: Google Мюллер называет идею уценки для ботов ‘глупой идеей’
Google Files обнаруживает ошибки в плагинах WooCommerce, вызывающие проблемы со сканированием
Команда Google по связям с поиском заявила в подкасте Search Off the Record, что они зарегистрировали ошибки в плагинах WordPress. Плагины генерируют ненужные URL-адреса, доступные для сканирования, с помощью параметров действий, таких как ссылки на добавление в корзину.
<сильный>Основные факты:сильный>Некоторые плагины создают URL-адреса, которые робот Googlebot обнаруживает и пытается просканировать. В результате бюджет сканирования на страницах, не имеющих поисковой ценности, тратится впустую. Google сообщил об ошибке в WooCommerce и отметил другие проблемы с плагином, которые остались неустраненными. Ответ команды был нацелен на разработчиков плагинов, а не на ожидание, что отдельные сайты решат проблему.
Почему это важно для SEO-специалистов
Вмешательство Google на уровне плагина необычно. Обычно эффективность сканирования падает на отдельные сайты. Если вы сообщите об ошибках вышестоящим специалистам, это означает, что проблема настолько широко распространена, что одноразовые исправления ее не решат.
<п>Сайты электронной коммерции, использующие WooCommerce, должны проверять свои плагины на наличие шаблонов URL-адресов, которые генерируют параметры действий для сканирования. Проверьте статистику сканирования в Search Console на наличие URL-адресов, содержащих параметры корзины или оформления заказа, которые не следует индексировать.
Читайте полностью: Команда Google по сканированию обнаружила ошибки в плагинах WordPress
LinkedIn делится тем, что помогло улучшить видимость в поиске с помощью ИИ
LinkedIn опубликовал результаты внутреннего тестирования того, что влияет на видимость в результатах поиска, генерируемых искусственным интеллектом. Компания сообщила, что трафик, не связанный с узнаваемостью бренда, снизился до 60% по всей отрасли по ряду тем B2B.
<сильный>Основные факты:сильный>Тестирование LinkedIn показало, что структурированный контент лучше работает при цитировании с помощью ИИ, особенно страницы с именами авторов, видимыми учетными данными и четкими датами публикации. Компания разрабатывает новую аналитику для определения источника трафика для посещений, связанных с LLM, и для мониторинга поведения ботов LLM в журналах CMS.
Почему это важно для SEO-специалистов
<п>Что привлекло мое внимание, так это то, насколько это совпадает с тем, что говорят сами платформы искусственного интеллекта. Роджер Монтти из Search Engine Journal недавно взял интервью у Джесси Дуайера, руководителя отдела коммуникаций Perplexity. Собственные рекомендации платформы искусственного интеллекта относительно того, что способствует цитированию, тесно связаны с тем, что обнаружил LinkedIn. Когда и цитируемый источник, и цитирующая платформа независимо друг от друга приходят к одним и тем же выводам, это дает вам нечто большее, чем спекуляции.
<стр>Прочитайте наш полный обзор: LinkedIn делится тем, что работает для видимости в поиске с помощью ИИ
Тема недели: Google разделяет панель управления
<стр>Все истории на этой неделе указывают на одно и то же осознание. “Google” больше не за чем следить.
Google теперь объявляет об обновлениях ядра Discover отдельно от обновлений ядра поиска. Режим AI поддерживает форматы рекламы и функции оформления заказа, которых нет в традиционных результатах. Мюллер провел политическую линию в отношении того, как боты потребляют контент. Google сообщил об ошибках сканирования на уровне плагина, а LinkedIn создает отдельное измерение для трафика, управляемого искусственным интеллектом.
Год назад вы могли проверить один график трафика в Search Console и получить разумную картину. Теперь картина фрагментируется по трафику Discover, Search, AI Mode и LLM. Сигналы ранжирования и циклы обновления различаются, и разрывы между ними не устранены.
Главные новости недели:
<стр>Освещение на этой неделе охватывало пять событий, касающихся обновлений Discover, монетизации поиска, политики сканирования и видимости ИИ.стр>
