Google подтвердил три фактора, которые могут увеличить сканирование Googlebot. Вот как применить эти знания на практикестр>
Гэри Иллис из Google и Лиззи Сассман обсудили три фактора, которые вызывают увеличение сканирования Googlebot. Хотя они преуменьшали необходимость постоянного сканирования, они признали, что существуют способы побудить робота Google повторно посетить веб-сайт.
<х2>1. Влияние высококачественного контента на частоту сканирования ч2> <п>Одной из вещей, о которых они говорили, было качество веб-сайта. Многие люди страдают от обнаруженной неиндексированной проблемы, и иногда это вызвано определенными методами SEO, которые люди усвоили и считают хорошей практикой. Я занимаюсь SEO уже 25 лет, и одна вещь, которая всегда оставалась неизменной, — это то, что лучшие отраслевые практики обычно на годы отстают от того, что делает Google. Тем не менее, трудно понять, что не так, если человек убежден, что он все делает правильно.стр> <п>Гэри Иллиес поделился причиной повышенной частоты сканирования на отметке 4:42, объяснив, что одним из факторов высокого уровня сканирования являются сигналы высокого качества, которые обнаруживают алгоритмы Google.
Гэри сказал это на 4:42 минуте:
“…как правило, если контент сайта высокого качества, полезен и людям в целом он нравится, тогда робот Googlebot&hellip; ndash;ну, Google– имеет тенденцию сканировать больше с этого сайта…”
В приведенном выше утверждении отсутствует много нюансов, например, каковы сигналы высокого качества и полезности это заставит Google принять решение сканировать чаще?
Ну, Google никогда не говорит. Но мы можем строить догадки, и вот некоторые из моих обоснованных предположений.
Мы знаем, что существуют патенты на фирменный поиск, которые учитывают брендовый поиск, выполняемый пользователями, как подразумеваемые ссылки. Некоторые люди думают, что “подразумеваемые ссылки” являются упоминаниями бренда, но “упоминания бренда” абсолютно не то, о чем говорится в патенте.
<п>Еще есть патент Navboost, который существует с 2004 года. Некоторые люди приравнивают патент Navboost к кликам, но если вы прочтете настоящий патент 2004 года, вы увидите, что в нем никогда не упоминается рейтинг кликов ( CTR). Речь идет о сигналах взаимодействия с пользователем. Клики были темой интенсивных исследований в начале 2000-х годов, но если вы прочитаете исследовательские работы и патенты, то легко поймете, что я имею в виду, когда это не так просто, как «обезьяна кликает на веб-сайт». в поисковой выдаче Google ставит его выше, обезьяна получает банан.”
В целом, я думаю, что сигналы, указывающие на то, что люди воспринимают сайт как полезный, могут помочь веб-сайту повысить рейтинг. И иногда это может означать дать людям то, что они ожидают увидеть, дать людям то, что они ожидают увидеть.стр> <п>Владельцы сайтов скажут мне, что Google ранжирует мусор, и когда я взгляну на него, я пойму, что они имеют в виду: сайты какие-то мусорные. Но с другой стороны, контент дает людям то, что они хотят, потому что они на самом деле не знают, как отличить то, что они ожидают увидеть, от реального контента хорошего качества (я называю это алгоритмом Froot Loops).п>
Что такое алгоритм Froot Loops? Это результат того, что Google полагается на сигналы удовлетворенности пользователей, чтобы судить, делают ли результаты поиска пользователей счастливыми. Вот что я ранее публиковал об алгоритме Google Froot Loops:
“Вы когда-нибудь шли по отделу с хлопьями в супермаркете и обращали внимание, сколько видов хлопьев с сахаром выставлено на полках? Это удовлетворение пользователя в действии . Люди ожидают увидеть хлопья с сахарной бомбой в отделе с хлопьями, и супермаркеты удовлетворяют это намерение пользователя.
Я часто смотрю на Froot Loops в отделе с хлопьями и думаю: «Кто это ест?” Видимо, так делают многие, поэтому коробка стоит на полке супермаркета – потому что люди ожидают увидеть это там.
Google делает то же самое, что и супермаркет. Google показывает результаты, которые, скорее всего, удовлетворят пользователей, как тот отдел с хлопьями.”
блоковая>
Примером дрянного сайта, который удовлетворяет пользователей, является популярный сайт рецептов (который я не буду называть), который публикует простые в приготовлении рецепты, которые являются недостоверными, и использует ярлыки, такие как грибной крем-суп из банка в качестве ингредиента. У меня достаточно опыта на кухне, и эти рецепты заставляют меня съеживаться. Но людям, которых я знаю, нравится этот сайт, потому что они действительно ничего не знают, им просто нужен простой рецепт.стр> <п>На самом деле речь идет о понимании онлайн-аудитории и предоставлении им того, что они хотят, а это не то же самое, что предоставление им того, чего они должны хотеть. Понимание того, чего хотят люди, и предоставление им этого, по моему мнению, является тем, что поисковики найдут полезным и подадут сигнал Google о готовности помочь.
<х2>2. Повышенная издательская активностьч2>
Еще одна вещь, которая, по словам Иллиеса и Сассмана, может заставить робота Google сканировать больше, — это увеличение частоты публикаций, например, если сайт внезапно увеличил количество публикуемых страниц. Но Иллиес сказал, что это связано со взломанным сайтом, который внезапно начал публиковать больше веб-страниц. Взломанный сайт, на котором публикуется много страниц, робот Google будет сканировать больше.
Если мы уменьшим масштаб и рассмотрим это утверждение с точки зрения леса, то станет совершенно очевидно, что он подразумевает, что увеличение активности публикаций может вызвать увеличение активности сканирования. Дело не в том, что сайт был взломан, что заставляет Googlebot сканировать больше, а в увеличении количества публикаций.
Здесь Гэри называет всплеск издательской активности триггером для Googlebot:
<блоковая цитата><п>“…но это также может означать, что, я не знаю, сайт был взломан. А потом появляется куча новых URL-адресов, которые в восторге от робота Googlebot, затем он гаснет и ползет как сумасшедший.”
блоковая>
Обилие новых страниц заставляет робота Google волноваться и сканировать сайт “как сумасшедший” это вынос там. Никаких дополнительных разъяснений не требуется, идем дальше.
<х2>3. Стабильность качества контентач2> <стр>Гэри Иллис далее упоминает, что Google может пересмотреть общее качество сайта, и это может привести к снижению частоты сканирования.
Вот что сказал Гэри:
“…если мы сканируем мало или постепенно замедляем сканирование, это может быть признаком некачественного контента или того, что мы переосмыслил качество сайта.”
Что имеет в виду Гэри, когда говорит, что Google “переосмыслил качество сайта?” Я считаю, что иногда общее качество сайта может ухудшиться, если есть части сайта, которые не соответствуют тем же стандартам, что и исходное качество сайта. По моему мнению, исходя из того, что я видел на протяжении многих лет, в какой-то момент контент низкого качества может начать перевешивать хороший контент и потянуть за собой остальную часть сайта.
Когда ко мне приходят люди и говорят, что у них “контентный каннибализм” проблема, когда я смотрю на нее, то, от чего они действительно страдают, — это проблема низкого качества контента в другой части сайта.
<п>Примерно на 6-й минуте Лиззи Сассман спрашивает, повлияет ли это на то, если контент веб-сайта будет статичным, не улучшится и не ухудшится, а просто не изменится. Гэри отказался дать ответ, просто сказав, что робот Googlebot возвращается, чтобы проверить сайт, не изменилось ли оно, и говорит, что “вероятно” Робот Google мог бы замедлить сканирование, если бы не было никаких изменений, но уточнил бы это утверждение, сказав, что он не знает.
Что-то осталось недосказанным, но связано с постоянством качества контента: иногда тема меняется, и если контент статичен, он может автоматически потерять релевантность и начать терять рейтинг. Поэтому рекомендуется регулярно проводить аудит контента, чтобы увидеть, изменилась ли тема, и если да, то обновлять контент, чтобы он продолжал оставаться актуальным для пользователей, читателей и потребителей, когда они обсуждают определенную тему.стр>
Три способа улучшить отношения с роботом Google
Как ясно дали понять Гэри и Лиззи, на самом деле речь не идет о том, чтобы тыкать в Googlebot, чтобы заставить его работать, только ради того, чтобы заставить его сканировать. Суть в том, чтобы подумать о вашем контенте и его отношении к пользователям.
<п><сильный>1. Высокое ли качество контента?сильное>
Относится ли контент к теме или к ключевому слову ? Сайты, использующие стратегию контента на основе ключевых слов, — это те сайты, которые, как я вижу, страдают от обновлений основного алгоритма 2024 года. Стратегии, основанные на темах, как правило, производят более качественный контент и проходят через обновления алгоритма.<п><сильный>2. Повышенная издательская активностьсильная>
Увеличение издательской активности может привести к тому, что Googlebot будет появляться чаще. Независимо от того, происходит ли это из-за взлома сайта или из-за того, что сайт уделяет больше внимания своей стратегии публикации контента, регулярный график публикации контента — это хорошо, и всегда было хорошо. Не существует метода «установил и забыл». когда дело доходит до публикации контента.<п><сильный>3. Стабильность качества контентасильная>
Качество контента, актуальность и актуальность для пользователей с течением времени являются важными факторами и гарантируют, что робот Googlebot продолжит приходить, чтобы поздороваться. Снижение любого из этих факторов (качества, актуальности и релевантности) может повлиять на сканирование роботом Googlebot, что само по себе является симптомом более важного фактора, а именно того, как сам алгоритм Google рассматривает контент.<стр>Слушайте подкаст Google Search Off The Record, начиная примерно с 4-й минуты:стр>