Предупреждение Google о JavaScript и & Как это связано с поиском с помощью ИИ

Предупреждение Google о JavaScript и & Как это связано с поиском с помощью ИИ

Google предостерегает от чрезмерного использования JavaScript. Вот почему это предупреждение имеет решающее значение для поисковой оптимизации ИИ.

  • Чрезмерная зависимость от JavaScript создает слепое пятно для поисковых роботов с искусственным интеллектом.
  • Сообщается, что поисковые роботы с искусственным интеллектом не могут читать JavaScript, что ограничивает видимость вашего сайта.
  • Рекомендуются рендеринг на стороне сервера и разработка с упором на HTML.

    <п>Недавнее обсуждение команды Google Search Relations выявило проблему в веб-разработке: заставить JavaScript хорошо работать с современными поисковыми инструментами.

    В последнем подкасте Google Search Off The Record команда обсудила растущее использование JavaScript и тенденцию использовать его, когда он не требуется.

    Мартин Сплитт, адвокат разработчиков поиска в Google, отметил, что JavaScript был создан, чтобы помочь веб-сайтам конкурировать с мобильными приложениями, предоставляя такие функции, как push-уведомления и офлайн-доступ.

    Однако команда предупредила, что ажиотаж вокруг функциональности JavaScript может привести к чрезмерному использованию.

    Хотя JavaScript практичен во многих случаях, это не лучший выбор для каждой части веб-сайта.

    Спектр JavaScript

    Сплитт описал текущую ситуацию как диапазон между традиционными веб-сайтами и веб-приложениями.

    <п>Он говорит:

    “Мы находимся в этом странном состоянии, когда веб-сайты могут быть именно такими – веб-сайты, в основном страницы и информация, которая представлена ​​на нескольких страницах и связана ссылками, но это также может быть приложение.”

    Он предложил следующий пример спектра JavaScript:

    <блоковая цитата><п>“Вы можете просматривать квартиры в браузере… это веб-сайт, потому что на нем представлена ​​такая информация, как площадь в квадратных футах, на каком этаже находится этот этаж, какой адрес… но это еще и приложение, потому что вы можете использовать 3D-изображение, чтобы прогуляться по квартире.”

    Почему это важно?

    Джон Мюллер, специалист по поиску Google, отметил общую тенденцию среди разработчиков чрезмерно полагаться на JavaScript:

    <блоковая цитата><п>«Многим людям нравятся эти JavaScript-фреймворки, и они используют их там, где JavaScript действительно имеет смысл, а потом говорят: «Почему бы мне просто не использовать его?» для всего?'”

    Когда я слушал обсуждение, мне вспомнилось исследование, о котором я рассказывал несколько недель назад. Согласно исследованию, чрезмерная зависимость от JavaScript может привести к потенциальным проблемам для поисковых систем с искусственным интеллектом.

    <стр>Учитывая растущую известность поисковых роботов с искусственным интеллектом, я подумал, что важно выделить этот разговор. <п>Хотя традиционные поисковые системы обычно хорошо поддерживают JavaScript, его реализация требует большего внимания в эпоху поиска на основе искусственного интеллекта.

    Исследование показывает, что ИИ-боты составляют все большую долю трафика поисковых роботов, но эти роботы не могут отображать JavaScript . <стр>Это означает, что вы можете потерять трафик из поисковых систем, таких как ChatGPT Search, если вы слишком сильно полагаетесь на JavaScript.

    Что следует учитывать

    <стр>Использование JavaScript и ограничения роботов ИИ представляют несколько важных соображений: <ол>

  • Рендеринг на стороне сервера: Поскольку сканеры ИИ не могут выполнять клиентский JavaScript, рендеринг на стороне сервера имеет важное значение для обеспечения видимости.
  • Доступность контента: Основные поисковые роботы на основе искусственного интеллекта, такие как GPTBot и Claude, имеют определенные предпочтения в потреблении контента. GPTBot отдает приоритет HTML-контенту (57,7%), в то время как Клод больше фокусируется на изображениях (35,17%).
  • Новый подход к разработке: Эти новые ограничения могут потребовать переоценки традиционного подхода «JavaScript-first». стратегия развития.
  • Путь вперед

    <стр>Поскольку поисковые роботы на основе ИИ становятся все более важными для индексации веб-сайтов, вам необходимо найти баланс между современными функциями и доступностью поисковых роботов на основе ИИ. <стр>Вот несколько рекомендаций:

    • Используйте серверный рендеринг для ключевого контента.
    • Обязательно включите основное содержимое в исходный HTML.
    • Применение методов прогрессивного улучшения.
    • Будьте осторожны, когда используете JavaScript.

    <стр>Чтобы добиться успеха, адаптируйте свой веб-сайт для традиционных поисковых систем и роботов ИИ, обеспечивая при этом хороший пользовательский опыт. <стр>Послушайте полный эпизод подкаста ниже:

Back To Top