Гэри Иллис из Google продолжает предупреждать специалистов по поисковой оптимизации и владельцев веб-сайтов о проблемах со сканированием параметров URL.
- Гэри Иллис предупреждает о проблемах с параметрами URL-адресов в LinkedIn. ли>
- Он советует использовать robots.txt для управления параметрами URL. ли>
- Это важно, поскольку влияет на эффективность сканирования и индексации сайта.
- Создание систем обнаружения повторяющихся URL-адресов
- Лучший способ для владельцев сайтов сообщить поисковым системам о структуре их URL
- Более разумное использование файла robots.txt для управления роботами поисковых систем
- Бюджет сканирования: Для крупных сайтов управление параметрами URL может помочь сэкономить бюджет сканирования, обеспечивая сканирование и индексацию важных страниц.< /ли>
- Архитектура сайта: разработчикам, возможно, придется пересмотреть структуру URL-адресов, особенно для крупных сайтов электронной коммерции с многочисленными вариациями продуктов.< /ли>
- Фасетная навигация: Сайты электронной коммерции, использующие фасетную навигацию, должны учитывать, как это влияет на структуру URL-адресов и возможность сканирования.
- Канонические теги: Канонические теги помогают Google понять, какую версию URL следует считать основной.
мл>
Гэри Иллис из Google недавно отметил повторяющуюся проблему с SEO в LinkedIn, повторяя опасения, которые он ранее высказывал в подкасте Google.
<стр>Проблема? Параметры URL вызывают трудности у поисковых систем при сканировании веб-сайтов.стр> <п>Особенно актуальна эта проблема для крупных сайтов и интернет-магазинов. Когда к URL-адресу добавляются разные параметры, это может привести к появлению множества уникальных веб-адресов, которые ведут к одному и тому же контенту.
Это может мешать поисковым системам, снижая эффективность их сканирования и индексации сайтов.
Загадка параметров URL
И в подкасте, и в посте на LinkedIn Иллиес объясняет, что URL-адреса могут содержать бесконечное количество параметров, каждый из которых создает отдельный URL-адрес, даже если все они указывают на один и тот же контент.
<п>Он пишет:п> <блоковая цитата><п>“Интересная особенность URL-адресов заключается в том, что вы можете добавлять бесконечное (я называю BS) количество параметров URL-адресов к пути URL-адреса, тем самым, по сути, формируя новые ресурсы. Новые URL-адреса даже не обязательно должны сопоставляться с другим контентом на сервере: каждый новый URL-адрес может просто обслуживать тот же контент, что и URL-адрес без параметров, но все они являются разными URL-адресами. Хорошим примером является параметр URL-адреса очистки кеша в ссылках JavaScript: он не меняет содержимое, но принудительно обновляет кеши.”
Он привел пример того, как простой URL-адрес типа “/path/file” можно расширить до “/path/file?param1=a” и “/path/file?param1=a¶m2=b“, все они потенциально предоставляют идентичный контент.< /п>
“Каждый [является] отдельным URL-адресом, все с одинаковым содержанием” — отметил Иллиес.
Случайное расширение URL-адреса & Его последствия
Поисковые системы иногда могут найти и попытаться просканировать несуществующие страницы вашего сайта, которые Иллес называет «поддельными URL-адресами».
Они могут появляться из-за таких вещей, как плохо закодированные относительные ссылки. То, что начинается как сайт обычного размера с примерно 1000 страницами, может разрастаться до миллиона фантомных URL-адресов.
<п>Этот взрыв фейковых страниц может вызвать серьезные проблемы. Сканеры поисковых систем могут сильно ударить по вашим серверам, пытаясь просканировать все эти несуществующие страницы.
Это может привести к перегрузке ресурсов вашего сервера и потенциально привести к сбою вашего сайта. Кроме того, поисковая система тратит бюджет сканирования на бесполезные страницы, а не на ваш контент.
В конечном итоге ваши страницы могут неправильно сканироваться и индексироваться, что может ухудшить ваш рейтинг в поиске.
<стр>Состояния Илие:стр> <блоковая цитата><п>“Иногда вы можете случайно создать эти новые поддельные URL-адреса, в результате чего ваше пространство URL-адресов увеличится с 1000 URL-адресов до невероятного 1 миллиона захватывающих сканеров, которые, в свою очередь, неожиданно нагружают ваши серверы, плавя трубы и свистки направо и налево. Плохие относительные ссылки являются одной из относительно частых причин. Но в этом случае robotstxt — ваш друг.”
<ч2>Сайты электронной коммерции пострадали больше всегоч2>
В сообщении LinkedIn не упоминались конкретно интернет-магазины, но обсуждение в подкасте прояснило, что эта проблема имеет большое значение для платформ электронной коммерции.
Эти веб-сайты обычно используют параметры URL для отслеживания, фильтрации и сортировки товаров.
В результате вы можете увидеть несколько разных URL-адресов, указывающих на одну и ту же страницу продукта, причем каждый вариант URL-адреса представляет выбор цвета, варианты размера или откуда пришел покупатель.
Устранение проблемы
Иллес постоянно рекомендует использовать robots.txt для решения этой проблемы.
В подкасте Иллиес выделил возможные исправления, такие как:
<ул>
мл>
Устаревший инструмент параметров URL-адресов
<п>В обсуждении подкаста Иллиес коснулся прошлых попыток Google решить эту проблему, в том числе устаревшего инструмента параметров URL-адресов в Search Console.
Этот инструмент позволял веб-сайтам указывать, какие параметры важны, а какие можно игнорировать.
Когда в LinkedIn его спросили о возможном возвращении этого инструмента, Иллиес скептически отнесся к его практической эффективности.
<п>Он заявил: «Теоретически да». на практике нет», ” объясняя, что этот инструмент страдает от тех же проблем, что и robots.txt, а именно: «люди не могут изо всех сил понять, как управлять своими собственными параметрами».
<ч2>Последствия для SEO и веб-разработкич2> <стр>Это продолжающееся обсуждение Google имеет несколько последствий для SEO и веб-разработки:стр> <ол>
ол>
Почему это важно
Google обсуждает проблемы с параметрами URL по нескольким каналам, что указывает на искреннюю заботу о качестве поиска.
<стр>Для отраслевых экспертов быть в курсе этих технических аспектов важно для обеспечения видимости в результатах поиска.стр>
Пока Google работает над решением, рекомендуется активное управление URL-адресами и эффективное руководство для сканеров.