< P > Новый многоветающий алгоритм поиска Google (MUAVERA) улучшает скорость поиска и лучше работает по сложным запросам.
< IMG WIDTH = "1600" HEIGHT = "840" SRC = "https://www.searchenginejournal.com/wp-content/uploads/2025/06/google-muvera-259.jpg" class = "atachment-full wp-post-image" alt = "google ’ Поиск https://www.searchenginejournal.com/wp-content/uploads/2025/06/google-muvera-259-480x252.jpg 480w, https://www.searchenginejournal.com/wp-content/uploads/2025/06/google-muvera-259-680x357.jpg 680w, https://www.searchenginejournal.com/wp-content/uploads/2025/06/google-muvera-259-384x202.jpg 384w, https://www.searchenginejournal.com/wp-content/uploads/2025/06/google-muvera-259-768x403.jpg 768w, https://www.searchenginejournal.com/wp-content/2025/06/google-muvera-259-10101010101010.jpgn4.1024.1024.1024.1024.1024.1024.1024.1024.10183410.journal.com/WP 1024W "sits =" (максимальная ширина: 1600px) 100VW, 1600px "/> < P > Google объявил о новом многоквартере-алгоритме поиска под названием Muvera, который ускоряет поиск и рейтинг и повышает точность. Алгоритм можно использовать для поиска, рекомендательных систем (таких как YouTube) и для обработки естественного языка (NLP).
< p >Хотя в объявлении явно не говорилось, что оно в поисках, исследовательская работа дает понять, что Muvera & Получите эффективное многоветающее поиск в веб-масштабе, особенно путем совместимости его с существующими (через MIP) и уменьшая задержку и следы памяти.
< H2 > Вторжение вектора в поиске
< P > ВЕКРЕЦИЯ ВКЛЮЧЕНИЯ – это многомерное представление отношений между словами, темами и фразами. Это позволяет машинам понимать сходство с помощью шаблонов поиска как слова, которые появляются с тем же контекстом или фразами, которые означают одни и те же вещи. Слова и фразы, которые связаны с промежутками, находятся ближе друг к другу.
< 60 > 62 > 62 > 62 > 62 > 62 > 62 > 62 > 62 ~ 61 < ul > < li > слова & ldquo; Король Лир & rdquo; Будет близок к фразе & ldquo; Шекспира трагедия. & rdquo;
< li >Слова & ldquo; в середине лета ночи & rsquo; S Dream & rdquo; Будет занимать пространство рядом с & Ldquo; Шекспирская комедия. & Amp; rdquo;
< li > оба & Ldquo; Король Лир & rdquo; и & ldquo; в середине лета ночи & rsquo; S Dream & rdquo; Будет расположен в пространстве недалеко от Шекспира.
< p > Расстояния между словами, фразами и концепциями (технически математическая мера сходства) определяют, насколько тесно связанна с другой. Тезисы позволяют машине, чтобы вывозить сходство между темой.
< H2 > Muvera решает проблему мульти-векторных внедрений
< P > Исследовательская статья Muvera гласит, что нейронные встраивания имеют пчел являются особенностью поиска информации в течение десяти лет и ссылается на исследовательскую историю Colbert Mudel Model с 2020 года, но он страдает от узкого места, который делает идеалом.
< Цитата блока >< p > & Ldquo; В последнее время, начиная с Landmark Colbert Paper, многоклеревные модели, которые производят набор встраивания на точку данных, достигли заметно превосходной выступления для ИК-задач. Украсно, использование этих моделей для IR является вычислительно дорогостоящим из-за сложности извлечения и оценки многоклеточного извлечения. & Amp;
~/Цитата блока > ~ 60 >~ 60 > Google & S объявление о Мувере повторяет эти недостатки:
< Цитата блока >< P >& ldquo; & Хеллип; Недавние достижения, в частности, внедрение мульти-векторных моделей, таких как Colbert, продемонстрировали значительно улучшенную производительность в ИК-задачах. Хотя этот мультиветорный подход повышает точность и позволяет извлекать более соответствующие документы, он вводит существенные вычислительные проблемы. В частности, увеличение числа встроенных и сложность оценки сходства с мультивектором делает поиск значимым более дорогим. & Amp;
~/Цитата блока > < H2 > может быть преемником Google & rsquo; S Rankembed Technology ? < p > Антимонопольный иск Министерства юстиции Соединенных Штатов (DOJ) приводит к показаниям, которые показали, что один из сигналов, используемых для креатина, страниц результатов (SERP) называется Rankembed, который описывается подобно: > ~ < Цитата блока >< P >& ldquo; Rankembed – это двойная модель энкодера, которая внедряет как запрос, так и документирование в пространство встраивания. Внедрение пространства рассматривает семантические свойства запроса и документа в дополнение к другим сигналам. Поиск и ранжирование тогда являются точечным продуктом (мера расстояния в пространстве встраивания) & Хеллип; Чрезвычайно; Высокое качество по общим вопросам, но может плохо выполнять хвостовые запросы & Хеллип; & rdquo;
~/Цитата блока > < P > Muvera-это техническое достижение, которое учитывает ограничения производительности и масштабирования многоклереровных систем, которые темализируют, что выходит за рамки двойного кодера (например, Rankembed), обеспечивая большую семантическую глубину и обработку характеристик хвостового запроса.
< P > Прорыв-это метод, называемый фиксированным кодированием измерений (FDE), который делит пространство встраивания на секции и объединяет эти векторы, которые случаются в каждый раздел, чтобы создать единый вектор с фиксированной длиной, что делает его быстрее для поиска, чем сравнение нескольких векторов. Это позволяет эффективно использоваться в масштабах мульти-векторных моделей, улучшая скорость извлечения, не жертвуя точностью, которая исходит от более богатого семантического представления.
~ 60 >~ 60 > Согласно объявлению:
< blockquote > ~ p > & Ldquo; В отличие от одного вектора встраиваний, мультиветорные модели представляют каждую точку данных с набором внедрения и используют более сложные функции сходства, которые Cat CAS захватывают более богатые отношения. DataPoints.
< p >Хотя этот мультиветорный подход повышает точность и позволяет извлекать более соответствующие документы, он вводит существенные вычислительные проблемы. В частности, увеличение числа встроенных и сложность оценки сходства с мультивектором делает поиск значимым более дорогим.
< p > in & lsquo; Muvera: Многолетняя поиск с помощью фиксированных размерных кодировки и amp;, мы вводим новый мультиветорный алгоритм поиска, предназначенного для преодоления эффективности разрыва между одиночным и многоклеточным поиском.
< p > & Этот новый подход позволяет нам использовать высокооптимизированные алгоритмы MIPS для извлечения в начальный набор кандидатов, которые переосмысливаются с точно много векторным сходством, что позволяет эффективно поиск многолетнего поиска с точностью жертвы. & rdquo;
~/Цитата> < P > Модели с несколькими векторами могут предоставить более точные ответы, чем модели с двойным энкодером, но эта точность облегчает стоимость интенсивных вычислительных требований. Muvera решает проблемы сложности мультиветорных моделей, тем самым создавая способ достижения точности GREATE многоклереровных подходов без высоких вычислительных требований.
< H2 > Что это значит для SEO ? < P > Muvera показывает, как современный рейтинг поиска все чаще зависит от суждений сходства, а не старомодных ключевых сигналов, на которых часто сосредоточены инструменты и SEO SEO. SEO и издатели могут пожелать перенести свое внимание с точной сопоставления фразы, соответствующего согласованию с общим контекстом и намерением запроса. Например, когда некоторые ищут & ldquo; Кормирлые куртки мужчины & rsquo; S Medium, & rdquo; Система, использующая Muvera-подобное поиск, с большей вероятностью будет ранжировать страницы, которые фактически предлагают продукт продукта, а не страницы, которые просто упоминают & ldquo; вельветовые куртки & rdquo; и включить слово & ldquo; Средний & rdquo; В попытке соответствовать запросу.