Исследователи Google улучшают тряпку с сигналом «достаточного контекста»

Исследователи Google улучшают тряпку с сигналом «достаточного контекста»

< p > Google исследователи Rag, введя достаточный контекст сигнал для обуздания галлюцинаций и повышения точности ответа

< IMG Width = "1600" Height = "840" src = "https://www.searchenginejournal.com/wp-content/uploads/2025/03/google-content-sufficiecy-512.jpg" Class = Attact-full WP-post-image " Alt = "Исследователи Google улучшают тряпку с “ srcset = "https://www.searchenginejournal.com/wp-content/uploads/2025/03/google-content-sufficialition-512.jpg 1600W, https://www.searchenginejournal.com/wp-content/uploads/2025/03/google-content-sufficiality-512-480x252.jpg 480w, https://www.searchenginejournal.com/wp-content/uploads/2025/03/google-content-sufficialition-512-680x357.jpg 680w, https://www.searchenginejournal.com/wp-content/uploads/2025/03/google-content-sufficiality-512-384x202.jpg 384w, https://www.searchenginejournal.com/wp-content/uploads/2025/03/google-content-sufficiality-512-768x403.jpg 768w, https://www.searchenginejournal.com/wp-content/uploads/2025/03/google-content-sufficiothicle-512-1024x538.jpg 1024w "Размеры =" (максимальная ширина) 100 В, 1600px "/> < P > Google Исследователь представил метод для поиска и помощников по ИИ, улучшив модели поиска-аугированных (RAG) и rsquo; Способность распознавать при получении информации не хватает достаточного контекста, чтобы ответить на запрос. В случае реализации, вывод тезисов может помочь сгенерированным AI ответам избежать полагаться на неожиданную информацию и привести к надежности ответа. Этот сдвиг может так побудить издателей создавать контент с помощью контекста, что делает их страницы более полезными для ответов, сгенерированных AI.< P > Их исследования обнаруживают, что такие модели, как Близнецы и GPT, часто пытаются ответить на вопросы, когда извлеченные данные содержат недостаточный контекст, что приводит к галлюцинациям, а не воздержанию. Чтобы решить эту проблему, они разработали систему, чтобы уменьшить галлюцинации, помогая LLMS определить, когда извлеченный контент содержит информацию ENOGH для поддержки, чтобы ответить. < p >Системы извлечения в поисках генерации (RAG) расширяют LLMS с внешним контекстом для повышения точности ответа вопросам, но галлюцинации все еще происходят. Это было & Исследовательская работа вводит концепцию достаточного контекста и описывает метод определения, когда доступно достаточно информации, чтобы ответить на вопрос. < P > Их анализ обнаружил, что запатентованные модели, такие как Близнецы, GPT и Claude, имеют тенденцию предоставлять правильные ответы, когда дают достаточный контекст. Однако, когда контекст недостаточно, они иногда галлюстрируют вместо того, чтобы воздержаться, но они отвечают правильно 35 & Это последнее открытие добавляет еще одну проблему: зная, когда вмешиваться, чтобы заставить воздержание (не отвечать) и когда доверять модели, чтобы сделать ее правильно.< iframe class = "sej-iframe-car-hight" id = "In-Content iframe" scrolling = "Нет" src = "https://www.searchenginejournal.com/wp-json/sscats/v2/tk/middle_post_text" > < h2 > ОТКРЫТИЕ СОСТОЯНИЕ СДЕЛАНО < P > Исследователи определяют достаточный контекст как означающий, что полученная информация (из RAG) содержит все необходимые детали, чтобы получить правильный ответ ​. Классификация того, что что -то вроде контекста не является Это & < p > Эта вещь классификация не проверяет правильность. Это &< p > Недостаточный контекст означает, что полученная информация неполна, вводит в заблуждение или отсутствует критические детали, необходимые для построения для ответа ​. < h2 > sufp contex авторат

< P > Audered Context Authority-это система, основанная на LLM, которая классифицирует пары запросов-контекста как имеющая достаточный или недостаточный контекст. Лучшей моделью автора была Gemini 1.5 Pro (1-выстрел), достигнув 93% точности, опережая другие модели и методы ​. < H2 > Снижение галлюцинаций с селективной генерацией < p >Исследователи обнаружили, что ответы LLM на основе RAG должны были исправить вопросы. 35 & Это означает, что достаточный контекст не был всегда необходимым для повышения точности, потому что модели могли вернуть правильный ответ без него 35-62% случаев. < P > Они использовали свое открытие об этом поведении для метода творческого генерации, который использует доверительные показатели (самооценки вероятностей, которые ответ может быть правильным) и достаточные контексты для поколений, когда воздерживаться (чтобы избежать изготовления Неправильные заявления и галлюцинирование). Это достигает баланса, позволяя LLM отвечать на вопрос, когда есть~ 60 > ~ 60 > Исследовательский рабочий день, как это работает: ~/p > < Blockquote > 62 ~ &Это отличие механизма от других стратегий улучшения воздержания двумя ключевыми способами. Во -первых, поскольку он работает независимым от поколения, он смягчает непредвиденные эффекты и amp; Документы или максимальное покрытие для творческих генеральных задач. < h2 > вынос

< P > Перед тем, как кто-либо начинает утверждать, что достаточность контекста является фактором ранжирования, это важно. Достаточность контекста является одним из факторов, но с этим конкретным методом показатели достоверности, то есть влияют на реакцию, сгенерированные AI, вмешались в воздержание решений. Пороги воздержания динамически корректируются на основе сигналов тезисов, что означает, что модель может не ответить, если уверенность и достаточность являются низкими.< P >, в то время как страницы с полной и хорошо структурированной информацией с большей вероятностью будут содержать достаточный контекст, другие факторы ищут, как хорошо, ИИ выбирает и оценивает соответствующую информацию, система, которая определяет, какие источники извлекаются Роль. Вы можете & < p >Если методы диссертации внедряются в помощника ИИ или чат-бота, это может привести к образованию ИИ, которые постепенно полагаются на веб-страницы, которые предоставляют полную, хорошо структурированную информацию, поскольку тезис более лично будет содержать страдание в соответствии с запросом. Ключ предоставляет достаточно информации в одном источнике, так что ответ имеет смысл, не требуя дополнительных исследований. < p > ~ > Какие страницы с недостаточным контекстом ?~/p > < ul > < li > не хватает достаточно деталей, чтобы ответить на запрос

< li > вводя в заблуждение

< li > неполное

< li > противоречиво ​ < li > неполная информация

< li > Содержимое требует предварительных знаний

< p >Необходимая информация для выполнения ответа разбросана по разным разделам, а не представлена ​​в едином ответе. < P > Google & Например, определение QRG низкокачественные страницы как те, которые Don & < H3 > Отрывки из Руководства по оценке качества:

~ 60 >~ 60 > & ~ 60 > 60 > & с большим количеством поиска вне постороннего и бесполезного контента, что очень небольшое количество полезной информации трудно найти. < 60 > & Вверху поиск как широко известные факты о необходимых материалах или другой не созданной информации. < ~ ~ 60 > Или бессмысленное содержание < P > Если Google & Опишите концепции о высококачественных веб -страницах, которые SEO и издатели, которые хотят ранжировать, должны быть усвоены.

Back To Top