<стр>Система Google ALDRIFT «открывает захватывающие возможности» для выхода за рамки ответов, которые просто кажутся правдоподобными.стр>
Google Research опубликовала статью, в которой изучается, как заставить генеративные системы искусственного интеллекта давать ответы, которые кажутся более чем правдоподобными. Исследователи говорят, что их структура ALDRIFT «открывает захватывающие возможности» для выхода за рамки ответов, которые просто имеют высокую вероятность.
Документ под названием “Sample-Efficient Optimization over Generative Priors Through Coarse Learning,” исследует проблему, в которой сгенерированные ответы должны оставаться вероятными в рамках модели, но при этом двигаться к отдельной цели. Исследование указывает на новые пути решения ловушки правдоподобия ИИ.
<ч2>Google ALDRIFTч2> <п>Доказательства в статье сосредоточены на системе под названием ALDRIFT (алгоритмическая итерационная подгонка целей). Этот метод неоднократно совершенствует генеративную модель для получения менее затратных ответов и использует этап коррекции для уменьшения накопленной ошибки во время процесса.
В статье также представлена «грубая обучаемость». Этот термин означает, что изученная модель не обязательно должна идеально соответствовать идеальной цели. Ему необходимо обеспечить достаточный охват важных частей пространства ответов, чтобы полезные возможности не были потеряны слишком рано. При этом предположении авторы доказывают, что ALDRIFT может аппроксимировать целевое распределение полиномиальным числом выборок. src=”https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text”>
ALDRIFT работает по схеме, состоящей из двух частей
ALDRIFT работает по схеме, состоящей из двух частей:
<ол>
ол>
Авторы описывают эту оценку как «затраты». Слово “стоимость” относится к измеренному штрафу, назначенному за ответ кандидата. Более низкая стоимость означает, что кандидат лучше справился с проверяемым требованием. ALDRIFT не просто ищет недорогой ответ. Он ищет ответы, которые имеют хорошие оценки, но при этом остаются вероятными в рамках генеративной модели.
Некоторые ответы ИИ должны работать как единое целое
<п>Исследователи сосредоточены на ответах ИИ на проблемы, где ответ должен функционировать в реальном мире, например на примерах планирования маршрутов и конференций.
<ул>
мкл>
Эти примеры показывают, почему в статье правдоподобные ответы рассматриваются только как часть проблемы. Более сложная задача — дать ответы, которые останутся последовательными, когда отдельные части должны работать вместе как одно законченное решение.стр>
Грубое предположение об обучаемости
<п>В статье это рассматривается как проблема направления генеративной модели к ответам, которые объединяют все ее части. Авторы связывают проблему с выравниванием времени вывода, когда модель корректируется во время использования в зависимости от того, работает ли конкретный ответ как полное решение. Эта связь придает исследованию практическую значимость, хотя вклад статьи остается теоретическим и зависит от предположения о грубой обучаемости.
<п>Фраза «грубое предположение об обучаемости» означает, что теория статьи зависит от предположения, что модель может сохранить достаточно полезных возможностей, пока она стремится к лучшим ответам.
Это не означает, что модель должна идеально выучить цель. Это означает, что модель должна сохранять достаточный охват пространства ответов, чтобы процесс не застревал слишком рано и не терял возможные лучшие ответы.
Существующие методы оптимизации оставляют пробелы, ограниченные выборкой
В статье выявлено несколько пробелов в понимании существующих методов оптимизации:
<ул>
мкл>
Решение статьи состоит в том, чтобы ввести “грубую обучаемость” чтобы объяснить, как генеративная модель может быть направлена на получение лучших ответов, сохраняя при этом достаточно полезных возможностей.
Доказательства магистратуры ограничены
<п>Основное доказательство статьи относится к аналитическим генеративным моделям, которые легче анализировать математически, чем современные LLM. Доказательства LLM более узкие: авторы используют GPT-2 в простых задачах по планированию и графам, демонстрируя поведение, которое поддерживает эту идею, но не доказывая, что те же предположения справедливы для современных LLM.
Исследования указывают на основу для будущих исследований
В статье предлагается теоретическая основа для изучения того, как генеративные модели могут сочетаться с процессами внешней проверки.
<п>Исследование показывает, что исследователи Google изучают основу для поиска “правдоподобного ответа” проблема, и авторы пишут, что «структура открывает захватывающие возможности для будущих исследований». Они приходят к выводу, что эти исследования указывают «на принципиальную основу для адаптивных генеративных моделей».стр> <ч3>Выносч3> <ул>
Грубая обучаемость означает, что модели не обязательно идеально изучать цель. Необходимо избегать потери полезных областей пространства ответов, где могут существовать лучшие решения.
ALDRIFT использует шаг коррекции, чтобы приблизить поиск к намеченной цели, поскольку модель подталкивается к лучшим ответам.
В рамках этой системы используется разделение труда. Генеративная модель обрабатывает качественные или семантические предпочтения, а отдельный процесс проверяет, работает ли ответ как полное решение.
Тесты с GPT-2 показали поведение, которое подтверждает эту идею в простых примерах планирования и графиков, но не доказало, что те же предположения справедливы для современных LLM.
Исследование важно для оптимизаторов и бизнеса, поскольку от ответов ИИ все чаще ожидают большего, чем просто обобщение информации. Им необходимо поддерживать решения, планы и действия, которые сохраняются за пределами интерфейса чата. Хотя фреймворк, скорее всего, не используется в производстве, он показывает, что Google добился прогресса в предоставлении более чем правдоподобных ответов.
мкл>
