<стр>Гэри Иллис из Google предостерег от ответов ИИ и призвал использовать личные знания и авторитетные ресурсыстр>
Гэри Иллис из Google предостерег от использования моделей большого языка (LLM), подтвердив важность проверки авторитетных источников, прежде чем принимать какие-либо ответы от LLM. Его ответ был дан в контексте вопроса, но, что любопытно, он не опубликовал, в чем заключался этот вопрос.
Системы ответов LLM
<п>Судя по словам Гэри Иллиеса, становится ясно, что контекстом его рекомендации является использование искусственного интеллекта для ответа на запросы. Заявление появилось после объявления OpenAI SearchGPT о том, что они тестируют прототип поисковой системы AI. Возможно, его заявление не связано с этим заявлением и является просто совпадением.
<п>Гэри сначала объяснил, как студенты магистратуры подготавливают ответы на вопросы, и упомянул, как используется техника под названием «заземление». может повысить точность ответов, генерируемых ИИ, но он не идеален на 100%, поэтому ошибки все равно проскальзывают. Заземление — это способ подключить базу данных фактов, знаний и веб-страниц к программе LLM. Цель состоит в том, чтобы обосновать ответы, сгенерированные ИИ, авторитетными фактами.
Вот что опубликовал Гэри:
“На основе своих обучающих данных LLM находят наиболее подходящие слова, фразы и предложения, которые соответствуют контексту и значению подсказки.< /п>
Это позволяет им генерировать релевантные и последовательные ответы. Но не обязательно фактически верные. ВАМ, пользователю этих LLM, по-прежнему необходимо проверять ответы на основе того, что вы знаете о теме, о которой вы задали LLM, или на основе дополнительного чтения ресурсов, которые являются авторитетными для вашего запроса.
<п>Конечно, заземление может помочь создать более фактически правильные ответы, но оно не идеально; оно не заменяет ваш мозг. Интернет полон преднамеренной и непреднамеренной дезинформации, и вы не поверите всему, что читаете в Интернете, так зачем вам ответы LLM?стр> <п>Увы. Этот пост также есть в Интернете, и я мог бы быть LLM. Ага, да.”
Контент и ответы, созданные ИИ
Пост Гэри в LinkedIn является напоминанием о том, что LLM генерируют ответы, которые контекстуально релевантны задаваемым вопросам, но эта контекстуальная релевантность не обязательно является фактически точной.
Авторитетность и надежность — важные качества контента, который Google пытается ранжировать. Поэтому в интересах издателей постоянно проверять контент, особенно контент, созданный искусственным интеллектом, чтобы избежать непреднамеренного снижения авторитетности. Необходимость проверять факты справедлива и для тех, кто использует генеративный ИИ для ответов.