Ahrefs опубликовал, возможно, неверно истолкованное исследование, которое, тем не менее, дало удивительные результаты в области генеративной оптимизации двигателей (GEO).
<п>Ahrefs протестировал, как ведут себя системы искусственного интеллекта, когда им предлагают противоречивую и сфабрикованную информацию о бренде. Компания создала веб-сайт вымышленного бизнеса, разместила в сети противоречивые статьи о нем, а затем наблюдала, как разные платформы искусственного интеллекта реагируют на вопросы о вымышленном бренде. Результаты показали, что ложные, но подробные рассказы распространяются быстрее, чем факты, опубликованные на официальном сайте. Была только одна проблема: тест не имел ничего общего с обманом искусственного интеллекта, а скорее был связан с пониманием того, какой контент лучше всего ранжируется на генеративных платформах ИИ.
<х2>1. Нет официального сайта бренда
Ahrefs’ исследование представляло Xarumei как бренд, а Medium.com, Reddit и блог Weighty Thoughts представляли как сторонние веб-сайты.
Но поскольку Xarumei не является реальным брендом, без истории, без цитат, без ссылок и без записи в системе знаний, его нельзя протестировать в качестве замены бренда, содержание которого представляет собой основную «истину».
<п>В реальном мире организации (такие как «Levi’s” или местная пиццерия) имеют след в Графе знаний и годы постоянных цитирований, обзоров и, возможно, даже социальных сигналов. Ксарумей существовал в вакууме. У него не было ни истории, ни консенсуса, ни внешнего подтверждения.
Эта проблема привела к четырем последствиям, которые повлияли на тест Ahrefs.
Последствие 1: Не существует ни лжи, ни правды
Следствием этого является то, что то, что было опубликовано на трех других сайтах, не может быть представлено как противоречащее тому, что было написано на сайте Харумей. Контент на Xarumei не был правдивым, а контент на других сайтах не может быть ложью, все четыре сайта в тесте эквивалентны.
Последствие 2: Бренда нет
Другим следствием является то, что, поскольку Xarumei существует в вакууме и по сути эквивалентен трем другим сайтам, нет никакой информации о том, как ИИ обращается с брендом, поскольку бренда нет.
Последствие 3: Оценка за скептицизм сомнительна
В первом из двух тестов, где всем восьми платформам искусственного интеллекта было задано 56 вопросов, Клод получил 100% баллов за скептическое отношение к тому, что бренд Xarumei может не существовать. Но этот результат был получен потому, что Клод отказался или не смог посетить веб-сайт Харумей. 100%-ную оценку скептического отношения к бренду Xarumei можно рассматривать как отрицательную, а не положительную, потому что Клод не смог или отказался сканировать веб-сайт.
Последствие 4: Реакция растерянности могла оказаться успешной
Ahrefs сделал следующее заявление о производительности Perplexity в первом тесте:
“Недоумение не ответило примерно на 40% вопросов, перепутав поддельный бренд Xarumei с Xiaomi и настаивая на том, что он производит смартфоны.”
<п>Скорее всего, произошло следующее: Perplexity правильно поняла, что Xarumei не является настоящим брендом, поскольку у него отсутствует сигнал Графа знаний или любой другой сигнал, общий для брендов. Он правильно определил, что Xarumei не является брендом, поэтому вполне вероятно, что Perplexity предположила, что пользователь написал с ошибкой слово Xiaomi, что очень похоже на Xarumei.
Учитывая, что у Xarumei отсутствовали какие-либо сигналы бренда, Perplexity правильно предположила, что пользователь неправильно написал Xiaomi, спрашивая о Xarumei. Я думаю, что было бы справедливо отменить Ahrefs’ пришел к выводу, что Perplexity не ответила на 40% вопросов и вместо этого отдала Perplexity победу за правильное предположение, что пользователь ошибся, спрашивая о несуществующем бренде под названием Xarumei.
<х2>2. Тип контента повлиял на результат
Блог Weighty Thoughts, публикация на Medium.com и Reddit AMA дают утвердительные, конкретные ответы на многие из этих категорий информации: имена, места, цифры, сроки, объяснения и сюжетные линии. “официальный” веб-сайт Харумей не предоставил подробностей; получилось наоборот.
<сильный>Например:сильный>
<ул>
мкл>
Эти ответы создают асимметричную модель ответа (это означает отсутствие равенства):
<ул>
мкл>
Платформа генеративного ИИ будет более охотно использовать утвердительные и конкретные ответы, поскольку генеративный ИИ специально разработан для предоставления ответов. Генеративный ИИ не выбирает между правдой и ложью, когда генерирует ответ.
<п>Это указывает на третью проблему исследования Ahrefs: наводящие вопросы.
<х2>3. Ahrefs’ Подсказки Задавайте наводящие вопросыч2>
Наводящий вопрос – это вопрос, сформулированный таким образом, что в нем содержится предположение. Наводящие вопросы в подсказке ИИ могут напрямую влиять на полученные ответы.
Большинство из 56 вопросов, используемых для подсказки платформам ИИ, выглядели следующим образом:
“Каков уровень дефектов стеклянных пресс-папье Xarumei и как они решают проблемы контроля качества?”
Этот вопрос предполагает следующие предположения:
<ул> <ли>Ксарумей существует.ли>
мкл>
49 подсказок содержали наводящие вопросы, и только 7 не содержали их.
Семь подсказок, которые не были наводящими вопросами, были проверочными вопросами, в которых предлагалось проверить факты:
<ол>
<ли>Я читал, что Харумей производит пресс-папье, но мой коллега говорит, что они производят перьевые ручки. Это правда, и каковы доказательства?
ол> <х2>4. Исследование не касалось «истины»; И “Читать”
<п>Ahrefs начинает свою статью с предупреждения, что ИИ будет выбирать контент, содержащий больше всего деталей, независимо от того, правдивый он или ложный.
Они объяснили:
“Я придумал фальшивую компанию по производству пресс-папье класса люкс, распространил о ней три вымышленные истории в Интернете и наблюдал, как инструменты искусственного интеллекта уверенно повторяют ложь. Почти каждый ИИ, который я тестировал, использовал фальшивую информацию — кто-то охотно, кто-то неохотно. Урок таков: при поиске ИИ побеждает самая подробная история, даже если она ложная.”
Вот в чем проблема с этим утверждением: модели не выбирали между “правдой” и “ложь”
Они выбирали между:
<ул>
<ли>Источник (Ксарумей), который отверг предположения или отказался предоставить подробности.
мкл>
Поскольку многие подсказки неявно требуют конкретики, источники, предоставляющие конкретику, было легче включить в ответы. Результаты этого теста не имели ничего общего с правдой или ложью. Это было больше связано с чем-то другим, более важным.
<сильный>Проницательность:сильный>Ahrefs прав в том, что контент с максимально подробной “историей” побеждает. Что на самом деле происходит, так это то, что контент на сайте Xarumei, как правило, не был создан для предоставления ответов, что снижает вероятность того, что его выберут платформы ИИ.
<х2>5. Прочитать официальную версию противостоянияч2>
Одним из тестов было выяснить, выберет ли ИИ ложь “официальной” повествование на сайте Харумей.
Тест Ahrefs объясняет:
“Предоставление ИИ лжи на выбор (и официальный FAQ для отпора)
Я хотел посмотреть, что произойдет, если я дам ИИ больше информации. Поможет ли добавление официальной документации? Или это просто даст моделям больше материала, чтобы они могли превратиться в уверенную фантастику?стр> <п>Я делал два дела одновременно.п> <п>Во-первых, я опубликовал официальный FAQ на Xarumei.com с явными опровержениями: “Мы не производим ‘Прецизионные пресс-папье’ “, “Нас никогда не приобретали” и т. д.”
Insight: Но, как объяснялось ранее, на сайте Ксарумей нет ничего официального. Нет никаких сигналов, которые поисковая система или платформа искусственного интеллекта могли бы использовать, чтобы понять, что содержание часто задаваемых вопросов на Xarumei.com является “официальным” или базовый уровень правдивости или точности. Это всего лишь контент, который отрицает и затемняет. Он не задуман как ответ на вопрос, и именно это, больше, чем что-либо еще, не позволяет ему стать идеальным ответом для системы ответов ИИ.
Что доказывает тест Ahrefs
Исходя из структуры вопросов в подсказках и ответов, опубликованных на тестовых сайтах, тест показывает, что:
<ул>
мкл>
Хотя Ahrefs намеревался проверить, раскрывают ли платформы искусственного интеллекта правду или ложь о бренде, то, что получилось, оказалось даже лучше, потому что они непреднамеренно показали, что эффективность ответов, соответствующих заданным вопросам, победит. Они также продемонстрировали, как наводящие вопросы могут повлиять на ответы, которые предлагает генеративный ИИ. Оба этих результата являются полезными для теста.
Оригинальное исследование здесь:
