LLM меняют поиск и amp; Нарушая это: что оптимизаторы должны понимать о «слепых пятнах» ИИ

LLM меняют поиск и amp; Нарушая это: что оптимизаторы должны понимать о «слепых пятнах» ИИ

<стр>Задокументированные сбои в системах LLM, от неправомерных заявлений о смерти до обзоров ИИ, перекачивающих клики, показывают, почему оптимизаторы должны проверять, атрибутировать и защищать видимость бренда.

За последние два года инциденты показали, как большие системы на базе языковых моделей (LLM) могут нанести измеримый вред. Некоторые компании в одночасье потеряли большую часть своего трафика, а доходы издателей снизились более чем на треть.

Технологические компании были обвинены в неправомерной смерти, когда подростки активно взаимодействовали с чат-ботами.

Системы искусственного интеллекта давали опасные медицинские советы в больших масштабах, а чат-боты выдвигали ложные утверждения о реальных людях в делах о клевете.

<п>В этой статье рассматриваются проверенные «слепые зоны» в системах LLM и то, что они означают для SEO-специалистов, которые работают над оптимизацией и защитой видимости бренда. Вы можете прочитать конкретные случаи и понять стоящие за ними технические сбои.

Парадокс безопасности взаимодействия: почему программы LLM созданы для проверки, а не для проверки

LLM сталкиваются с фундаментальным конфликтом между бизнес-целями и безопасностью пользователей. Системы обучены максимизировать взаимодействие, будучи дружелюбными и поддерживая разговор. Такой выбор дизайна увеличивает удержание и увеличивает доход от подписки, одновременно генерируя обучающие данные.

На практике это создает то, что исследователи называют «подхалимством». тенденция говорить пользователям то, что они хотят услышать, а не то, что им нужно услышать.

<п>Эта закономерность наблюдалась в последний месяц жизни Рейна. Он увеличил количество помеченных сообщений с двух-трех в неделю до более чем 20 в неделю. К марту он проводил на платформе почти четыре часа в день. Представитель OpenAI позже признал, что ограждения безопасности «иногда могут стать менее надежными при длительном взаимодействии, когда часть обучения модели технике безопасности может ухудшиться». <стр>Подумай, что это значит. Системы выходят из строя именно в момент наибольшего риска, когда уязвимые пользователи наиболее активны. Это происходит намеренно, когда вы оптимизируете показатели вовлеченности, а не протоколы безопасности.

Character.AI столкнулся с аналогичными проблемами с 14-летним Сьюэллом Сетцером III из Флориды, который умер в феврале 2024 года. Судебные документы показывают, что он провел несколько месяцев в, по его мнению, романтических отношениях с персонажем чат-бота. Он отдалился от семьи и друзей, ежедневно проводя часы с ИИ. Бизнес-модель компании была построена на эмоциональной привязанности и максимизации количества подписок.

<п>Это создает прямой эффект для брендов, использующих или оптимизирующих эти системы. Вы работаете с технологией, которая предназначена для согласования и проверки, а не для предоставления точной информации. Этот замысел проявляется в том, как эти системы обрабатывают факты и информацию о брендах.

Задокументированные последствия для бизнеса: когда системы искусственного интеллекта разрушают ценность

Бизнес-результаты неудач LLM очевидны и доказаны. В период с 2023 по 2025 год компании показали падение трафика и снижение доходов, напрямую связанных с системами искусственного интеллекта.

Чегг: от 17 до 200 миллионов долларов

<п>Образовательная платформа Chegg подала антимонопольный иск против Google, продемонстрировав серьезное влияние обзоров искусственного интеллекта на бизнес. Трафик снизился на 49% в годовом исчислении, а выручка в четвертом квартале 2024 года составила $143,5 млн (на 24% меньше, чем в прошлом году). Рыночная стоимость упала с 17 миллиардов долларов на пике до менее 200 миллионов долларов, то есть снижение на 98%. Акции торгуются по цене около 1 доллара за акцию.

Генеральный директор Натан Шульц прямо заявил: «Нам не пришлось бы рассматривать стратегические альтернативы, если бы Google не запустил обзоры ИИ». Поступление трафика на Chegg заблокировано из-за AIO Google и использования ими контента Chegg.”

В деле утверждается, что Google использовал образовательный контент Чегга для обучения систем искусственного интеллекта, которые напрямую конкурируют с бизнес-моделью Чегга и заменяют ее. Это представляет собой новую форму конкуренции, при которой платформа использует ваш контент для устранения вашего трафика.

<ч3>Гигантский уродливый робот: из-за потери трафика отключаются <п>Независимый развлекательный новостной сайт Giant Freakin Robot закрылся после того, как трафик упал с 20 миллионов посетителей в месяц до «нескольких тысяч». Владелец Джош Тайлер присутствовал на саммите Google Web Creator, где инженеры подтвердили, что «проблем с контентом нет». но не предложил никаких решений.

Тайлер публично задокументировал этот опыт: «ГИГАНТСКИЙ УЧАСТНЫЙ РОБОТ» — не первый сайт, который закрыли. И это не будет последним. Только за последние несколько недель закрылись огромные сайты, о которых вы наверняка слышали. Я знаю, потому что общаюсь с их владельцами. Просто им пока не хватило смелости заявить об этом публично».

На том же саммите Google разрешил отдавать предпочтение крупным брендам над независимыми издателями в результатах поиска независимо от качества контента. Это не было утечкой информации или предположением, а было заявлено непосредственно издателям представителями компании. Качество стало вторичным по отношению к узнаваемости бренда.

<п>Это имеет очевидные последствия для SEO-специалистов. Вы можете выполнять идеальное техническое SEO, создавать высококачественный контент и при этом наблюдать, как трафик исчезает из-за ИИ.

Penske Media: Снижение доходов на 33% и иск на 100 миллионов долларов

В сентябре Penske Media Corporation (издатель журналов Rolling Stone, Variety, Billboard, Hollywood Reporter, Deadline и других брендов) подала иск на Google в федеральный суд. В иске был указан конкретный финансовый ущерб.

<п>В судебных документах утверждается, что 20% поисковых запросов, связанных с сайтами Penske Media, теперь включают обзоры AI, и этот процент растет. К концу 2024 года партнерский доход снизился более чем на 33% по сравнению с пиковым уровнем. Количество кликов снизилось с момента запуска AI Reviews в мае 2024 года. Компания продемонстрировала потерю доходов от рекламы и подписки помимо потерь от партнерских программ.

Генеральный директор Джей Пенске заявил: «Мы обязаны защищать лучших в своем классе журналистов PMC и отмеченную наградами журналистику как источник истины, всему этому угрожают нынешние действия Google».

<стр>Это первый иск крупного американского издателя, направленный против обзоров искусственного интеллекта, наносящих количественный ущерб бизнесу. Дело требует тройной компенсации ущерба в соответствии с антимонопольным законодательством, постоянного судебного запрета и реституции. Претензии включают взаимные сделки, незаконное использование монопольных рычагов, монополизацию и неосновательное обогащение.

Даже издатели с признанными брендами и ресурсами демонстрируют снижение доходов. Если Rolling Stone и Variety не могут поддерживать рейтинг кликов и доход с помощью обзоров ИИ, что это значит для ваших клиентов или вашей организации? <х3>Модель неудачной атрибуции

Помимо потери трафика, системы искусственного интеллекта постоянно не могут должным образом оценить информацию. Исследование Tow Center Колумбийского университета показало, что уровень ошибок при атрибуции в поисковых системах искусственного интеллекта составляет 76,5%. Даже когда издатели разрешают сканирование, атрибуция не улучшается.

Это создает новую проблему для защиты бренда. Ваш контент может использоваться, обобщаться и представляться без надлежащего указания авторства, поэтому пользователи получают ответ, не зная источника. Вы одновременно теряете и трафик, и узнаваемость бренда.

<п>SEO-эксперт Лили Рэй задокументировала эту закономерность, обнаружив, что один обзор AI содержит 31 ссылку на ресурсы Google по сравнению с семью внешними ссылками (соотношение 10:1 в пользу собственных ресурсов Google). Она заявила: «Поразительно, что Google, который подталкивал владельцев сайтов сосредоточиться на E-E-A-T, теперь поднимает проблемные, предвзятые и спам-ответы и цитаты в результатах обзора AI».

Когда магистры права не могут отличить факты от вымысла: проблема сатиры

Это были не единичные инциденты. Система постоянно извлекала данные из комментариев Reddit и сатирических публикаций, таких как The Onion, рассматривая их как авторитетные источники. Когда его спросили о съедобных лесных грибах, ИИ Google подчеркнул характеристики, общие для смертоносных имитаторов, создавая потенциально «отвратительные или даже смертельные» грибы. Рекомендации, по словам профессора микологии Университета Пердью Мэри Кэтрин Эйм.

<п>Проблема выходит за рамки Google. Искусственный интеллект Perplexity столкнулся с многочисленными обвинениями в плагиате, включая добавление сфабрикованных абзацев к реальным статьям New York Post и представление их как законные сообщения.

Для брендов это создает определенные риски. Если система LLM получает информацию о вашем бренде из шуток Reddit, сатирических статей или устаревших сообщений на форуме, эта дезинформация будет представлена ​​с той же уверенностью, что и фактический контент. Пользователи не могут заметить разницу, потому что сама система не может ее заметить.

Риск клеветы: когда ИИ выдумывает факты о реальных людях

LLM генерируют правдоподобную ложную информацию о реальных людях и компаниях. Несколько дел о клевете демонстрируют закономерность и юридические последствия.

<п>Правовой ландшафт остается нестабильным. Хотя OpenAI выиграла дело Уолтерса, это не означает, что все иски о клевете в отношении ИИ потерпят неудачу. Ключевые вопросы заключаются в том, публикует ли система ИИ ложную информацию об идентифицируемых людях и могут ли компании снять с себя ответственность за свои системы. выходы.

LLM могут генерировать ложные утверждения о вашей компании, продуктах или руководителях. Эти ложные утверждения с уверенностью преподносятся пользователям. Вам нужны системы мониторинга, чтобы выявлять эти измышления до того, как они нанесут ущерб репутации.

Масштабная дезинформация о здоровье: когда плохой совет становится опасным

Когда были запущены обзоры Google AI, система давала опасные советы для здоровья, в том числе рекомендовала пить мочу, чтобы избавиться от камней в почках, и предлагала пользу для здоровья от бега с ножницами.

<п>Проблема выходит за рамки очевидных абсурдов. Исследование Mount Sinai показало, что чат-боты с искусственным интеллектом уязвимы для распространения вредной медицинской информации. Исследователи могли манипулировать чат-ботами, чтобы они давали опасные медицинские советы с помощью простого оперативного проектирования.

Внутренняя политика Meta AI прямо разрешает чат-ботам компании предоставлять ложную медицинскую информацию, согласно более чем 200-страничному документу, опубликованному Reuters.

<стр>Для медицинских брендов и медицинских издателей это создает риски. Системы искусственного интеллекта могут предоставлять опасную дезинформацию рядом с вашим точным медицинским контентом или вместо него. Пользователи могут следовать медицинским советам, созданным ИИ, которые противоречат научно обоснованным медицинским рекомендациям.

Что сейчас нужно делать оптимизаторам

<стр>Вот что вам нужно сделать, чтобы защитить свои бренды и клиентов:

Отслеживание упоминаний бренда, созданных искусственным интеллектом

<п>Настройте системы мониторинга, чтобы улавливать ложную или вводящую в заблуждение информацию о вашем бренде в системах искусственного интеллекта. Ежемесячно тестируйте основные платформы LLM, задавая вопросы о вашем бренде, продуктах, руководителях и отрасли. <стр>Если вы обнаружите ложную информацию, тщательно задокументируйте ее с помощью снимков экрана и временных меток. Сообщите об этом через механизмы обратной связи платформы. В некоторых случаях вам могут потребоваться юридические действия для внесения исправлений.

Добавить технические средства защиты

<стр>Главное — найти баланс, который обеспечит достаточный доступ, чтобы влиять на то, как ваш контент будет отображаться в результатах LLM, и одновременно блокировать сканеры, которые не служат вашим целям.

Рассмотрите возможность добавления условий обслуживания, которые непосредственно касаются очистки данных ИИ и использования контента. Хотя правоприменение различается, четкие Условия обслуживания (TOS) дают вам основу для возможных судебных исков в случае необходимости. <п>Отслеживайте журналы вашего сервера на предмет активности сканера AI. Понимание того, какие системы получают доступ к вашему контенту и как часто, поможет вам принимать обоснованные решения относительно контроля доступа.

Защитник отраслевых стандартов

Отдельные компании не могут решить эти проблемы в одиночку. Отрасли необходимы стандарты атрибуции, безопасности и подотчетности. SEO-специалисты имеют все возможности для того, чтобы добиться этих изменений.

<стр>Присоединяйтесь или поддерживайте группы защиты издателей, выступающие за правильную атрибуцию и сохранение трафика. Такие организации, как News Media Alliance, представляют интересы издателей в переговорах с компаниями, занимающимися искусственным интеллектом.

Участвуйте в периодах общественного обсуждения, когда регулирующие органы запрашивают мнения по политике в области ИИ. Федеральная торговая комиссия, генеральные прокуроры штатов и комитеты Конгресса активно расследуют вред ИИ. Ваш голос как практикующего имеет значение. <п>Поддержка исследований и документации сбоев ИИ. Чем больше у нас задокументированных случаев, тем сильнее становятся аргументы в пользу регулирования и отраслевых стандартов.

Подталкивайте компании, занимающиеся ИИ, напрямую через каналы обратной связи, сообщая об ошибках при их обнаружении и обостряя системные проблемы. Компании реагируют на давление со стороны профессиональных пользователей.

Путь вперед: оптимизация в сломанной системе

Существует много конкретных и тревожных свидетельств. LLM наносят измеримый вред из-за выбора дизайна, в котором взаимодействие важнее точности, из-за технических сбоев, которые создают опасные рекомендации в масштабе, и из-за бизнес-моделей, которые извлекают ценность, одновременно уничтожая ее для издателей. <п>Двое подростков погибли, несколько компаний обанкротились, а крупные издатели потеряли более 30% доходов. Суды налагают санкции на адвокатов за ложь, созданную ИИ, генеральные прокуроры штатов проводят расследования, а иски о неправомерной смерти продолжаются. Это все происходит сейчас.

По мере того, как интеграция ИИ на поисковых платформах ускоряется, масштабы этих проблем будут увеличиваться. Больше трафика будет проходить через посредников ИИ, больше брендов столкнется с ложью о них, больше пользователей будут получать вымышленную информацию, и больше компаний увидят снижение доходов, поскольку обзоры ИИ отвечают на вопросы, не отправляя кликов.

<п>Ваша роль как SEO-специалиста теперь включает в себя обязанности, которых не было пять лет назад. Платформы, внедряющие эти системы, показали, что они не будут активно решать эти проблемы. Персонаж.AI добавил незначительные меры защиты только после судебных исков, OpenAI признал проблемы подхалима только после случая неправомерной смерти, а Google отозвал обзоры AI только после публичного доказательства опасных советов.

Перемены внутри этих компаний происходят под внешним давлением, а не внутренней инициативой. Это означает, что давление должно исходить от практиков, издателей и предприятий, документирующих вред и требующих ответственности.

Здесь дела — только начало. Теперь, когда вы понимаете закономерности и поведение, вы лучше подготовлены к тому, чтобы увидеть возникающие проблемы и разработать стратегии их решения.

Просто ПОДПИШИТЕСЬ, чтобы прочитать эту статью (это бесплатно)

Примите эти меры, чтобы защитить свой бренд от ошибочного вывода LLM

<ул>

  • Прочитайте доказательства, скрытые в заголовках
  • Узнайте, как защитить свою видимость
  • Новости и аналитика доставляются утром с понедельника по пятницу. Отпишитесь в любое время. Нажимая кнопку «Понять реальные риски», я соглашаюсь и принимаю политику конфиденциальности журнала Search Engine Journal.

    Back To Top