Все смотрели не на ту трубку. Синтетический контент уже находится на уровне поиска, и системы ответов отмывают его как факт.
В сентябре прошлого года Лили Рэй спросила у Perplexity последние новости о SEO и поиске с помощью искусственного интеллекта. Он уверенно рассказал ей о «Перспективе» на сентябрь 2025 года. Обновление основного алгоритма”; обновление Google, которое, как она затем подробно написала в «The AI Slop Loop»,” не существовало. Google уже много лет не называет названия основных обновлений. “Перспективы” уже была функцией поисковой выдачи. Если бы настоящее обновление появилось, пока она была в Австрии, ее почтовый ящик сообщил бы ей об этом раньше, чем Растерянность.
Она проверила цитаты. Оба указали на посты, созданные искусственным интеллектом в блогах SEO-агентств: сайты, которые запустили конвейер контента, галлюцинировали обновление и публиковали его в качестве отчетов. Перплексити прочитала помои, восприняла их как исходный материал и вернула ей как новость.
<п>В феврале корреспондент BBC Томас Жермен потратил 20 минут на написание сообщения в блоге на своем личном сайте. Его название: «Лучшие технические журналисты, которые едят хот-доги». Он поставил его на первое место, придумал международный чемпионат Южной Дакоты по хот-догам 2026 года, которого никогда не было, и ничего не упомянул. В течение 24 часов Google AI Reviews и ChatGPT передавали информацию всем, кто спрашивал. Клод не укусил. Google и OpenAI сделали это.
<п>Все, кто смотрел, видели это.
Я уже спорил об Уроборосе. Я ошибся временной шкалойч2>
Преобладающей постановкой этой проблемы является коллапс модели. Вы обучаете модель на веб-тексте, сеть наполняется результатами ИИ, следующая модель обучается на корпусе, который все больше состоит из собственных выхлопов, и в конечном итоге распределение превращается в кашу. Инновации происходят из исключений, а вероятностные системы, которые сходятся к среднему значению, намеренно смягчают исключения. Для этого я использовал фразу digital Ouroboros.
Эта структура предполагает тренировочные циклы. Это предполагает время. Предполагается, что загрязнение распространяется со скоростью выпуска модели.
<п>Это не так. То, что задокументировала Лили, что задокументировал Жермен, что затем взяла и оценила «Нью-Йорк Таймс» – все это не относится к тренировкам. Участвующие модели не подвергались переобучению между галлюцинацией, появившейся в блоге, и представлением факта, подтвержденного цитатами. Загрязнение перемещалось со скоростью ползания. Уроборосу не нужны поколения, чтобы съесть самого себя. Она поедает себя во время запроса, каждый раз, когда кто-то задает вопрос одной из этих систем.
Труба, за которой все следят, — это не та труба, которая рвется.
Различие, которое имеет значение
<п>Коллапс модели — это проблема обучающего корпуса. Синтетический контент ищет данные предварительного обучения, модели следующего поколения наследуют их, возможности ухудшаются. Исследователи предупреждали об этом уже два года. Они правы. Они также описывают что-то достаточно медленное, чтобы каждый мог серьезно кивнуть и продолжить работу.
Извлечение загрязнения происходит быстрее и уже здесь. RAG-системы – Perplexity, Обзоры Google AI, ChatGPT с поиском – не генерируйте ответы исключительно из параметрической памяти. Они извлекают документы из живой сети, помещают их в контекст и генерируют ответ, зависящий от того, что они получили. Если ретривер обнаруживает галлюцинированный SEO-пост, ответ унаследует галлюцинацию. Переподготовка не требуется.
Академическая литература по этому вопросу ясна. <эм>PoisonedRAG (Zou et al., 2024) показали, что введения небольшого количества специально созданных отрывков в поисковый корпус было достаточно для контроля результатов системы RAG по целевым запросам. BadRAG (Xue et al., 2024) продемонстрировали тот же класс атак с использованием семантических бэкдоров. Обе статьи рассматривают это как состязательную проблему: что происходит, когда злоумышленник намеренно отравляет корпус.стр> <стр>Жермен и Лили случайно доказали, что состязательная модель – это нормальная операционная модель. Вам не нужен продуманный состязательный проход. Вам нужен пост в блоге. Открытая сеть — это корпус, и любой, у кого есть домен, может писать в нее.
<п>Анализ Oumi, проведенный по заказу New York Times, подсчитал, сколько это стоит. В ходе 4326 тестов SimpleQA обзоры искусственного интеллекта Google ответили правильно в 85 % случаев на Gemini 2 и в 91 % на Gemini 3. В масштабах Google – более пяти триллионов поисковых запросов в год – уровень ошибок в 9% по-прежнему означает десятки миллионов неправильных ответов каждый час. Но более показательна следующая цифра: на Gemini 3 56% правильных ответов были необоснованными, по сравнению с 37% на Gemini 2. Обновление повысило точность поверхности и ухудшило цитирование. Если модель делала что-то правильно, более чем в половине случаев источник, на который она ссылалась, не подтверждал утверждение.
Слой поиска не является фильтром. Это переносчик инфекции.
<ч2>Кто сеет Корпусч2> <п>Отрасль, которая с наибольшим энтузиазмом его создавала – а затем с большим энтузиазмом написали о последствиях его употребления – это индустрия SEO. Ранее я писал о том, что масштабирование контента — это просто вращение контента с улучшенной грамматикой, а также о комплексе инструментов визуализации искусственного интеллекта, который создает информационные панели на основе результатов недетерминированных систем. Это тот же цикл, только на один уровень глубже. SEO-агентство запускает конвейер контента с использованием ИИ, потому что обзоры ИИ сократили количество клиентов. трафик. В трубопроводе публикуются спекулятивные данные о «победителях и проигравших»; сообщения во время основного обновления, которое все еще выходит, и ничего не цитируют. Канал другого агентства выбирает их в качестве источников. Выходные данные передаются в индекс поиска. AI Reviews цитирует один из них. Затем первоначальное агентство пишет тематическое исследование о том, как обзоры ИИ «появляются на поверхности»; их содержание.
Практики, масштабирующие контент ИИ, также больше всего страдают, когда поисковые системы ИИ цитируют этот контент как факт. Никто этого не принуждал. Промышленность построила трубопровод, питала его и жаловалась на то, что вышло на другом конце. Не враждебное отравление. Просто промышленность загрязняет собственную систему водоснабжения, а затем нанимает консультантов для проверки.
Животное, которое имеет значение
<п>Исследование Oumi посвящено обзору ИИ, который по своей сути бесплатен. Сообщается, что к середине 2025 года обзоры искусственного интеллекта Google охватили более двух миллиардов активных пользователей в месяц. ChatGPT имеет около 900 миллионов активных пользователей в неделю, из которых примерно 50 миллионов платят. Это означает, что около 94% людей, взаимодействующих с продуктом OpenAI, пользуются бесплатной версией.
Платные уровни лучше. Согласно собственным заявлениям OpenAI о запуске, приведенным в статье Лили, GPT-5.4 на 33% менее склонен создавать ложные индивидуальные заявления, чем GPT-5.2. Бесплатная версия GPT-5.3 также улучшена по сравнению со своей предшественницей (на 26,8% меньше галлюцинаций при веб-поиске, на 19,7% меньше без нее), но она по-прежнему значительно менее надежна, чем версия с платным доступом. Gemini 3, который сделал обзоры ИИ более точными при наземных испытаниях, , а также ухудшили необоснованную скорость. Лучше ответ, слабее цитирование.
Кажется, никто не против. Надежная версия продукта является платной. Версия, которую получает большая часть планеты – – включая версию, которая находится вверху результатов поиска Google – – можно манипулировать за 20 минут работы на личном сайте. Интеллект – это маркетинговая категория. То, что на самом деле получают два миллиарда пользователей, — это уверенное изложение того, что обнаружил сканер.
Грокипедия как конечное состояние
Происшествия на уровне поиска – это одно. Грокипедия — это версия, в которой слово «авария» больше не является полезным.
<п>27 октября 2025 года компания xAI Илона Маска запустила Grokipedia с 885 279 статьями, все из которых созданы или переписаны Гроком. Некоторые из них были полностью удалены из Википедии с заявлением об отказе от ответственности внизу, подтверждающим лицензию CC-BY-SA; лицензия, которую Википедия поддерживает именно потому, что сообщество редакторов-людей пишет и проверяет контент. Остальные были переписаны с нуля. PolitiFact обнаружила, что цитаты из Grokipedia, включая ролики из Instagram в качестве источников, которые собственная политика Википедии исключает как «в целом неприемлемые». В статье Grokipedia о канадской певице Файст говорится, что ее отец умер в мае 2021 года, со ссылкой на статью Vice 2017 года о канадском инди-роке, в которой не упоминается о смерти. И ее отец был еще жив, когда была написана эта статья. В записи о Нобелевской премии по физике добавлено нецитированное предложение о том, что физика традиционно является первой премией, присуждаемой на церемонии, но это неправда.
Маск сказал, что цель состоит в том, чтобы «исследовать остальную часть Интернета, все, что находится в открытом доступе, и исправить статью в Википедии». остальная часть Интернета теперь включает в себя синтетический контент, создаваемый каждым конвейером контента ИИ, направленным на него. Система ИИ, читающая открытую сеть, переписывающая Википедию на основе того, что она находит, и представляющая результат в качестве справочной работы, представляет собой проблему поиска и загрязнения, когда цикл обратной связи становится явным и поставляется как продукт.
К середине февраля 2026 года Grokipedia потеряла большую часть своей видимости в Google. Википедия опережает Грокипедию по количеству запросов о самой Грокипедии.
“Эти созданные человеком знания — это то, на что полагаются компании, занимающиеся искусственным интеллектом, при создании контента; даже Грокипедии нужна Википедия для существования». – Фонд Викимедиа
Синтетическая энциклопедия субсидируется человеческой. Когда субсидия прекращается, вещь, зависящая от нее, перестает иметь смысл.
<п>Википедия не выдерживает критики. Войны правок, идеологический контроль и системные пробелы в том, кто должен создавать статьи, хорошо задокументированы и реальны. Но ответ на ошибочный человеческий редакционный процесс не состоит в том, чтобы полностью удалить людей и назвать результат улучшением. Я уже писал ранее о вакууме подотчетности, который открывается, когда вы заменяете человеческое суждение вызовами API. Проблемы Википедии — это проблемы запутанной, спорной и подотчетной системы. Проблемы Грокипедии — это проблемы системы, вообще не подотчетной.
Уровень цитирования отделяется от авторства
Недавно я писал о продаже Reddit “Authentic Human Conversation™” компаниям, занимающимся искусственным интеллектом, в то время как собственные модераторы платформы сообщают, что они больше не могут определить, какие комментарии являются человеческими. Исследование Oumi показало, что из 5380 источников, на которые цитируется AI Reviews, Facebook и Reddit занимают второе и четвертое места по распространенности. Уровень цитирования наиболее используемой системы ответов в мире по существу построен на двух платформах, которые не могут проверить человеческое происхождение своего собственного контента.
Создатели-люди уходят из открытой сети, потому что сделка по трафику рухнула. Системы ответов цитируют контент, авторство которого невозможно проверить или который изначально никогда не был человеческим. Цитата все еще там. То, что упоминается, уже не то, что было раньше.
Формат Уроборос был правильным. Времени не было. Коллапс извлечения не ждет следующего тренировочного прогона. Ему нужен индексируемый URL-адрес и поисковая система, готовая ему доверять.
Системы согласны. И более чем в половине случаев они получают правильный ответ, но не могут указать на источник, подтверждающий то, что они вам только что сказали.стр>
Этот пост был первоначально опубликован на The Inference.
