Подсказки для поиска

Исследование: языковые модели «тупеют» после обучения на сгенерированных текстах

В 2023 году специалисты в области нейросетевых вычислений Илья и Захар Шумайловы описали явление, которое они назвали «коллапс модели». Под коллапсом модели авторы понимают процесс «вырождения», затрагивающий несколько поколений генеративных моделей, в ходе которого сгенерированные данные снова и снова загрязняют ту выборку, на котором обучается следующее поколение моделей. В недавней статье, опубликованной в журнале Nature, они продемонстрировали, как это происходит.

Вначале они обучили большую языковую модель (LLM) на статьях из Википедии, а затем попросили модель сгенерировать тексты в стиле этих статей. Далее они включили эти сгенерированные тексты в выборку для следующего сеанса обучения модели. Этот круг они повторили несколько раз. С каждым разом модель делала свою работу все хуже и хуже.

Девятая версия модели, когда ее попросили написать статью об английских колокольнях, внезапно ушла в рассуждения о зайцах с черными, белыми, красными, синими и желтыми хвостами.

По словам Захара Шумайлова, он и его коллеги ожидали ухудшения результатов, но были удивлены тем, насколько быстро все «пошло не туда». Причина такой деградации в том, что модель выбирает из обучающей массы данных наиболее частотные слова и их сочетания. А слова, реже встречавшиеся в исходных данных, с большой долей вероятностью будут «отсеяны» моделью. Постепенно данные становятся все более однородными, а тексты превращаются в бессмыслицу. И это касается не только текстов, но и любых данных — картинок, графиков и др.

Можно было бы, конечно, не использовать сгенерированные (синтетические) данные. Но проблема в том, что уже сейчас данных для обучения моделей не хватает. Особенно в тех областях, где их и так немного (скажем, редкие языки). Кроме того, уже через несколько лет, по прогнозам, бо́льшая часть контента в интернете будет представлять собой сгенерированные данные, а не тексты и изображения, созданные человеком. 

Сейчас исследователи думают над тем, как предотвратить коллапс моделей. Например, при обучении модели на смеси настоящих и сгенерированных данных в пропорции 1:9 коллапс модели наступал медленнее. Хотя глобально этот подход, может, и не решит проблему, но позволит избежать массового «отупения» цифровых помощников.

Портал «Грамота.ру»

Еще на эту тему

Новую технологию распознавания сгенерированных текстов разрабатывают в НИУ ВШЭ

Результаты проекта «Поймай бота» будут доступны пользователям в 2025 году

Языковые модели оказались хорошими помощниками в написании рассказов — но не для всех

В способности к творчеству моделям пока далеко до человека

Обучение и самообучение: как синтетические данные влияют на работу больших языковых моделей

Михаил Копотев о роли сгенерированных нейросетью текстов в развитии моделей и в жизни людей

все публикации

Слово как оружие: фэнтези о тайной библиотеке и волшебной печатной машинке

В издательстве «МИФ» вышел перевод книги Карстена Хенна «Золотая печатная машинка»

Проявленность: следующий шаг после «быть собой»

В языке поп-психологии у осознанности появилась пара

«Академос» — орфографический ресурс, а не словарь новых слов

Сотрудники Института русского языка имени В. В. Виноградова рассказали о задачах онлайн-ресурса

Сигма: независимый одиночка

Как песня в исполнении двух юных девушек прославила новый тип мужчины

Лингвист Игорь Мельчук вспоминает о жизни и науке середины XX века

Ведущие подкаста «Глагольная группа» анонсировали серию разговоров со знаменитым ученым

Слоп: низкокачественный ИИ-контент

Когда нейросети засоряют интернет-пространство бессмысленными «помоями»

Федор Успенский: «Меня раздражает, когда привычные вещи, на которых я вырос, начинают меняться»

Как меняется русский язык? Лингвисты по просьбе Грамоты рассказывают о главных трендах

Ред-флаг: предупреждение об опасности

Тревожные звоночки еще можно игнорировать, а от красных флагов лучше сразу бежать

Пупупу: новое междометие

Реакция на негатив, задумчивость и принятие неизбежного

Промпт: запрос к языковой модели

С новыми технологиями в нашем активном лексиконе появляются и новые слова

Топонимические легенды предлагают яркие истории вместо этимологии

Откуда куропатки на гербе Курска и кто стрелял из лука в Великих Луках?

Подсветить: смысловое выделение

Модный глагол позволяет расставлять нужные акценты и влиять на восприятие информации

Лимб: зависнуть в неопределенности

Слово с богословскими корнями стало обозначать подвешенное состояние

Русские отчества: как вас по батюшке?

Исторически Иванов и Иванович — одно и то же

Выгорание: остался только пепел

Как редкое слово с техническим смыслом стало популярным обозначением последствий стресса

Галина Кустова: «Есть участки, где грамматика развивается быстро и даже стремительно!»

Как меняется русский язык? Лингвисты по просьбе Грамоты рассказывают о главных трендах

Имба: крутизна, которой нет равных

Как жалоба на дисбаланс превратилась в похвалу

Зумер: непонятная молодежь

Слово, которое полюбили социологи, маркетологи и рекрутеры

Брейнрот: контент, разлагающий мозг

Может ли потребление некачественного контента приводить к снижению когнитивных способностей?

Между 6 и 7: какую функцию выполняет числовой сленг

Социолингвист Валерий Шульгинов показывает на примерах, что мы можем сказать с помощью чисел

1/6
Большой универсальный словарь русского языка (2 тома)
1 — 4 классы
Морковкин В.В., Богачева Г.Ф., Луцкая Н.М.
4.3
Подробнее об издании
Купить на маркетплейсах:
Назовите ваше слово года!
Какие новые слова в 2025 году прочно вошли в вашу речь? На какие вы обратили внимание, какие стали чаще слышать вокруг? Участвуйте в выборе «Слова года» по версии Грамоты.
Отправить
Спасибо!
Мы получили ваш ответ и обязательно учтем его при составлении списка слов-кандидатов
Читать Грамоту дальше
Новые публикации Грамоты в вашей почте
Неверный формат email
Подписаться
Спасибо,
подписка оформлена.
Будем держать вас в курсе!