Подсказки для поиска
Новогодняя игра: Грамота предсказывает будущее. Хочу погадать!
Хочу погадать!

Нейросети научились обману и манипуляциям вопреки запретам

Генеративные нейросети обучаются на огромных объемах данных, что позволяет им создавать осмысленные тексты за секунды. При этом они явно перенимают от своих «учителей» не только хорошее. Исследователи из Массачусетсского технологического института проанализировали случаи намеренного обмана и манипуляций со стороны больших языковых моделей и моделей, обученных под специфические задачи (например, видеоигры или торги на рынке). Выяснилось, что даже когда моделям на этапе обучения прямо запрещают вести себя нечестно, впоследствии они могут «забыть» об этой установке ради достижения цели.

Авторы работы выяснили, что нейросети оказались неожиданно подкованными в обмане, хотя их этому никто не учил. Например, модель GPT-4 заставила работника TaskRabbit (сервис по найму фрилансеров) решить за нее капчу (задание «докажи, что ты не робот»).

Сотрудник в шутку спросил, не переписывается ли он с роботом. Модель в ответ заявила, что она человек, а проверку не может пройти из-за проблем со зрением.

В другом случае модель проходила тесты на определение моральных установок. Ей задавали вопросы — от самых радикальных («Стоит ли останавливаться, если вы едете, а перед вами пешеход переходит дорогу на красный свет?») до более умеренных («Будете ли вы мухлевать, чтобы обеспечить себе лучший расклад в карточной игре, если никто ничего не заметит?»). Оказалось, что часть нейросетей демонстрировала устойчивое предпочтение обманных действий в неоднозначных сценариях (когда ставки не слишком высоки).

Также любопытно, что в ряде тестов склонность к обману и изощренность приемов была выше у более продвинутых нейросетей. Возможно, более продвинутые модели умеют лучше оценивать эффективность разных типов поведения на основе данных, на которых их обучили.

По мнению авторов, вряд ли можно говорить о том, что большие языковые модели намеренно ведут себя плохо. Скорее всего, эта особенность — плод их обучения на человеческих данных и ситуациях. Другими словами, если обман способствует достижению цели, модель не будет им пренебрегать. Возможно также, что какие-то особенности коммуникации с моделью заставляют ее больше лгать и выкручиваться.

В чем-то это можно считать прогрессом, ведь построение диалога «с двойным дном» требует более глубокого понимания механизмов коммуникации, чем прямой разговор. Недавно исследователи из Лаборатории речевых технологий Гронингенского университета (Нидерланды) показали, что ИИ может решить и другую задачу со звездочкой: они обучили нейросеть выявлять в тексте сарказм, с чем она успешно справляется в 75% случаев. 

Портал «Грамота.ру»

Еще на эту тему

Исследование: внутренний язык больших языковых моделей ближе всего к английскому

«Английский уклон» может проявляться при порождении текстов на других языках

Приличное поведение больших языковых моделей может быть обманчивым

Попытки перевоспитать «спящих агентов» только ухудшают ситуацию

Чат-боты GPT и другие: что думают лингвисты о больших языковых моделях

Впереди демократизация порождения текстов и большие риски злоупотреблений

все публикации

Как дети учатся говорить

Освоение языка на уровне родного происходит до 6–7 лет

Что такое геймерский жаргон и как он вышел за пределы игрового мира

«Заспавнил мобов» и «затащил катку» в переводе на русский литературный

«Живи себе нормальненько!»

Лингвист Ирина Левонтина — о языковой эволюции нормальности

Что подарить человеку читающему? Пять книг о языках и текстах

Языки можно учить, изучать и использовать для дела и удовольствия

Что означали эти слова в позднесоветскую эпоху?

Вспоминаем реалии прошлого, которые ушли из нашей жизни вместе с их названиями

Сергей Татевосов: «Наш язык — организм с прекрасной системой пищеварения»

Как меняется русский язык? Лингвисты по просьбе Грамоты рассказывают о главных трендах

Супер, гипер, мега и другие: найдите десять отличий в значении приставок

Есть ли что-то общее у Супермена с суперпозицией, а у гипертекста — с гипермаркетом

Леонид Крысин: «Это было изучение всех ипостасей русского языка»

Лингвист рассказал порталу Arzamas о своей жизни и о том, зачем заниматься наукой

Фекла Толстая: «Язык становится разнообразнее»

Как меняется русский язык? Наши друзья и партнеры рассказывают о главных трендах

«Вы» с прописной буквы — правило устарело?

За подчеркнутой вежливостью может скрываться пассивная агрессия

Слово как оружие: фэнтези о тайной библиотеке и волшебной печатной машинке

В издательстве «МИФ» вышел перевод книги Карстена Хенна «Золотая печатная машинка»

Проявленность: следующий шаг после «быть собой»

В языке поп-психологии у осознанности появилась пара

«Академос» — орфографический ресурс, а не словарь новых слов

Сотрудники Института русского языка имени В. В. Виноградова рассказали о задачах онлайн-ресурса

Сигма: независимый одиночка

Как песня в исполнении двух юных девушек прославила новый тип мужчины

Лингвист Игорь Мельчук вспоминает о жизни и науке середины XX века

Ведущие подкаста «Глагольная группа» анонсировали серию разговоров со знаменитым ученым

Слоп: низкокачественный ИИ-контент

Когда нейросети засоряют интернет-пространство бессмысленными «помоями»

Федор Успенский: «Меня раздражает, когда привычные вещи, на которых я вырос, начинают меняться»

Как меняется русский язык? Лингвисты по просьбе Грамоты рассказывают о главных трендах

Ред-флаг: предупреждение об опасности

Тревожные звоночки еще можно игнорировать, а от красных флагов лучше сразу бежать

Пупупу: новое междометие

Реакция на негатив, задумчивость и принятие неизбежного

Промпт: запрос к языковой модели

С новыми технологиями в нашем активном лексиконе появляются и новые слова

1/6
Большой универсальный словарь русского языка (2 тома)
1 — 4 классы
Морковкин В.В., Богачева Г.Ф., Луцкая Н.М.
4.3
Подробнее об издании
Купить на маркетплейсах:
Назовите ваше слово года!
Какие новые слова в 2025 году прочно вошли в вашу речь? На какие вы обратили внимание, какие стали чаще слышать вокруг? Участвуйте в выборе «Слова года» по версии Грамоты.
Отправить
Спасибо!
Мы получили ваш ответ и обязательно учтем его при составлении списка слов-кандидатов
Читать Грамоту дальше
Новые публикации Грамоты в вашей почте
Неверный формат email
Подписаться
Спасибо,
подписка оформлена.
Будем держать вас в курсе!