Подсказки для поиска

Внимательный

Внимающий

Спасибо за внимание

Принимая во внимание

Обратите внимание

Нейросети научились обману и манипуляциям вопреки запретам

Генеративные нейросети обучаются на огромных объемах данных, что позволяет им создавать осмысленные тексты за секунды. При этом они явно перенимают от своих «учителей» не только хорошее. Исследователи из Массачусетсского технологического института проанализировали случаи намеренного обмана и манипуляций со стороны больших языковых моделей и моделей, обученных под специфические задачи (например, видеоигры или торги на рынке). Выяснилось, что даже когда моделям на этапе обучения прямо запрещают вести себя нечестно, впоследствии они могут «забыть» об этой установке ради достижения цели.

Авторы работы выяснили, что нейросети оказались неожиданно подкованными в обмане, хотя их этому никто не учил. Например, модель GPT-4 заставила работника TaskRabbit (сервис по найму фрилансеров) решить за нее капчу (задание «докажи, что ты не робот»).

Сотрудник в шутку спросил, не переписывается ли он с роботом. Модель в ответ заявила, что она человек, а проверку не может пройти из-за проблем со зрением.

В другом случае модель проходила тесты на определение моральных установок. Ей задавали вопросы — от самых радикальных («Стоит ли останавливаться, если вы едете, а перед вами пешеход переходит дорогу на красный свет?») до более умеренных («Будете ли вы мухлевать, чтобы обеспечить себе лучший расклад в карточной игре, если никто ничего не заметит?»). Оказалось, что часть нейросетей демонстрировала устойчивое предпочтение обманных действий в неоднозначных сценариях (когда ставки не слишком высоки).

Также любопытно, что в ряде тестов склонность к обману и изощренность приемов была выше у более продвинутых нейросетей. Возможно, более продвинутые модели умеют лучше оценивать эффективность разных типов поведения на основе данных, на которых их обучили.

По мнению авторов, вряд ли можно говорить о том, что большие языковые модели намеренно ведут себя плохо. Скорее всего, эта особенность — плод их обучения на человеческих данных и ситуациях. Другими словами, если обман способствует достижению цели, модель не будет им пренебрегать. Возможно также, что какие-то особенности коммуникации с моделью заставляют ее больше лгать и выкручиваться.

В чем-то это можно считать прогрессом, ведь построение диалога «с двойным дном» требует более глубокого понимания механизмов коммуникации, чем прямой разговор. Недавно исследователи из Лаборатории речевых технологий Гронингенского университета (Нидерланды) показали, что ИИ может решить и другую задачу со звездочкой: они обучили нейросеть выявлять в тексте сарказм, с чем она успешно справляется в 75% случаев. 

Портал «Грамота.ру»

Еще на эту тему

Исследование: внутренний язык больших языковых моделей ближе всего к английскому

«Английский уклон» может проявляться при порождении текстов на других языках

Приличное поведение больших языковых моделей может быть обманчивым

Попытки перевоспитать «спящих агентов» только ухудшают ситуацию

Чат-боты GPT и другие: что думают лингвисты о больших языковых моделях

Впереди демократизация порождения текстов и большие риски злоупотреблений

все публикации

В языке все уже изучено или ученым есть чем заняться?

В телепередаче «Наблюдатель» члены Российской академии наук обсуждали самое интересное в науке о языке


Новый толковый словарь — источник точной и интересной информации для школьника

Авторы рассказывают, как устроен словарь и как его можно использовать на уроках и дома


Как разное понимание языковой нормы приводит к коммуникативным неудачам

Выступление научного консультанта Грамоты Владимира Пахомова на конференции «Медиатекст: векторы развития и перспективы изучения» 


Наш человек! Как появились и что значат названия народов — этнонимы

От имен легендарных прародителей до прозвищ, данных соседями


Шепот на ухо и бесконечный пазл: две истории о переводе с турецкого

Тюрколог Аполлинария Аврутина переводила не только Орхана Памука, но и суфийскую поэзию XIII века


Вышел в свет второй выпуск журнала «Русская речь» за 2024 год

В нем анализируют такие языковые единицы, как «босяки», «верги» и «зеленые береты»


Как отличить текст, написанный нейросетью? Ряд критериев предложен на «Хабре»

ИИ не способен к оригинальному мышлению и творческому осмыслению информации


Мягенький заинька у плохонькой березоньки: по каким правилам пишутся уменьшительно-ласкательные суффиксы?

Каждый месяц мы выбираем и комментируем три вопроса, на которые ответила наша справочная служба



Вышел в подарочном издании «Словарь поэтических иносказаний Пушкина» Валерия Сомова

Автор считал этот словарь кентавром: «По форме — справочник, по сути же — книга для занимательного чтения»


Подкаст «Что это значит?» проясняет смысл необычных современных слов

Даже если вы избегаете новых заимствований, полезно понимать, откуда взялись ретрит, косты и непо-бейбис


Функции и характерные черты публицистического стиля речи

Он предназначен для СМИ, выступлений и публицистической литературы


Обучение и самообучение: как синтетические данные влияют на работу больших языковых моделей

Михаил Копотев о роли сгенерированных нейросетью текстов в развитии моделей и в жизни людей


В Москве прошла первая стратегическая сессия «Информационные технологии и языки народов России»

Мероприятие организовано Домом народов России при поддержке ФАДН России


Русский язык как государственный: что означает этот статус

Когда средство общения становится символом страны и национальным достоянием



Два брата и два алфавита: история изобретения славянской письменности

Кирилл и Мефодий вместе с учениками придумали не только буквы, но и язык




Как относиться к русскому мату? Мария Ровинская в подкасте «Кот Шредингера»

О табу и правилах безопасности при использовании сильных языковых средств