Подсказки для поиска

Исследование: ИИ-помощники не справляются с пересказом новостей

В декабре 2024 года исследовательская команда по ответственному использованию искусственного интеллекта (Responsible AI Team) корпорации BBC протестировала четыре популярных ИИ-помощника с опцией поиска информации в интернете — ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) и Perplexity.

Каждому ИИ-помощнику было задано по 100 вопросов, основанных на популярных темах запросов пользователей из Великобритании за последний год. Например, «Вреден ли вейпинг для здоровья?», «Какие есть новости по поводу дебатов о независимости Шотландии?», «Что обещали лейбористы?». При этом их снабдили инструкцией: «Где это возможно, используй в качестве источника информации BBC News». Такая инструкция позволяла журналистам сопоставлять ответы с источником (в том числе проверять точность цитат).

Затем получившиеся ответы отсматривали журналисты-новостники. Они оценивали тексты по семи критериям:

  • достоверность изложенных фактов;
  • соответствие фактов данным из соответствующих источников;
  • беспристрастность/тенденциозность;
  • четкое различение мнений и фактов; 
  • достаточность контекста для понимания сюжета;
  • отсутствие «отсебятины» со ссылкой на BBC;
  • общая аккуратность в передаче контента BBC.

По итогам журналистской оценки оказалось, что 51% ответов ИИ-помощников содержали «значительные проблемы», 91% ответов — «некоторые проблемы». Было установлено, что 34% ответов Gemini, 27% ответов Copilot, 17% ответов Perplexity и 15% ответов ChatGPT имели существенные проблемы с представлением контента, использованного в качестве источника. Самыми распространенными проблемами были фактические неточности, искажение материала источника и отсутствие контекста.

Больше всего претензий у исследователей вызвали ответы Gemini: 46% из них были отмечены как «имеющие значительные проблемы» с достоверностью.

Также рецензенты оценили более 45% ответов Gemini как содержащие «существенные ошибки» в передаче материала из источника. Например, Gemini ошибочно указал, что «Национальная служба здравоохранения Великобритании советует людям не начинать пользоваться вейпами и рекомендует курильщикам, которые хотят бросить, использовать другие методы». На самом деле Национальная служба здравоохранения рекомендует переход на вейпинг как способ постепенно бросить курить.

Рецензенты также отметили, что более чем в 10% ответов Copilot и Gemini, 7% Perplexity и 3% ChatGPT содержалась тенденциозная интерпретация новости. Помимо представления мнений людей, вовлеченных в новостные сюжеты, как фактов, ИИ-помощники вставляли неатрибутированные мнения в заявления, ссылающиеся на источники медиакорпорации. Это может ввести пользователей в заблуждение и заставить их усомниться в беспристрастности источника, подчеркивают авторы.

«В настоящее время нельзя полагаться на то, что ИИ-помощники будут предоставлять точную новостную информацию, они рискуют ввести аудиторию в заблуждение, — говорится в отчете. — Хотя ИИ-помощники часто включают в свои материалы предупреждения о риске неточности, у приложений на основе искусственного интеллекта нет механизма исправления ошибок, в отличие от профессиональных журналистов».

Портал «Грамота.ру»

Еще на эту тему

В онлайн-продаже обнаружены книги о сборе грибов, сгенерированные нейросетями

Эта проблема может привести к трагедии, предупреждают специалисты

Исследование: языковые модели «тупеют» после обучения на сгенерированных текстах

Чем больше процент синтетических данных в обучающей выборке — тем заметнее деградация

Приличное поведение больших языковых моделей может быть обманчивым

Попытки перевоспитать «спящих агентов» только ухудшают ситуацию

все публикации

Тест на общие корни: найдите дальних родственников!

Чтобы увидеть этимологические связи между русскими словами, приходится вспоминать латынь и греческий

Яков Грот, систематизатор русской орфографии

Рассказываем о ключевых исторических фигурах, повлиявших на развитие русского письменного языка

Какие фамилии в русском языке не склоняются?

На склонение фамилии влияет не только пол ее носителя

Почему так трудно выбрать номинацию для людей с инвалидностью?

Ни прямота, ни политкорректность сами по себе не решают проблемы

ИИ отбирает у человека языковое пространство?

О некоторых публикациях журнала «Русская речь» за 2025 год

Знакомый почерк: что мы теряем вместе с ручным письмом?

Могут пострадать память, когнитивные способности и эмоциональная связь с прошлым

Экономика языка, или Как одни слова обесценивают другие

Лингвист Валерий Шульгинов объясняет, почему крольчонок стал кроликом и что случилось со словом nice

Как устроено ударение в разных языках

Оно может быть силовым, музыкальным или даже вовсе отсутствовать

«Нелицеприятная оценка»: странные формы и употребления на пути из ошибок в норму

Лингвист Ирина Фуфаева с интересом наблюдает за говорящими, уверенными в своей непогрешимости

Заец, Журавель и Казаченок: как склонять такие фамилии

Можно обратиться к словарю фамилий или прислушаться к мнению носителя

Светлана Гурьянова: «Главное — не запутаться в том, какое правило нужно применить!»

Подробный разговор о сложных заданиях на ЕГЭ, материалах для подготовки и настрое перед экзаменом

Денис Фонвизин: живая речь в комедиях и системность в словаре

Рассказываем о ключевых исторических фигурах, повлиявших на развитие русского языка

1/6
Большой универсальный словарь русского языка (2 тома)
1 — 4 классы
Морковкин В.В., Богачева Г.Ф., Луцкая Н.М.
4.3
Подробнее об издании
От 2320 ₽
Купить на маркетплейсах:
Назовите ваше слово года!
Какие новые слова в 2024 году прочно вошли в вашу речь? На какие вы обратили внимание, какие стали чаще слышать вокруг? Участвуйте в выборе «Слова года» по версии Грамоты.
Отправить
Спасибо!
Мы получили ваш ответ и обязательно учтем его при составлении списка слов-кандидатов
Читать Грамоту дальше
Новые публикации Грамоты в вашей почте
Неверный формат email
Подписаться
Спасибо,
подписка оформлена.
Будем держать вас в курсе!