Подсказки для поиска

Внимательный

Внимающий

Спасибо за внимание

Принимая во внимание

Обратите внимание

Исследование: ИИ-помощники не справляются с пересказом новостей

В декабре 2024 года исследовательская команда по ответственному использованию искусственного интеллекта (Responsible AI Team) корпорации BBC протестировала четыре популярных ИИ-помощника с опцией поиска информации в интернете — ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) и Perplexity.

Каждому ИИ-помощнику было задано по 100 вопросов, основанных на популярных темах запросов пользователей из Великобритании за последний год. Например, «Вреден ли вейпинг для здоровья?», «Какие есть новости по поводу дебатов о независимости Шотландии?», «Что обещали лейбористы?». При этом их снабдили инструкцией: «Где это возможно, используй в качестве источника информации BBC News». Такая инструкция позволяла журналистам сопоставлять ответы с источником (в том числе проверять точность цитат).

Затем получившиеся ответы отсматривали журналисты-новостники. Они оценивали тексты по семи критериям:

  • достоверность изложенных фактов;
  • соответствие фактов данным из соответствующих источников;
  • беспристрастность/тенденциозность;
  • четкое различение мнений и фактов; 
  • достаточность контекста для понимания сюжета;
  • отсутствие «отсебятины» со ссылкой на BBC;
  • общая аккуратность в передаче контента BBC.

По итогам журналистской оценки оказалось, что 51% ответов ИИ-помощников содержали «значительные проблемы», 91% ответов — «некоторые проблемы». Было установлено, что 34% ответов Gemini, 27% ответов Copilot, 17% ответов Perplexity и 15% ответов ChatGPT имели существенные проблемы с представлением контента, использованного в качестве источника. Самыми распространенными проблемами были фактические неточности, искажение материала источника и отсутствие контекста.

Больше всего претензий у исследователей вызвали ответы Gemini: 46% из них были отмечены как «имеющие значительные проблемы» с достоверностью.

Также рецензенты оценили более 45% ответов Gemini как содержащие «существенные ошибки» в передаче материала из источника. Например, Gemini ошибочно указал, что «Национальная служба здравоохранения Великобритании советует людям не начинать пользоваться вейпами и рекомендует курильщикам, которые хотят бросить, использовать другие методы». На самом деле Национальная служба здравоохранения рекомендует переход на вейпинг как способ постепенно бросить курить.

Рецензенты также отметили, что более чем в 10% ответов Copilot и Gemini, 7% Perplexity и 3% ChatGPT содержалась тенденциозная интерпретация новости. Помимо представления мнений людей, вовлеченных в новостные сюжеты, как фактов, ИИ-помощники вставляли неатрибутированные мнения в заявления, ссылающиеся на источники медиакорпорации. Это может ввести пользователей в заблуждение и заставить их усомниться в беспристрастности источника, подчеркивают авторы.

«В настоящее время нельзя полагаться на то, что ИИ-помощники будут предоставлять точную новостную информацию, они рискуют ввести аудиторию в заблуждение, — говорится в отчете. — Хотя ИИ-помощники часто включают в свои материалы предупреждения о риске неточности, у приложений на основе искусственного интеллекта нет механизма исправления ошибок, в отличие от профессиональных журналистов».

Портал «Грамота.ру»

Еще на эту тему

В онлайн-продаже обнаружены книги о сборе грибов, сгенерированные нейросетями

Эта проблема может привести к трагедии, предупреждают специалисты

Исследование: языковые модели «тупеют» после обучения на сгенерированных текстах

Чем больше процент синтетических данных в обучающей выборке — тем заметнее деградация

Приличное поведение больших языковых моделей может быть обманчивым

Попытки перевоспитать «спящих агентов» только ухудшают ситуацию

все публикации

Лингвист Борис Иомдин рассказал в подкасте «Покажи язык» про язык как средство разобщения

Коммуникативные неудачи могут возникать из-за различий в возрасте и опыте

Михаил Острогорский требует от технических текстов понятности, однозначности и четкой структуры

Технический писатель — о коммуникативной задаче и языковых особенностях хорошей документации

Лингвист Александр Летучий написал книгу о сложностях русского синтаксиса

Автор показывает на примерах, как синтаксис связан с интонацией и со значением слов

Галифе, макинтош и лошадь Пржевальского: какие бывают эпонимы

Мария Елифёрова рассказывает об именах, которые прошли путь из собственных в нарицательные

Как сохранить нивхский и другие малые языки? Интервью лингвиста Павла Гращенкова

Языки ценны не только как культурное наследие, но и как источник данных для науки

Тест: что значило это слово во времена Екатерины II?

Проверьте, насколько хорошо вы понимаете русский язык XVIII века

Как появилось табу на имена животных, растений, духов и колдунов

Вышло переиздание классического труда этнографа Дмитрия Зеленина

«Ужастно симпотичный»: что такое гиперкоррекция и к каким ошибкам она приводит

За каждой ошибкой от старательности лежит правило, которое применили не к месту

Как учат иноязычных детей в разных странах мира

Каждый ребенок имеет право на образование — даже если он пока не знает языка, на котором говорят в школе

День борьбы с ненормативной лексикой: можно ли обойтись без мата?

Обсценная лексика есть во всех языках, но в русском она сильнее табуирована

Тест: выберите правильный пароним!

Похожие слова часто становятся источником путаницы и ошибок

1/6
Большой универсальный словарь русского языка (2 тома)
1 — 4 классы
Морковкин В.В., Богачева Г.Ф., Луцкая Н.М.
4.3
Подробнее об издании
От 2320 ₽
Купить на маркетплейсах:
Назовите ваше слово года!
Какие новые слова в 2024 году прочно вошли в вашу речь? На какие вы обратили внимание, какие стали чаще слышать вокруг? Участвуйте в выборе «Слова года» по версии Грамоты.
Отправить
Спасибо!
Мы получили ваш ответ и обязательно учтем его при составлении списка слов-кандидатов
Читать Грамоту дальше
Новые публикации Грамоты в вашей почте
Неверный формат email
Подписаться
Спасибо,
подписка оформлена.
Будем держать вас в курсе!