Чем сгенерированные тексты отличаются от написанных человеком
Всё чаще можно слышать, что большие языковые модели вроде ChatGPT «пишут как люди». На первый взгляд их способность имитировать нашу речь действительно потрясает. Но более пристальный научный анализ все же выявляет различия.
Научная группа из Университета Карнеги — Меллона (США) проверила с помощью методов корпусного анализа, насколько созданные человеком тексты отличаются от текстов в тех же жанрах и стилях, но созданных языковыми моделями (LLM).
Исследователи сформировали датасет из текстов, написанных людьми. Были отобраны тексты в разных жанрах — от записей разговорной речи (например, подкастов) до новостных заметок, статей в журналах и научных работ.
На основе отрывков из этих текстов (объемом по 500 слов каждый) шесть языковых моделей — GPT-4o, GPT-4o Mini, Meta Llama 3 8B, 70B, 8B Instruct и 70B Instruct — сгенерировали похожие образцы. Для каждого текста, написанного человеком, авторы получили по шесть образцов от LLM.
Для дальнейшего анализа были сформированы два корпуса текстов: параллельный корпус, состоящий из созданных людьми и сгенерированных моделями в ходе первого этапа эксперимента текстов, и большой корпус текстов на английском языке, включающий около миллиарда слов в различных жанрах. Второй — большой — был нужен, чтобы оценить, насколько результаты анализа, полученные на небольшой выборке текстов, согласуются с данными большого корпуса.
Затем тексты оценили с помощью методики американского лингвиста Дугласа Бибера по 66 критериям, среди которых лексическая сложность, средняя длина слова, использование номинализаций (существительных, образованных от прилагательных или глаголов, таких как проживание или надежность), пассивного залога, хеджей (языковых единиц, которые делают высказывание более расплывчатым, — нечто вроде, по всей видимости), клаузальной координации (соединение двух или более самостоятельных предложений в одно с помощью сочинительных союзов) и т. д.
Опираясь на эти характеристики, исследователи поставили компьютерному алгоритму-классификатору задачу распределить тексты по двум группам: человеческие и машинно-сгенерированные. Только 4,2% текстов, созданных LLM, были ложно классифицированы как написанные человеком, и только 9,8% человеческих текстов были ложно классифицированы как написанные LLM.
LLM значительно чаще людей использовали причастные конструкции, придаточные предложения с that (это, этот) в качестве подлежащего, отглагольные существительные и другие конструкции, характерные для информационно плотного стиля письма.
При этом сами модели отличались друг от друга, имели свой узнаваемый (по крайней мере для стастических инструментов) «почерк». Так, Llama 3 почему-то питала особенную «любовь» к таким не самым частотным словам, как camaraderie (товарищество) и palpable (осязаемый). В целом словоупотребление моделей часто указывало на предпочтение «грандиозных, хотя и пустых» обобщающих фраз, говорится в работе.
Таким образом, хотя отличить сгенерированные тексты на глаз становится все труднее, строгий статистический анализ пока хорошо справляется с этим. И есть даже предположения, почему тексты моделей выглядят именно так. Различия в стиле обусловлены не только выбором текстов для обучения, но и настройкой моделей с помощью инструкций в ходе обучения, считают авторы.
Было показано, что комплексная методика корпусного анализа текстов хорошо справляется с выявлением машинно-сгенерированных текстов. А это значит, ее потенциально можно использовать при проверке письменных работ или научных статей.
Еще на
эту тему
Языковые модели оказались хорошими помощниками в написании рассказов — но не для всех
В способности к творчеству моделям пока далеко до человека
Как отличить текст, написанный нейросетью? Ряд критериев предложен на «Хабре»
ИИ не способен к оригинальному мышлению и творческому осмыслению информации
Исследование: внутренний язык больших языковых моделей ближе всего к английскому
«Английский уклон» может проявляться при порождении текстов на других языках