Ключевые слова в научных статьях, монографиях и других текстах нужны для того, чтобы потом по этим словам публикация могла быть отнесена к определенной теме и нашлась в поиске. Было бы удобно «вычислять» ключевые слова с помощью нейросетевых алгоритмов, которые автоматически прочитывают текст и определяют, о чем там идет речь. Сейчас подходы к определению ключевых слов в основном строятся на выделении их из текста. Однако в этом ...
...и словосочетаний нейросеть, большая языковая модель...
...Они использовали модель mT5, которая хорошо зарекомендовала...
Новое исследование, опубликованное в журнале Frontiers in Psychology, выявило серьезные ограничения современных языковых моделей в понимании метафорического языка. Специалисты протестировали ChatGPT-4 на анализе четырех ключевых политических речей Дональда Трампа, произнесенных с середины 2024 по начало 2025 года, включая выступления после покушения и по случаю победы на выборах, инаугурационную речь и обращения к Конгрессу. Модели ...
...Вашингтон — это ужасное поле боя» модель...
...Модель также склонна видеть метафоры там, где было...
...Модель либо не распознавала образы вообще, либо...
Зоны мозга, связанные с обработкой речи, почти не «подают голос», когда мы читаем грамматически простые и понятные предложения. Однако их активность возрастает, когда мы продираемся сквозь сложный текст. Но насколько сложным он должен быть? Исследователи из Массачусетского технологического института решили проверить, как речевые зоны реагируют на фразы разной сложности. Для начала они выбрали 1000 предложений из художественной литературы, расшифровок устной речи, текстов ...
...На этих данных исследователи обучили другую модель...
... После обучения модель кодирования могла предсказать...
...Затем исследователи использовали модель кодирования...
Большие языковые модели — нейросети, способные порождать тексты на естественном языке, — обычно обучаются на текстах. Ключевое отличие обучения таких программ от обучения людей заключается в том, что люди овладевают языком, не прибегая к использованию таких колоссальных объемов однородных данных. При этом программы еще и допускают нелепые (с нашей точки зрения) ошибки. Один из альтернативных подходов — позволить машинам учиться так, как учатся ...
...Они разработали модель, получившую название DenseAV...
...Модель также не была предварительно обучена на каких-либо...
...Интересно, что модель «опознавала» собаку...
Языковеды давно спорят о том, насколько уникальны элементы, составляющие основу человеческой речи. В последние годы появляется всё больше аргументов в пользу того, что речеподобные структуры есть и у других видов. Так, исследования бенгальских вьюрков показывают, что в их пении действуют определенные правила построения последовательностей звуков, которые напоминают базовые принципы человеческой грамматики. Вьюрки не просто издают случайные звуки — их песни состоят из ...
...Обученная модель должна была правдоподобно имитировать...
...Это стало возможным благодаря тому, что модель сумела...
...«Интересно, что одна и та же модель способна...
Исследователи из Массачусетского технологического института (MIT) нашли объяснение так называемого U-образного эффекта, который характерен для больших языковых моделей вроде ChatGPT. Суть этого эффекта в том, что модели обрабатывают разные части текста с разной точностью. Чем дальше от центра текста, тем точность выше (отсюда и название — график точности имеет спад в центре, отчего становится похож на букву U). Что это означает? Например, если модели нужно ...
...Такой же эффект возникает, когда модель обобщает...
...находятся в начале и в конце текста, модель...
...(например, обучающие тексты, инструкции, статьи), модель...
В 2023 году специалисты в области нейросетевых вычислений Илья и Захар Шумайловы описали явление, которое они назвали «коллапс модели». Под коллапсом модели авторы понимают процесс «вырождения», затрагивающий несколько поколений генеративных моделей, в ходе которого сгенерированные данные снова и снова загрязняют ту выборку, на котором обучается следующее поколение моделей. В недавней статье, опубликованной в журнале Nature, они ...
...Вначале они обучили большую языковую модель (LLM) на...
...статьях из Википедии, а затем попросили модель...
...С каждым разом модель делала свою работу все хуже...
Генеративные нейросети обучаются на огромных объемах данных, что позволяет им создавать осмысленные тексты за секунды. При этом они явно перенимают от своих «учителей» не только хорошее. Исследователи из Массачусетсского технологического института проанализировали случаи намеренного обмана и манипуляций со стороны больших языковых моделей и моделей, обученных под специфические задачи (например, видеоигры или торги на рынке). Выяснилось, что даже когда моделям на этапе ...
...Например, модель GPT-4 заставила работника TaskRabbit...
...Модель в ответ заявила, что она человек, а ...
...словами, если обман способствует достижению цели, модель...
Со второй половины 2010-х годов компьютерные языковые модели совершили революцию в обработке текстов. Они научились осмысленно отвечать на вопросы, делать переводы, писать рассказы и даже романы. Лингвисты восприняли эту революцию неоднозначно: кто-то — с оптимизмом, а кто-то — со скепсисом.
...Со второй половины 2010-х годов компьютерные языковые...
...Главный из них — опора на контекст: модель запоминает...
...При этом модель все равно оперирует вероятностями &...
...— Модель принимает все как равноправное....
Большинство нейросетевых языковых моделей обучаются на огромных массивах данных — в основном англоязычных, так как текстов на этом языке больше всего. При этом модели — если их дообучить — вполне могут генерировать тексты на других языках и делать переводы на эти языки, несмотря на то, что данных на этих языках, пригодных для обучения моделей, значительно меньше. Языковым моделям удается обходить эти ограничения благодаря тому, что они используют ...
...Языковая модель Llama-2 с открытым исходным кодом...
...Влияние этого «внутреннего» языка, который модель...
...Английская языковая картина мира может влиять на то, как модель...