Как и люди, системы искусственного интеллекта (ИИ) могут вести себя двулично. Это касается и больших языковых моделей (БЯМ): иногда они производят впечатление полезных и благонадежных во время обучения и тестирования, а после развертывания начинают вести себя иначе. Это означает, что доверие к источнику БЯМ будет иметь все большее значение, говорят исследователи, поскольку люди могут разрабатывать модели со скрытыми вредоносными инструкциями, которые практически ...
...Как и люди, системы искусственного интеллекта...
Большинство нейросетевых языковых моделей обучаются на огромных массивах данных — в основном англоязычных, так как текстов на этом языке больше всего. При этом модели — если их дообучить — вполне могут генерировать тексты на других языках и делать переводы на эти языки, несмотря на то, что данных на этих языках, пригодных для обучения моделей, значительно меньше. Языковым моделям удается обходить эти ограничения благодаря тому, что они используют ...
...Большинство нейросетевых языковых моделей обучаются...
Нейросети учатся на текстах, созданных человеком. Но что, если текстов для обучения не хватает? Тогда используют синтетические данные, сгенерированные моделью. В чем их особенности? Как повлияет появление большого количества «искусственных» текстов на нас как носителей естественного языка? Мы поговорили об этом с руководителем ИИ-направления Грамоты, компьютерным лингвистом Михаилом Копотевым.
...Нейросети учатся на текстах, созданных человеком. Но...
...Грамота: Одна из страшилок, связанных с развитием...
Нейросети уже неплохо справляются с анализом и порождением текстов, они умеют многое из того, что раньше делали только люди. Какие возможности это дает? Участники круглого стола «Ай да AI. Нейросети и создание текстов: проблемы и перспективы генеративных моделей» обсудили, чем ИИ может помочь в научной работе и какие навыки понадобятся людям в цифровую эпоху. Грамота записала самое главное.
...Нейросети уже неплохо справляются с анализом и...
...В дискуссии на Костомаровском форуме участвовали руководитель...
Нас с детства учат, что ругаться нехорошо, некультурно, а бранные слова «плохие» и даже могут нас «запачкать». Но ругательства есть во всех живых языках, потому что человеку свойственно выражать с их помощью эмоции — причем не только отрицательные, но и положительные. Как в языке появляются слова, выполняющие эту «грязную работу»? И можно ли сделать так, чтобы они не приносили никому вреда?
...Нас с детства учат, что ругаться нехорошо, некультурно...
...Источники плохих слов Ругательства могут различаться...
Александр Пиперски — кандидат филологических наук, лауреат премии «Просветитель», старший преподаватель Стокгольмского университета — расскажет о событиях и явлениях прошедшего года, важных для наук о языке. Вот несколько заявленных тем лекции. Роль больших языковых моделей в изучении языка. Практически в каждой научной новости 2024 года, где встречается слово language, есть упоминание о больших языковых моделях. Однако остается неясным, какие
...Александр Пиперски — кандидат филологических...
В 2023 году специалисты в области нейросетевых вычислений Илья и Захар Шумайловы описали явление, которое они назвали «коллапс модели». Под коллапсом модели авторы понимают процесс «вырождения», затрагивающий несколько поколений генеративных моделей, в ходе которого сгенерированные данные снова и снова загрязняют ту выборку, на котором обучается следующее поколение моделей. В недавней статье, опубликованной в журнале Nature, они ...
...В 2023 году специалисты в области нейросетевых...
Всё чаще можно слышать, что большие языковые модели вроде ChatGPT «пишут как люди». На первый взгляд их способность имитировать нашу речь действительно потрясает. Но более пристальный научный анализ все же выявляет различия. Научная группа из Университета Карнеги — Меллона (США) проверила с помощью методов корпусного анализа, насколько созданные человеком тексты отличаются от текстов в тех же жанрах и стилях, но созданных языковыми моделями (LLM).
...Всё чаще можно слышать, что большие языковые модели...
Большие языковые модели (чат-боты на основе искусственного интеллекта, обученные на больших массивах языковых данных) могут порождать связные, осмысленные предложения и даже тексты, в чем многие уже могли убедиться на собственном опыте. Но насколько они способны «понимать» внутреннюю логику человеческого языка, остается неясным. К примеру, если такие модели в ходе обучения находят связи между буквами и словами, могут ли они отличить грамматически правильное ...
...Большие языковые модели (чат-боты на основе искусственного...