RUS  ENG
Полная версия
ЖУРНАЛЫ // Записки научных семинаров ПОМИ // Архив

Зап. научн. сем. ПОМИ, 2024, том 540, страницы 276–350 (Mi znsl7555)

Применения больших языковых моделей для задач порождения и обработки программного кода

В. М. Ломшаковa, С. И. Николенкоab

a Санкт-Петербургское отделение Математического института им. В. А. Стеклова РАН, Санкт-Петербург, Россия
b Университет ИТМО, Санкт-Петербург, Россия

Аннотация: В последние годы большие языковые модели (Large Language Models, LLM) существенно изменили подходы к автоматизации программирования, предоставляя мощные инструменты для порождения, исправления и оптимизации кода. В настоящем обзоре мы рассматриваем методы адаптации LLM к задачам программирования, включая обучение с подкреплением на основе человеческих предпочтений (RLHF), дообучение следованию инструкциям (instruction tuning), адаптивные подходы (PEFT) и эффективные стратегии промптинга (prompting). Мы систематизируем современные методы дообучения и применения моделей, обсуждаем их преимущества и ограничения, рассматриваем актуальные датасеты для задача порождения и исправления кода и метрики их оценивания, а также описываем передовые модели с открытыми весами для работы с кодом. Библ. – 145 назв.

Ключевые слова: большие языковые модели, порождение программного кода, обучение с подкреплением, обучение следованию инструкциям, LLM-агенты.

Поступило: 15.11.2024



© МИАН, 2025