RUS  ENG
Полная версия
ЖУРНАЛЫ // Информатика и её применения // Архив

Информ. и её примен., 2019, том 13, выпуск 3, страницы 90–96 (Mi ia614)

Эта публикация цитируется в 2 статьях

Архитектура системы нейронного машинного перевода

В. А. Нуриев

Институт проблем информатики Федерального исследовательского центра «Информатика и управление» Российской академии наук

Аннотация: Описывается архитектура системы нейронного машинного перевода. Актуальность объекта исследования обусловлена тем, что сейчас доминирующей парадигмой в области автоматизированного перевода стал машинный перевод с использованием искусственных нейронных сетей. Качество нейронного перевода в значительной мере превосходит результаты, обеспечиваемые предыдущим поколением машинных переводчиков, однако и оно все еще далеко отстоит от качества переводов, выполненных человеком-экспертом. Для его улучшения необходимо более четкое понимание устройства системы нейронного машинного перевода. В общем случае архитектура системы нейронного машинного перевода включает в себя две рекуррентные нейронные сети (РНС), одна из которых ответственна за обработку входной текстовой последовательности, а другая — за формирование выходного текста-перевода. Часто в систему также встраивается механизм внимания, позволяющий оптимизировать работу с протяженными входными последовательностями. Архитектура системы описывается на примере переводного сервиса Google (translate.google.com, Google's Neural Machine Translation system, GNMT), так как он стал одним из самых востребованных в мире на данный момент: ежедневно сервис обрабатывает около 143 млрд слов более чем на 100 языках. В заключение формулируются некоторые перспективы исследования.

Ключевые слова: нейронный машинный перевод, искусственные нейронные сети, рекуррентные нейронные сети, механизм внимания, архитектура системы машинного перевода, Google's Neural Machine Translation system.

Поступила в редакцию: 30.06.2019

DOI: 10.14357/19922264190313



© МИАН, 2024