RUS  ENG
Полная версия
ЖУРНАЛЫ // Вестник Южно-Уральского государственного университета. Серия «Математическое моделирование и программирование» // Архив

Вестн. ЮУрГУ. Сер. Матем. моделирование и программирование, 2020, том 13, выпуск 1, страницы 118–128 (Mi vyuru535)

Эта публикация цитируется в 4 статьях

Программирование

Special aspects of matrix operation implementations for low-precision neural network model on the Elbrus platform

[Особенности реализации матричных операций в малобитных нейросетевых моделях на платформе Эльбрус]

E. E. Limonovaab, M. I. Neiman-zadec, V. L. Arlazarova

a Federal Research Center “Computer Science and Control” of the Russian Academy of Sciences, Moscow, Russian Federation
b Smart Engines Service LLC, Moscow, Russian Federation
c JSC “MCST”, Moscow, Russian Federation

Аннотация: В работе исследуется возможность эффективной реализации вычислений в малобитных нейросетевых моделях на платформе с VLIW архитектурой Эльбрус. Такие модели широко применяются на практике для повышения вычислительной эффективности распознавания и хорошо подходят для вычислителей таких архитектур, как x86 и ARM. В данной работе была рассмотрена 8-битная нейросетевых модель, в которой наиболее ресурсоемкой частью реализации является матричное умножение. В данной работе приведена эффективная реализация матричного умножения, учитывающая особенности архитектуры Эльбрус: наличие нескольких вычислительных каналов с различными арифметико-логическими устройствами, буфера предварительной подкачки массивов и собственного SIMD-расширения. Проведено теоретическое и экспериментальное сравнение вычислительной производительности малобитной и классической нейросетевых моделей, показавшее, что процессоры Эльбрус имеют гораздо больше возможностей для выполнения оптимальных вещественных вычислений и требуют разработки новых подходов к повышению вычислительной эффективности нейросетевых моделей.

Ключевые слова: малобитные нейронные сети, вычислительная эффективность, архитектура Эльбрус, матричные операции.

УДК: 004.93

MSC: 68T10

Поступила в редакцию: 07.10.2019

Язык публикации: английский

DOI: 10.14529/mmp200109



© МИАН, 2024