RUS  ENG
Полная версия
ЖУРНАЛЫ // Доклады Российской академии наук. Математика, информатика, процессы управления // Архив

Докл. РАН. Матем., информ., проц. упр., 2024, том 520, номер 2, страницы 193–215 (Mi danma600)

СПЕЦИАЛЬНЫЙ ВЫПУСК: ТЕХНОЛОГИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И МАШИННОГО ОБУЧЕНИЯ

О модификациях функции потерь для каузального физически-обусловленного обучения нейронных сетей

В. А. Еськинab, Д. В. Давыдовbc, Е. Д. Егороваde, А. О. Мальхановe, М. А. Ахуковb, М. Е. Сморкаловef

a Национальный исследовательский Нижегородский государственный университет им. Н. И. Лобачевского
b ООО "МПГ АйТи Солюшнз", Нижний Новгород
c Институт проблем машиностроения РАН, Нижний Новгород
d Институт прикладной физики Российской академии наук, Нижний Новгород, Россия
e Нижегородский исследовательский институт Huawei, Нижний Новгород, Россия
f Сколковский институт науки и технологий, Москва, Россия

Аннотация: Представлен метод, позволяющий свести задачу, описываемую дифференциальными уравнениями с начальными и граничными условиями, к задаче, описываемой только дифференциальными уравнениями, которые инкапсулируют начальные и граничные условия. Благодаря этому становится возможным представить функцию потерь физически-обусловленного обучения нейронных сетей (PINNs) в виде одного члена, связанного с модифицированными дифференциальными уравнениями. Таким образом, устраняется необходимость в подборе масштабных коэффициентов для членов функции потерь, связанных с граничными и начальными условиями. Были изменены взвешенные функции потерь, учитывающие каузальную связь, и получены новые взвешенные функции потерь, основанные на обобщенных функциях. Для ряда задач были проведены численные эксперименты, демонстрирующие точность предложенных подходов. Представлена архитектура нейронной сети для уравнения Кортевега–де Вриза, которая более подходит для рассматриваемой задачи, чем полносвязная нейронная сеть, и демонстрирует превосходную экстраполяцию решения в пространственно-временной области, выходящей за рамки области обучения нейронной сети.

Ключевые слова: глубокое обучение, нейронные сети, основанные на физике, уравнения в частных производных, прогнозирующее моделирование, вычислительная физика, нелинейная динамика.

УДК: 004.8

Поступило: 27.09.2024
Принято к публикации: 02.10.2024

DOI: 10.31857/S2686954324700565


 Англоязычная версия: Doklady Mathematics, 2024, 110:suppl. 1, S172–S192

Реферативные базы данных:


© МИАН, 2025