О сложности вычислений многомерной аппроксимации глубокими нейронными сетями ReLU


Просмотры: 66 / Загрузок PDF: 39

Авторы

  • Д. Зунг Вьетнамский национальный университет
  • В.К. Нгуен Университет транспорта и коммуникаций
  • М.С. Тао Университет Хонг Дык

Ключевые слова:

Глубокая нейронная сеть ReLU, вычислительная сложность, многомерное приближение, Пространство Гёльдера-Никольского смешанной гладкости

Аннотация

В статье исследуется вычислительная сложность глубоких нейронных сетей ReLU для аппроксимации функций в пространствах Гёльдера-Никольского со смешанной гладкостью $\Lad$ на единичном кубе $\IId:=[0,1]^d$. Для любой функции $f\in \Lad$, строятся неадаптивные и адаптивные глубокие нейронные сети ReLU, имеющие выходные сигналы, приближающие $f$ с заданной точностью $\varepsilon$, и доказывается, что оценки вычислительной сложности приближения, характеризующиеся размером и глубиной этой глубокой нейронной сети ReLU, зависят от $d$ и $\varepsilon$. Результаты показывают преимущество адаптивного метода аппроксимации глубокими нейронными сетями ReLU над неадаптивным методом.

Загрузки

Опубликован

2020-12-30

Как цитировать

Зунг D., Нгуен V., & Тао M. . (2020). О сложности вычислений многомерной аппроксимации глубокими нейронными сетями ReLU. Вестник Евразийского национального университета имени Л.Н. Гумилева. Серия Математика. Компьютерные науки. Механика, 133(4), 8–18. извлечено от https://bulmathmc.enu.kz/index.php/main/article/view/181

Выпуск

Раздел

Статьи