Вестник КРАУНЦ. Физ.-мат. науки. 2022.Т. 38. №1. C. 54-73. ISSN 2079-6641

ИНФОРМАЦИОННЫЕ И ВЫЧИСЛИТЕЛЬНЫЕ ТЕХНОЛОГИИ

Содержание выпуска

Read English Version US Flag

УДК 519.652

Научная статья

Некоторые аспекты аппроксимации и интерполяции функций искусственными нейронными сетями

В. А. Галкин¹², Т. В. Гавриленко¹², А. Д. Смородинов¹²

¹Сургутский филиал ФГУ ФНЦ НИИСИ РАН 628426, Тюменская область, Ханты-Мансийский автономный округ –Югра, г. Сургут, ул. Энергетиков, д. 4.
²БУ ВО «Сургутский государственный университет», 628412, Тюменская область, Ханты-Мансийский автономный округ – Югра, г. Сургут, пр. Ленина, д. 1

E-mail: Sachenka_1998@mail.ru

В статье рассматривается вопросы аппроксимации и интерполяции функций с использованием искусственных нейронных сетей, приводится теоремы Колмогорова-Арнольда и Цыбенко, которые показывают возможность применения нейронных сетей для аппроксимации и интерполяции функций. Проводится серия экспериментов, в ходе которые искусственные нейронные сети аппроксимируют и интерполируют следующие функции f(x) = |x|, f(x) = sin(x), f(x) =1/(1+25x²) . Показаны проблемы в обучении нейронной сети основанная на инициализации весовых коэффициентов случайным образом. Показана возможность обучения нейронной сети для работы с многообразием.

Ключевые слова: аппроксимация функций, неустойчивость решения интерполяция функций, искусственные нейронные сети, теорема Цыбенко, теорема Колмогорова-Арнольда.

DOI: 10.26117/2079-6641-2022-38-1-54-73

Поступила в редакцию: 22.03.2022

В окончательном варианте: 04.04.2022

Для цитирования. Галкин В. А., Гавриленко Т. В., Смородинов А. Д. Некоторые аспекты аппроксимации и интерполяции функций искусственными нейронными сетями // Вестник КРАУНЦ. Физ.-мат. науки. 2022. Т. 38. № 1. C. 54-73. DOI: 10.26117/2079-6641-2022-38-1-54-73

Контент публикуется на условиях лицензии Creative Commons Attribution 4.0 International
(https://creativecommons.org/licenses/by/4.0/deed.ru)

© Галкин В. А., Гавриленко Т. В., Смородинов А. Д., 2022

Финансирование. Публикация выполнена в рамках государственного задания ФГУ ФНЦ НИИСИ РАН (Выполнение фундаментальных научных исследований ГП 47) по теме № 0580-2021-0007 «Развитие методов математического моделирования распределенных систем и соответствующих методов вычисления».

Конкурирующие интересы. Конфликтов интересов в отношении авторства и публикации нет.

Авторский вклад и ответсвенность. Все авторы участвовали в написании статьи и полностью несут ответственность за предоставление окончательной версии статьи в печать.

Список литературы

  1. Braun J., Griebel M. On a constructive proof of Kolmogorov’s superposition theorem // Constructive Approximation journal. 2009. vol. 30. doi:10.1007/s00365-009-9054-2.
  2. Cybenko G. V. Approximation by Superpositions of a Sigmoidal function // Mathematics of Control Signals and Systems. 1989. vol. 2. pp. 303–314.
  3. Sprecher D. A. On the Structure of Continuous Functions of Several Varia // Trans. Amer. Math. Soc. 1965. pp. 340–355.
  4. Funahashi K. On the Approximate Realization of Continuous Mappings by Neural Networks // Neural Networks. 1989. vol. 2. pp. 183–192.
  5. He K., Zhang X., Ren S., Sun J. Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification // arXiv:1502.01852. 2015.
  6. Liang S., Srikant R. Why deep neural networks for function approximation? // Published as a conference paper at ICLR. 2017
  7. Hanin B. Universal Function Approximation by Deep Neural Nets with Bounded Width and ReLU Activations // Mathematics. 2019. vol. 7. no. 10. 992.
  8. Liu B., Liang Y. Optimal function approximation with ReLU neural networks // Neurocomputing. 2021. vol. 435. pp. 216–227.
  9. Almira J. M., Lopez-de-Teruel P. E., Romero-L´opez D. J., Voigtlaender F. Negative results for approximation using single layer and multilayer feedforward neural networks // Journal of Mathematical Analysis and Applications. 2021. vol. 494. no. 1. 124584.
  10. Guliyev N. J., Ismailov V. E. On the approximation by single hidden layer feedforward neural networks with fixed weights // Neural Networks. 2018. vol. 98. pp. 296–304.
  11. Guliyev N. J., Ismailov V. E. Approximation capability of two hidden layer feedforward neural networks with fixed weights // Neurocomputing. 2018. vol. 316. pp. 262–269.
  12. Колмогоров А. Н. О представлении непрерывных функций нескольких переменных в виде суперпозиции непрерывных функций одного переменного // Доклады АН СССР. 1957. Т. 114. C. 953-956.
  13. Арнольд В. И. О представлении функций нескольких переменных в виде суперпозиции функций меньшего числа переменных // Математическое просвещение. 1958. Т. 3. С. 41–61.

Галкин Валерий Алексеевич – доктор физико-математических наук, профессор, директор, Сургутский филиал ФГУ «ФНЦ НИИСИ РАН», БУ ВО «Сургутский государственный университет», г. Сургут, Россия, ORCID 0000-0002-9721-4026.


Гавриленко Тарас Владимирович – кандидат технических наук, доцент, заместитель директора, Сургутский филиал ФГУ «ФНЦ НИИСИ РАН», БУ ВО «Сургутский государственный университет», г. Сургут, Россия, ORCID 0000-0002-3243-2751.


Смородинов Александр Денисович – аспирант кафедры прикладной математики, преподаватель кафедры АСОИУ, БУ ВО «Сургутский государственный университет»; инженер отдела биофизики, Сургутский филиал ФГУ «ФНЦ НИИСИ РАН», г. Сургут, Россия, ORCID 0000-0002-9324-1844.