Вестник КРАУНЦ. Физ.-мат. науки. 2022.Т. 38. №1. C. 54-73. ISSN 2079-6641
ИНФОРМАЦИОННЫЕ И ВЫЧИСЛИТЕЛЬНЫЕ ТЕХНОЛОГИИ
УДК 519.652
Научная статья
Некоторые аспекты аппроксимации и интерполяции функций искусственными нейронными сетями
В. А. Галкин¹², Т. В. Гавриленко¹², А. Д. Смородинов¹²
¹Сургутский филиал ФГУ ФНЦ НИИСИ РАН 628426, Тюменская область, Ханты-Мансийский автономный округ –Югра, г. Сургут, ул. Энергетиков, д. 4.
²БУ ВО «Сургутский государственный университет», 628412, Тюменская область, Ханты-Мансийский автономный округ – Югра, г. Сургут, пр. Ленина, д. 1
E-mail: Sachenka_1998@mail.ru
В статье рассматривается вопросы аппроксимации и интерполяции функций с использованием искусственных нейронных сетей, приводится теоремы Колмогорова-Арнольда и Цыбенко, которые показывают возможность применения нейронных сетей для аппроксимации и интерполяции функций. Проводится серия экспериментов, в ходе которые искусственные нейронные сети аппроксимируют и интерполируют следующие функции f(x) = |x|, f(x) = sin(x), f(x) =1/(1+25x²) . Показаны проблемы в обучении нейронной сети основанная на инициализации весовых коэффициентов случайным образом. Показана возможность обучения нейронной сети для работы с многообразием.
Ключевые слова: аппроксимация функций, неустойчивость решения интерполяция функций, искусственные нейронные сети, теорема Цыбенко, теорема Колмогорова-Арнольда.
DOI: 10.26117/2079-6641-2022-38-1-54-73
Поступила в редакцию: 22.03.2022
В окончательном варианте: 04.04.2022
Для цитирования. Галкин В. А., Гавриленко Т. В., Смородинов А. Д. Некоторые аспекты аппроксимации и интерполяции функций искусственными нейронными сетями // Вестник КРАУНЦ. Физ.-мат. науки. 2022. Т. 38. № 1. C. 54-73. DOI: 10.26117/2079-6641-2022-38-1-54-73
Контент публикуется на условиях лицензии Creative Commons Attribution 4.0 International
(https://creativecommons.org/licenses/by/4.0/deed.ru)
© Галкин В. А., Гавриленко Т. В., Смородинов А. Д., 2022
Финансирование. Публикация выполнена в рамках государственного задания ФГУ ФНЦ НИИСИ РАН (Выполнение фундаментальных научных исследований ГП 47) по теме № 0580-2021-0007 «Развитие методов математического моделирования распределенных систем и соответствующих методов вычисления».
Конкурирующие интересы. Конфликтов интересов в отношении авторства и публикации нет.
Авторский вклад и ответсвенность. Все авторы участвовали в написании статьи и полностью несут ответственность за предоставление окончательной версии статьи в печать.
Список литературы
- Braun J., Griebel M. On a constructive proof of Kolmogorov’s superposition theorem // Constructive Approximation journal. 2009. vol. 30. doi:10.1007/s00365-009-9054-2.
- Cybenko G. V. Approximation by Superpositions of a Sigmoidal function // Mathematics of Control Signals and Systems. 1989. vol. 2. pp. 303–314.
- Sprecher D. A. On the Structure of Continuous Functions of Several Varia // Trans. Amer. Math. Soc. 1965. pp. 340–355.
- Funahashi K. On the Approximate Realization of Continuous Mappings by Neural Networks // Neural Networks. 1989. vol. 2. pp. 183–192.
- He K., Zhang X., Ren S., Sun J. Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification // arXiv:1502.01852. 2015.
- Liang S., Srikant R. Why deep neural networks for function approximation? // Published as a conference paper at ICLR. 2017
- Hanin B. Universal Function Approximation by Deep Neural Nets with Bounded Width and ReLU Activations // Mathematics. 2019. vol. 7. no. 10. 992.
- Liu B., Liang Y. Optimal function approximation with ReLU neural networks // Neurocomputing. 2021. vol. 435. pp. 216–227.
- Almira J. M., Lopez-de-Teruel P. E., Romero-L´opez D. J., Voigtlaender F. Negative results for approximation using single layer and multilayer feedforward neural networks // Journal of Mathematical Analysis and Applications. 2021. vol. 494. no. 1. 124584.
- Guliyev N. J., Ismailov V. E. On the approximation by single hidden layer feedforward neural networks with fixed weights // Neural Networks. 2018. vol. 98. pp. 296–304.
- Guliyev N. J., Ismailov V. E. Approximation capability of two hidden layer feedforward neural networks with fixed weights // Neurocomputing. 2018. vol. 316. pp. 262–269.
- Колмогоров А. Н. О представлении непрерывных функций нескольких переменных в виде суперпозиции непрерывных функций одного переменного // Доклады АН СССР. 1957. Т. 114. C. 953-956.
- Арнольд В. И. О представлении функций нескольких переменных в виде суперпозиции функций меньшего числа переменных // Математическое просвещение. 1958. Т. 3. С. 41–61.
Галкин Валерий Алексеевич – доктор физико-математических наук, профессор, директор, Сургутский филиал ФГУ «ФНЦ НИИСИ РАН», БУ ВО «Сургутский государственный университет», г. Сургут, Россия, ORCID 0000-0002-9721-4026.
Гавриленко Тарас Владимирович – кандидат технических наук, доцент, заместитель директора, Сургутский филиал ФГУ «ФНЦ НИИСИ РАН», БУ ВО «Сургутский государственный университет», г. Сургут, Россия, ORCID 0000-0002-3243-2751.
Смородинов Александр Денисович – аспирант кафедры прикладной математики, преподаватель кафедры АСОИУ, БУ ВО «Сургутский государственный университет»; инженер отдела биофизики, Сургутский филиал ФГУ «ФНЦ НИИСИ РАН», г. Сургут, Россия, ORCID 0000-0002-9324-1844.