Вестник КРАУНЦ. Физ.-мат. науки. 2023.Т. 43. №2. C. 69-86. ISSN 2079-6641
ИНФОРМАЦИОННЫЕ И ВЫЧИСЛИТЕЛЬНЫЕ ТЕХНОЛОГИИ
https://doi.org/10.26117/2079-6641-2023-43-2-69-86
Научная статья
Полный текст на русском языке
УДК 004.85
Применимость генетических алгоритмов для определения весовых коэффициентов искусственной нейронной сети с одним скрытым слоем
А. Д. Смородинов¹²^\ast, Т. В. Гавриленко¹², В. А. Галкин¹²
¹Сургутский филиал ФГУ ФНЦ НИИСИ РАН 628426, Тюменская область, Ханты-Мансийский автономный округ – Югра, г. Сургут, ул. Энергетиков, д. 4.
²БУ ВО «Сургутский государственный университет», 628412, Тюменская область, Ханты-Мансийский автономный округ – Югра, г. Сургут, пр. Ленина, д. 1
Аннотация. В обучении искусственной нейронной сети одной из центральных проблем является начальная инициализация и настройка весовых коэффициентов, связанная с псевдослучайной инициализацией весовых коэффициентов. В статье описан базовый генетический алгоритм, а также метод определения весовых коэффициентов с использованием данного алгоритма. Также представлен комбинированный метод определения весовых коэффициентов, предусматривающий на первом этапе начальную инициализацию с помощью генетического алгоритма и использование стохастического градиентного спуска на втором этапе обучения Предлагаемые методы проверены на ряде искусственных нейронных сетей прямого распространения для различных задач по бинарной классификации реальных и синтетических данных, а также для однозначной многоклассовой классификации рукописных цифр на изображениях из базы данных MNIST. Искусственные нейронные сети сконструированы на основании теоремы Колмогорова-Арнольда. В данной статье проведен сравнительный анализ двух методов определения весовых коэффициентов – с использованием генетического алгоритма и градиентного спуска. По результатам сравнительного анализа сделан вывод о возможности применения генетического алгоритма для определения весовых коэффициентов как в качестве алгоритма начальной инициализации искусственной нейронной сети, так и в качестве алгоритма настройки весовых коэффициентов.
Ключевые слова: искусственные нейронные сети, генетический алгоритм, теорема Колмогорова-Арнольда, обучение нейронной сети.
Получение: 21.04.2023; Исправление: 08.06.2023; Принятие: 10.06.2023; Публикация онлайн: 29.06.2023
Для цитирования. Смородинов А. Д., Гавриленко Т. В., Галкин В. А. Применимость генетических алгоритмов
для определения весовых коэффициентов искусственной нейронной сети с одним скрытым слоем //
Вестник КРАУНЦ. Физ.-мат. науки. 2023. Т. 43. № 2. C. 69-86. EDN: YWFIZE. https://doi.org/10.26117/2079-6641-
2023-43-2-69-86.
Финансирование. Публикация выполнена в рамках государственного задания ФГУ ФНЦ НИИСИ РАН
(Выполнение фундаментальных научных исследований ГП 47) по теме № 0580-2021-0007 «Развитие методов
математического моделирования распределенных систем и соответствующих методов вычисления».
Конкурирующие интересы. Конфликтов интересов в отношении авторства и публикации нет.
Авторский вклад и ответственность. Авторы участвовали в написании статьи и полностью несут
ответственность за предоставление окончательной версии статьи в печать.
^\astКорреспонденция: E-mail: Sachenka_1998@mail.ru
Контент публикуется на условиях Creative Commons Attribution 4.0 International License
© Смородинов А. Д., Гавриленко Т. В., Галкин В. А., 2023
© ИКИР ДВО РАН, 2023 (оригинал-макет, дизайн, составление)
Список литературы
- Галкин В. А., Гавриленко Т. В., Смородинов А. Д. Некоторые аспекты аппроксимации и интерполяции функций искусственными нейронными сетями, Вестник КРАУНЦ. Физ.-мат. науки, 2022. Т. 38, №1, С. 54-73 DOI: 10.26117/2079-6641-2022-38-1-54-73.
- Holland J. H. Adaptation in Natural and Artificial Systems: An Introductory Analysis With Applications to Biology, Control, and Artificial Intelligence. Cambridge: The MIT Press, 1992.
- Goldberg D. Genetic Algorithms in Search, Optimization, and Machine Learning. Massachusetts: Addison-Wesley, 1989.
- Шолле Ф. Глубокое обучение на Python, 2018. 400 с.
- Zakharov I. V. , Shushakov A. O., Zykova S. S.The Choice of Structures of Heterogeneous Information-Computer Systems Based on the Apparatus of Genetic Algorithms,Интеллектуальные технологии на транспорте, 2022. №3(31), С. 46-51 DOI: 10.24412/2413-2527-2022-331-46-51.
- Бедин Д. А., Иванов А. Г. Использование генетического алгоритма для определения параметров многогипотезного алгоритма восстановления траектории воздушного судна /XXVI Санкт-Петербургская международная конференция по интегрированным навигационным системам, Сборник материалов, Санкт-Петербург, 27–29 мая 2019 года. Санкт-Петербург, «Концерн «Центральный научно-исследовательский институт «Электроприбор», 2019, С. 87-90.
- Алхуссайн А. Х. Симметричный алгоритм шифрования с помощью генетического алгоритма и генераторов псевдослучайных чисел, Естественные и технические науки, 2015. №7(85), С. 75-81.
- Стефанюк В. Л., Алхуссайн А. Х. Криптография с симметричным ключом с использованием генетического алгоритма / КИИ-2014, Четырнадцатая национальная конференция по искусственному интеллекту с международным участием, Т. 1. Казань, РИЦ «Школа», 2014, С. 267-275.
- Трокоз Д. А. Алгоритм машинного обучения широких нейронных сетей с использованием алгебры гиперразмерных двоичных векторов и генетических алгоритмов, Южно-Сибирский научный вестник, 2020. №6(34), С. 148-154.
- Nair V., Hinton G. E. Rectified Linear Units Improve Restricted Boltzmann Machines / 27th International Conference on International Conference on Machine Learning.. USA, Omnipress, 2010, pp. 807–814.
- Andrew L. Maas, Awni Y. Hannun, Andrew Y. Ng. Rectifier nonlinearities improve neural network acoustic models, Proc. ICML, 2013. vol. 30, no. 1.
- Tieleman, Tijmen and Hinton, Geoffrey Lecture 6.5-rmsprop: Divide the gradient by a running average of its recent magnitude, COURSERA: Neural Networks for Machine Learning, 2012.
- Колмогоров А. Н.О представлении непрерывных функций нескольких переменных в виде суперпозиций непрерывных функций одного переменного и сложения, Докл. АН СССР, 1957. Т. 114, №5, С. 953–956.
- Klambauer G., Unterthiner T., Mayr A., Hochreiter S. Self-Normalizing Neural Networks,Advances in Neural Information Processing Systems, 2017. vol. 30, no. 2017, arXiv: 170602515k.
- Clevert, Djork-Arné; Unterthiner, Thomas Hochreiter Fast and Accurate Deep Network Learning by Exponential Linear Units, 2015, arXiv: 1511.07289.
Информация об авторах
Смородинов Александр Денисович – БУ ВО «Сургутский государственный университет», Аспирант кафедры прикладной математики, преподаватель кафедры АСОИУ, Сургутский
филиал ФГУ «ФНЦ НИИСИ РАН» Инженер отдела биофизики,
ORCID 0000-0002-9324-1844.
Гавриленко Тарас Владимирович – БУ ВО «Сургутский государственный университет», доцент Сургутский филиал ФГУ «ФНЦ НИИСИ РАН» Заместитель директора. ORCID 0000-0002-3243-2751.
Галкин Валерий Алексеевич – БУ ВО «Сургутский государственный университет», профессор, доктор физико-математических наук. Сургутский филиал ФГУ «ФНЦ НИИСИ РАН» Директор. ORCID 0000-0002-9721-4026.