Hybrid Method of Conventional Neural Network Training

封面

如何引用文章

全文:

详细

The paper proposes a hybrid method for training convolutional neural networks. The method consists of combining second and first-order methods for different elements of the architecture of a convolutional neural network. The hybrid convolution neural network training method allows to achieve significantly better convergence compared to Adam; however, it requires fewer computational operations to implement. Using the proposed method, it is possible to train networks on which learning paralysis occurs when using first-order methods. Moreover, the proposed method could adjust its computational complexity to the hardware on which the computation is performed; at the same time, the hybrid method allows using the mini-packet learning approach. The analysis of the ratio of computations between convolutional neural networks and fully connected artificial neural networks is presented. The mathematical apparatus of error optimization of artificial neural networks is considered, including the method of backpropagation of the error, the Levenberg-Marquardt algorithm. The main limitations of these methods that arise when training a convolutional neural network are analyzed. The analysis of the stability of the proposed method when the initialization parameters are changed. The results of the applicability of the method in various problems are presented.

作者简介

A. Golubinskiy

JSC “Concern “Sozvezdie”

Email: annikgol@mail.ru
Moskovsky Av. 92

A. Tolstykh

Moscow University of the Ministry of Internal Affairs of Russia

Email: tolstykh.aa@yandex.ru
Koptevskaya St. 63

参考

  1. Гудфеллоу Я., Бенджио И., Курвилль А. Глубокое обучение. Москва: «ДМК Пресс», 2017. 652 с.
  2. Хайкин С. Нейронные сети. Полный курс. 2-е изд. Москва: Издательский дом "Вильямс", 2006. 1104 с.
  3. Kingma D.P., Ba J. Adam: A Method for Stochastic Optimization // CoRR, Т. abs/1412.6980, 2014.
  4. Bo Y.H., WeiL., I-Chen W. Stochastic Gradient Descent with Hyperbolic-Tangent Decay // CoRR, Т. abs/1806.01593, 2018. С. 1-10.
  5. Wilamowski B.M., Irwin D.J. Intelligent systems. 2-е-е изд. Бока-Ратон: CRC Press, 2011. 568 с.
  6. S. Smith J., Wu B., M. Wilamowski B. Neural Network Training With Leven-berg-Marquardt and Adaptable Weight Compression // IEEE Transactions on Neural Networks and Learning Systems, Т. PP, Jul 2018. С. 1-8.
  7. Szegedy C., Ioffe S., Vanhoucke V., Alemi A.A. Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning // International Conference on Learning Representations (ICLR) Workshop, 2016. С. 375-387.
  8. He K., Zhang X., Ren S., Sun J. [1502.01852] Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification // arXiv.org e-Print archive. 2015. URL: https://arxiv.org/abs/1502.01852 (дата обращения: 12.11.2020).
  9. Szegedy С., Liu W., Jia Y., Sermanet P., Reed S., Angueloy D., Ethan D., Vanhoucke V., Rabinovich A. Going deeper with convolutions // IEEE Confer-ence on Computer Vision and Pattern Recognition. 2014. С. 1-9.
  10. Zaccone G., Karim R., Menshawy A. Deep Learning with TensorFlow: Explore neural networks with Python. Бирмингем: Packt Publishing, 2017. 320 с.
  11. Вьюгин В.В. Математические основы теории машинного обучения и про-гнозирования. Москва: МЦНМО, 2013. 387 с.
  12. Shepherd A.J. Second-Order Methods for Neural Networks: Fast and Reliable Training Methods for Multi-Layer Perceptrons. New York: Springer, 1997. 160 с.
  13. Nocedal J., Wright S.J. Numerical Optimization. 2nd ed. New York: Springer, 2006. 664 с.
  14. Голубинский А.Н. О построении архитектур и оценке параметров искус-ственных нейронных сетей // Теория и техника радиосвязи, № 1, 2020. С. 72-87.
  15. Максимушкин В.В., Арзамасцев А.А. Сравнительная оценка вычислитель-ной сложности обучения искусственной нейронной сети с жестким ядром и сети с классической структурой // Вестник российских университетов. Математика., № 2, 2006. С. 190-197.
  16. Абрамов С.А. Лекции о сложности алгоритмов. Москва: МЦНМО, 2012. 248 с.
  17. Yann LeCun's Home Page [Электронный ресурс] // MNIST handwritten digit database, Yann LeCun, Corinna Cortes and Chris Burges: [сайт]. [2012]. URL: http://yann.lecun.com/exdb/mnist/ (дата обращения: 23.05.2020).
  18. Smith L.N. No More Pesky Learning Rate Guessing Games // CoRR, Vol. abs/1506.01186, 2015. С. 1-10.
  19. Salimans T., Kingma D.P. Weight Normalization: A Simple Reparameterization to Accelerate Training of Deep Neural Networks // In: Advances in Neural In-formation Processing Systems 29. Curran Associates, Inc., 2016. С. 901–909.
  20. Matuszyk P., Castillo R.T., Kottke D., Spiliopoulou M. A Comparative Study on Hyperparameter Optimization for Recommender Systems // Workshop on Recommender Systems and Big Data Analytics (RS-BDA'16) @ iKNOW 2016. 2016.
  21. Hu G., Peng X., Yang Y., Hospedales T.M., Verbeek J. Frankenstein: Learning Deep Face Representations using Small Data // CoRR, Т. abs/1603.06470, 2016.
  22. Ioffe S., Szegedy C. Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift // CoRR, Т. abs/1502.03167, 2015.
  23. Lewkowycz A., Bahri Y., Dyer E., Sohl-Dickstein J., Gur-Ari G. The large learning rate phase of deep learning: the catapult mechanism. 2020.
  24. Liao Q., Kawaguchi K., Poggio T.A. Streaming Normalization: Towards Sim-pler and More Biologically-plausible Normalizations for Online and Recurrent Learning // CoRR, Т. abs/1610.06160, 2016.
  25. Mahajan D., Girshick R.B., Ramanathan V., He K., Paluri M., Li Y., Bharambe A., van der Maaten L. Exploring the Limits of Weakly Supervised Pretraining // CoRR, Т. abs/1805.00932, 2018.
  26. Petroski Such F., Madhavan V., Conti E., Lehman J., Stanley K.O., Clune J. Deep Neuroevolution: Genetic Algorithms Are a Competitive Alternative for Training Deep Neural Networks for Reinforcement Learning // ArXiv e-prints, 2017.
  27. Su H., Zhu X., Gong S. Deep Learning Logo Detection with Data Expansion by Synthesising Context // CoRR, Т. abs/1612.09322, 2016.
  28. Touvron H., Vedaldi A., Douze M., Jégou H. Fixing the train-test resolution discrepancy // CoRR, Т. abs/1906.06423, 2019.
  29. Xu C., Qin T., Wang G., Liu T.Y. An Actor-Critic Algorithm For Learning Rate 2017. С. 1–12.
  30. Xu C., Qin T., Wang G., Liu T.Y. Reinforcement Learning for Learning Rate Control // CoRR, Т. abs/1705.11159, 2017.

补充文件

附件文件
动作
1. JATS XML

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».