Parametric optimization of a neural network PWM controller using the improved Nelder-Mead method

封面

如何引用文章

全文:

详细

The purpose of this article is to eliminate the shortcomings in the neural network training algorithm, which include insufficiently accurate determination of the direction of movement [4], slow convergence to an extremum, and the need to use a sufficiently large number of initial simplexes. It is proposed to introduce an additional search direction into the neural network training algorithm, in relation to solving the problem of parametric optimization of artificial neural networks (ANN) contained in links with pulse width modulation (PWM) of automatic control systems. Due to the fact that ANNs are used in PWM, the tasks of training and parametric optimization are equivalent and ultimately come down to determining the weighting coefficients of the ANN.To achieve this goal, the following tasks were set and solved: 1) existing approaches used in direct search methods to improve their characteristics are analyzed; 2) conducting experiments on the use of the most common approaches, in the context of the problem of parametric optimization of systems with PWM controllers; 3) development of recommendations for their use. Ultimately, the above makes it possible to resolve the problems of speed and the number of initial simplexes that arise when solving the problem of parametric optimization of automatic control systems with a device that performs PWM using ANN. Based on the above, we can talk about the relevance of the presented article.

全文:

Введение. В последние годы ИНС находят широкое применение в промышленности в качестве отдельных элементов систем управления, в том числе и импульсных. Как известно, ввиду существенной нелинейности подобных систем при решении задачи параметрической оптимизации в системах с ШИМ-элементом возникает необходимость обобщенного дифференцирования [1], а применение аналитических методов невозможно.

Наиболее распространённые в литературе метод Error Back Propagation (EBP) [2, 3], требующий наличия первой производной, и методы второго порядка, такие, как Levenberg Marquardt (LM) или Neuron by Neuron (NBN) [4], требующий наличия второй производной, вызывают значительные трудности при применении их для решения подобной задачи, что сказывается на снижении качества обучения нейронной сети. По этой причине в статье обращено внимание на методы прямого поиска. 

Алгоритм обучения нейронной сети (ОНС) [5], построенный на основе метода Нелдера-Мида, не требует вычисления производных первого и второго порядка, и, в свою очередь,  является приемлемым для решения задачи параметрической оптимизации в импульсных автоматических системах. Однако алгоритм ОНС также не лишен недостатков, таких, как достаточно низкая сходимость и значительные трудозатраты на отсев начальных симплексов [6]. Главным его недостатком, как и всех алгоритмов, построенных на основе метода Нелдера-Мида, является то, что он недостаточно точно определяет направление движения [4], используя только простые геометрические преобразования для задач больших размерностей.

Один из наиболее распространённых способов устранения этого недостатка в алгоритмах, построенных на основе метода Нелдера-Мида – это добавление в их структуру дополнительного направления поиска [4-9].  Целью данной статьи является показать положительный эффект от внедрения его в алгоритм ОНС при параметрической оптимизации ШИМ-элемента, имеющего в своем составе ИНС.

Структурная схема исследуемой системы. Представим структурную схему исследуемой автоматической системы (рисунок 1).

 

Рис. 1. Структурная схема автоматической системы

 

Здесь Gp(p) – оператор объекта регулирования; u(t)выход ШИМ-элемента; Gie – оператор ШИМ-элемента с нейронной сетью; p=d/dt – оператор дифференцирования; λ(t) – задающее воздействие; x(t) – регулируемая величина; ε(t) – ошибка регулирования.

Процессы, протекающие в АСР, можно представить в следующем виде:

ε(t)=λ(t)x(t);

u(t)=Gieε(t); (1)

x(t)=Gp(p)u(t).

Характеристика ШИМ-элемента представлена в виде:

u(t)=+1, ​при ε[kT]>0 и при kTt<kT+tk1, ​при ε[kT]<0 и при kTt<kT+tk  0, ​при kT+tk(k+1)T(2)

tk=γkT, (3)

k=1, 2, ...,

где T – период цикла работы ШИМ-элемента; tk – длительность (ширина) k-го импульса; γk – скважность k-го импульса, которая находится с помощью нейронной сети [5, 6, 10], изображенной на рисунке 2.

 

Рис. 2. Архитектура нейронной сети

 

Здесь Nriнейроны скрытого слоя (i=1..m), w11,w12,…,w1m, w2,m+1,w3,m+1,…,   wm+1,m+1 – весовые коэффициенты, образующие матрицу весовых коэффициентов W. Данная ИНС сформирована на основе модуляционной характеристики вида [5, 6]:

γk=q1ε[kT]1+q2ε[kT]2+q3ε[kT]3+...+qmε[kT]m=j=1mqjε[kT]j (4)

В качестве оценки работы автоматической системы принят интегральный критерий вида:

I(W)=0F(x(t,W), ε(t,W))dt. (5)

Здесь x(t,W) выходная координата системы, ε(t,W) – ошибка системы, F – некоторая выпуклая функция.

Алгоритм оптимизации. Для пояснения дальнейшего, кратко представим основные этапы алгоритма ОНС [5].

На первом этапе формируется набор начальных симплексов, у которых координаты n точек (в нашем случае количество весовых коэффициентов) путем целенаправленного перебора подобраны таким образом, чтобы выход нейронной сети с учетом ее архитектуры зависел от значения отдельного синаптического веса: в первой точке – от первого синаптического веса; во-второй точке – от второго и так далее. Исходя из [5], в n+1 точке значения всех синаптических весов приравниваются к нулю. Также в точках симплекса используется варьирование знака синаптических весов всего множества их возможных значений.

На втором этапе, в каждом симплексе для всех его точек вычисляется значение критерия; в данном случае обозначено, как Iij, где i=1, 2,…– номер симплекса,  j=1, 2,… – точка i-го симплекса. Затем определяется I^ – характеристическое число симплекса как I^=min(Iij). Далее рассматриваются только те симплексы, для которых I^min(I^)μ, (где μ<10, и выбирается из результатов предварительных исследований).

На третьем этапе с отобранными симплексами выполняются операции метода Нелдера-Мида: сортировка, отражение, растяжение, сжатие, усечение, проверка условия сходимости алгоритма [5]. После окончания поиска точка с наименьшим значением критерия I является решением по данному симплексу.

На четвертом этапе сравниваются значения критерия I по каждому симплексу,  среди них выбирается точка с наименьшим значением, и ее координаты синаптических весов и считаются оптимальными.

Улучшенный метод Нелдера-Мида с квазиградиентом. Далее рассмотрим подходы [7-9, 11-15], применяемые для методов прямого поиска, для оценки их возможностей применения в алгоритме ОНС.

Один из наиболее распространенных в теории оптимального управления подход – это внедрение квазиградиента, базирующегося на применении золотого сечения [11], который использует дополнительную точку, полученную на основе уже имеющихся точек симплекса, для построения квазиградиента. Последовательность действий метода, реализующего данный подход, можно представить следующим образом [11]:

Шаг 1: Выбрать n-вершин начального симплекса: X1, X2, …, Xn.

Шаг 2: Определить дополнительную точку Xs, координаты которой составлены из n вершин симплекса. Координаты выбранной точки – это диагональ матрицы X из n вершин симплекса.

Xs=diagx1,1x1,2...x1,nx2,1x2,2...x2,n............xn,1xn,2...xn,n (6)

Xs=[x1,1 , x2,2, … xn,n] (7)

Шаг 3: Расчёт направления квазиградиента на основе выбранной точки Xs и других n точек симплекса.

Gi=imod2=0;f(xi1)f(xs)xi1,ixsiimod2=1;f(xi+1)f(xs)xi+1,ixsi (8)

Шаг 4: Вычислить на основе точки B c наибольшим значением критерия в симплексе новую точку R’, отражённую по направлению квазиградиента. Параметр σ представляет собой размер шага, и численно равен коэффициенту отражения.

R’=B-σ G (9)

Шаг 5: Если значение критерия в R’ меньше, чем в точке L c наименьшим его значением в симплексе, это означает, что  вектор BR’ является успешным, тогда осуществляется операция растяжения и получается E’. При этом критерий успешности аналогичен вышесказанному, за исключением того, что сравниваются значения критерия в точке R’ и E’ 

E’=(1- γ)B-γR’, (10)

где γ-коэфициент растяжения.

При сравнительном анализе классического метода Нелдера-Мида и метода с квазиградиентом следует, что последний из указанных вычисляет отраженную точку по квазиградиенту и расширенную точку только в случае, если классическая операция отражения не успешна, в остальных случаях с практической точки зрения они идентичны.

Симплексный метод с приближенно-вычисленным градиентом. Далее рассмотрен еще один из подходов – использование в качестве дополнительного направления приближенно-вычисленного (численного) градиента [7, 9, 11, 12]. Он базируется на численном определении производной при малых приращениях аргументов. Вычисляя, таким образом, частные производные по всем переменным критерия, получаем приближенное направление градиента, что и будет считаться дополнительным направлением поиска. Далее, поступая аналогично указанному выше методу (формула 9), получаем точку для дальнейшего движения симплекса. В качестве точки нахождения градиента в алгоритмах, построенных на основе метода Нелдера-Мида, чаще всего применяется центр тяжести симплекса, либо точка с наименьшим значением критерия. Существует множество разновидностей данного подхода, но ввиду ограниченности объема статьи и общности полученных результатов в этой статье они дальше рассматриваться не будут.

Результаты исследования. Для иллюстрации обучения ИНС (параметрической оптимизации) конкретизируем элементы автоматической системы (рис. 1). Оператор объекта регулирования Gоб(p) представлен в виде, с помощью которого можно описать значительное количество промышленных объектов:

Gоб(p)=kимpkоб(Tоб1p+1)(Tоб2p+1)eτобp (11)

где kоб – коэффициент передачи объекта, kим – коэффициент передачи исполнительного механизма; Tоб1, Tоб2 – постоянные времени объекта, τоб– время запаздывания.

Элемент ШИМ имеет в своем составе нейронную сеть (рис. 2), состоящую из трех нейронов в скрытом слое с сигмоидальной функцией активации и одного в выходном слое [11].  В качестве критерия оптимизации выбран широко распространённый интегрально-квадратичный критерий:

I(W)=0Lε2(t,W)dt. (12)

где L – интервал интегрирования.

Исследования проведены в достаточно большом диапазоне параметров объекта, при этом τобToб>1, что, как известно, при применении ПИД-регуляторов не может обеспечить удовлетворительного качества процессов, протекающих в автоматических системах, и, в конечном итоге, вынуждает применять дискретные регуляторы, в частности, ШИМ-регуляторы. В качестве иллюстрации приведены результаты исследования при

kим =0,01; kоб =1; Tоб1 = 10; Tоб2 = 40; τоб= 50; Т=25, и при задающем воздействии λ(t)= 0,5 1(t).

Параметры алгоритмов ОНС при всех экспериментах, исходя из предварительных исследований [5, 6, 14, 15]: коэффициент отражения α=1, коэффициент растяжения γ=2, коэффициент сжатия β=0,5.

По итогам работы алгоритмов, в том числе и с квазиградиентом, получены следующие значения интегрального критерия (таблица 1).

 

Таблица 1. Значения интегрального критерия, количества итераций и процента симплексов, обеспечивающих сходимость к глобальному экстремуму при использовании различных алгоритмов

Алгоритм

Значение критерия

Количество итераций

% симплексов, обеспечивающих сходимость к глобальному экстремуму

ОНС

27,05

154

7

ОНС с квазиград.

31,27

112

20

ОНС с числ. вычисл. град.

29,42

133

15

 

Из представленной таблицы следует, что алгоритм ОНС с добавлением квазиградиента и численного градиента уступает алгоритму ОНС в значении найденного экстремума, при этом превосходя его по другим параметрам, подобная картина наблюдается при увеличении количества весов, из этого следует необходимость проведения дальнейшего исследования. Ввиду общности полученных результатов для большинства экспериментов (исследования проводились для нейронных сетей, имеющих от 3 до 128 синаптических весов) и для большей наглядности уменьшено количество настраиваемых параметров (весов) до трех, а оставшиеся установлены такими же, как в экстремуме, полученные с помощью алгоритма ОНС. Далее на рисунках 3-5 представлены операции, выполняемые на определенной итерации алгоритма.

Из анализа приведенных рисунков следует, что при использовании квазиградиентов и численных градиентов практически не выполняется операция внешнего сжатия, которая играет определенную роль в алгоритме ОНС, вместо нее выполняются другие операции, что увеличивает быстродействие алгоритма, но приводит к снижению значения критерия оптимизации. Это наиболее наглядно при возвращении к нейронной сети, расположенной в начале этого раздела статьи (таблица 2, где обозначены операции: О – отражение, К – квазиградиент, Р – растяжение, С – внутреннее сжатие, Вн. С. – внешнее сжатие, У – усечение).

 

Таблица 2. Количество операции, выполняемых алгоритмами

Алгоритм

О

К

Р

С

Вн. С.

У

Кол-во итераций

ОНС

65

-

20

16

36

17

154

ОНС с квазиградиентом

23

43

9

21

2

14

112

ОНС с числ. вычисл. градиентом

33

37

18

19

7

19

133

 

Для устранения вышесказанного в статье предлагается в алгоритмы ввести правило, что в случае неуспешности классической операции отражения сравниваться между собой будут точки, полученные после операции сжатия и отражения по дополнительному направлению, и уже среди них выбирается точка с наименьшим значением критерия.

 

Рис. 3. Операции, выполняемые на определенной итерации алгоритма с квазиградиентом

 

Рис. 4. Операции, выполняемые на определенной итерации алгоритма ОНС

 

Рис. 5. Операции, выполняемые на определенной итерации алгоритма с численным вычислением градиента

 

По итогам работы алгоритмов с вышеуказанным дополнением на полностью необученной нейронной сети получены следующие параметры (таблица 3).

 

Таблица 3. Значения интегрального критерия, количества итераций и процента симплексов, обеспечивающих сходимость к глобальному экстремуму при использовании различных алгоритмов

Алгоритм

Значение критерия

Количество итерации

% симплексов, обеспечивающих сходимость к глобальному экстремуму

ОНС

27,05

154

7

ОНС с квазиградиентом

29,34

121

18

ОНС с числ. вычисл. град.

27,05

140

12

 

Исходя из таблицы 3, дополнительное направление на основе численного вычисления градиента обеспечивает схождение к глобальному экстремуму за меньшее количество итераций, при большем проценте начальных симплексов, обеспечивающих сходимость, при решении задачи обучения нейронной сети автоматической импульсной системы.

Заключение. Решена задача параметрической оптимизации для ИНС, входящих в состав ШИМ-элементов с достаточной для практики точностью. Алгоритм ОНС с внедрением квазиградиента, на основе приближенного вычисления градиента, и c предложенными в этой статье изменениями может быть рекомендован при решении подобных задач, выдвигаемых практикой автоматической регулирования в импульсных системах с ШИМ-элементом, имеющих в своем составе ИНС.

×

作者简介

Innokentiy Igumnov

National research Irkutsk state technical university

编辑信件的主要联系方式.
Email: rtif555@gmail.com
SPIN 代码: 6423-5450

Candidate of technical sciences, associate professor of the software engineering center

俄罗斯联邦, Irkutsk

Nicolai Kucyi

National research Irkutsk state technical university

Email: kucyinn@mail.ru
SPIN 代码: 7425-6740

Doctor of technical sciences, professor of the laboratory of network technologies

俄罗斯联邦, Irkutsk

参考

  1. Rozenvaser E.N. Linejnaja teorija cifrovogo upravlenija v nepreryvnom vremeni [Linear theory of conventional control under constant time conditions]. Мoscow, Nauka, 1994, 462 p.
  2. Sadek S., Al-Hamadi A., Michaelis B., Sayed U. Efficient region-based image querying. Journal of computing, 2010, v. 2, no. 6, pp. 225–232.
  3. Wilamowski B. M., Hao Yu, Improved computation for levenberg-Marquardt training. IEEE Trans. on Neural Networks, 2010, v. 21, no. 6, pp. 930–937.
  4. Gao F., Han L. Implementing the Nelder-Mead Simplex algorithm with adaptive parameters. Computational optimization and applications, 2010, v. 3, no. 12, pp. 112–118.
  5. Igumnov I.V., Kucyj N.N. Nejrosetevaja realizacija i nastrojka ShIM-jelementov v avtomaticheskih sistemah [Neural network implementation and configuration PWM elements in automatic systems]. Novosibirsk, Vestnik NGTU [Novosibirsk, Bulletin of NSTU], 2015, no 3(60), pp. 23–32.
  6. Igumnov I.V., Kucyj N.N. Algoritm parametricheskoj optimizacii avtomaticheskih sistem s ShIM-jelementom, imejushhim v svoem sostave nejronnuju seti [The algorithm of parametric optimization of automated systems with PWM element that incorporates artificial neural network]. Mekhatronika, avtomatizatsiya, upravlenie [Mechatronics, automation, control], 2017, vol. 18, no. 4, pp. 227–232.
  7. Kibzun A.I., Matveev E.L. Stohasticheskij kvazigradientnyj algoritm minimizacii funkcii kvantili [Stochastic quasigradient algorithm for minimizing the quantile function]. Moscow, Avtomatika i telemehanika [Automation and telemechanics], 2012, no. 2, pp. 64–78.
  8. Nam Pham, Bogdan M., Ilamowski L., Improved Nelder Mead’s Simplex method and applications, electrical and computer engineering. US Journal of computing, 2011, v. 3, no. 3, pp. 512–518.
  9. Nazareth L., Tseng P., Gilding the lily: a variant of the Nelder-Mead algorithm based on golden-section search. Comput. Optim. Appl, 2002, v. 22, no. 1, pp. 133–144.
  10. Galushkin A.I. Nejronnye seti: osnovy teorii [Neural networks: basic theory]. Moskow, Gorjachaja linija-Telekom [Moscow, Hotline-Telecom], 2017, 496 pp.
  11. Jirí Vala, Petra Jarosova Optimization approaches to some problems of building design. Applications of mathematics, 2018, v. 63, no. 3, pp. 305–331.
  12. Saputra W.P. Comparing quasi newton BFGS and Nelder Mead algorithm for Box-Cox transformation. Applications of mathematics, 2015, v. 53, no. 5, p.p. 207–214.
  13. Goerz M.H., Whale K.B., Kochi C.P., Hybrid optimization schemes for quantum control EPJ Quantum Technology. 2015, v. 21, no. 2, p.p. 199-216, doi: 10.1140/epjqt/s40507-015-0034-0.
  14. Niegodajew P, Elsner W., Maciej M., Kowalczyk Ł. Power plant optimisation – effective use of the Nelder-Mead approach. MDPI Process, 2020, v. 357, no. 8, pp. 128-141.
  15. Yoshihiko O., Masaki Y., Masaki O. Effective hyperparameter optimization using Nelder-Mead method in deep learning. IPSJ transactions on computer vision and applications, 2017, v.9(20), pp.124-136, doi: 10.1186/s41074-017-0030-7.

补充文件

附件文件
动作
1. JATS XML
2. Fig. 1. Structural diagram of the automatic system

下载 (50KB)
3. Fig. 2. Neural network architecture

下载 (67KB)
4. Fig. 3. Operations performed at a certain iteration of the quasi-gradient algorithm

下载 (70KB)
5. Fig. 4. Operations performed at a certain iteration of the ONS algorithm

下载 (63KB)
6. Fig. 5. Operations performed at a certain iteration of the algorithm with numerical calculation of the gradient

下载 (69KB)

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».