Parametric optimization of a neural network PWM controller using the improved Nelder-Mead method
- 作者: Igumnov I.V.1, Kucyi N.N.1
-
隶属关系:
- National research Irkutsk state technical university
- 期: 编号 4 (2024)
- 页面: 37-45
- 栏目: Methods, technologies and applications of artificial intelligence
- URL: https://journal-vniispk.ru/2413-0133/article/view/280466
- DOI: https://doi.org/10.25729/ESI.2024.36.4.004
- ID: 280466
如何引用文章
全文:
详细
The purpose of this article is to eliminate the shortcomings in the neural network training algorithm, which include insufficiently accurate determination of the direction of movement [4], slow convergence to an extremum, and the need to use a sufficiently large number of initial simplexes. It is proposed to introduce an additional search direction into the neural network training algorithm, in relation to solving the problem of parametric optimization of artificial neural networks (ANN) contained in links with pulse width modulation (PWM) of automatic control systems. Due to the fact that ANNs are used in PWM, the tasks of training and parametric optimization are equivalent and ultimately come down to determining the weighting coefficients of the ANN.To achieve this goal, the following tasks were set and solved: 1) existing approaches used in direct search methods to improve their characteristics are analyzed; 2) conducting experiments on the use of the most common approaches, in the context of the problem of parametric optimization of systems with PWM controllers; 3) development of recommendations for their use. Ultimately, the above makes it possible to resolve the problems of speed and the number of initial simplexes that arise when solving the problem of parametric optimization of automatic control systems with a device that performs PWM using ANN. Based on the above, we can talk about the relevance of the presented article.
全文:
Введение. В последние годы ИНС находят широкое применение в промышленности в качестве отдельных элементов систем управления, в том числе и импульсных. Как известно, ввиду существенной нелинейности подобных систем при решении задачи параметрической оптимизации в системах с ШИМ-элементом возникает необходимость обобщенного дифференцирования [1], а применение аналитических методов невозможно.
Наиболее распространённые в литературе метод Error Back Propagation (EBP) [2, 3], требующий наличия первой производной, и методы второго порядка, такие, как Levenberg Marquardt (LM) или Neuron by Neuron (NBN) [4], требующий наличия второй производной, вызывают значительные трудности при применении их для решения подобной задачи, что сказывается на снижении качества обучения нейронной сети. По этой причине в статье обращено внимание на методы прямого поиска.
Алгоритм обучения нейронной сети (ОНС) [5], построенный на основе метода Нелдера-Мида, не требует вычисления производных первого и второго порядка, и, в свою очередь, является приемлемым для решения задачи параметрической оптимизации в импульсных автоматических системах. Однако алгоритм ОНС также не лишен недостатков, таких, как достаточно низкая сходимость и значительные трудозатраты на отсев начальных симплексов [6]. Главным его недостатком, как и всех алгоритмов, построенных на основе метода Нелдера-Мида, является то, что он недостаточно точно определяет направление движения [4], используя только простые геометрические преобразования для задач больших размерностей.
Один из наиболее распространённых способов устранения этого недостатка в алгоритмах, построенных на основе метода Нелдера-Мида – это добавление в их структуру дополнительного направления поиска [4-9]. Целью данной статьи является показать положительный эффект от внедрения его в алгоритм ОНС при параметрической оптимизации ШИМ-элемента, имеющего в своем составе ИНС.
Структурная схема исследуемой системы. Представим структурную схему исследуемой автоматической системы (рисунок 1).
Рис. 1. Структурная схема автоматической системы
Здесь Gp(p) – оператор объекта регулирования; u(t) – выход ШИМ-элемента; Gie – оператор ШИМ-элемента с нейронной сетью; p=d/dt – оператор дифференцирования; λ(t) – задающее воздействие; x(t) – регулируемая величина; – ошибка регулирования.
Процессы, протекающие в АСР, можно представить в следующем виде:
;
; (1)
.
Характеристика ШИМ-элемента представлена в виде:
(2)
, (3)
,
где T – период цикла работы ШИМ-элемента; tk – длительность (ширина) k-го импульса; k – скважность k-го импульса, которая находится с помощью нейронной сети [5, 6, 10], изображенной на рисунке 2.
Рис. 2. Архитектура нейронной сети
Здесь Nri – нейроны скрытого слоя (i=1..m), w11,w12,…,w1m, w2,m+1,w3,m+1,…, wm+1,m+1 – весовые коэффициенты, образующие матрицу весовых коэффициентов W. Данная ИНС сформирована на основе модуляционной характеристики вида [5, 6]:
(4)
В качестве оценки работы автоматической системы принят интегральный критерий вида:
(5)
Здесь x(t,W) – выходная координата системы, ε(t,W) – ошибка системы, F – некоторая выпуклая функция.
Алгоритм оптимизации. Для пояснения дальнейшего, кратко представим основные этапы алгоритма ОНС [5].
На первом этапе формируется набор начальных симплексов, у которых координаты n точек (в нашем случае количество весовых коэффициентов) путем целенаправленного перебора подобраны таким образом, чтобы выход нейронной сети с учетом ее архитектуры зависел от значения отдельного синаптического веса: в первой точке – от первого синаптического веса; во-второй точке – от второго и так далее. Исходя из [5], в n+1 точке значения всех синаптических весов приравниваются к нулю. Также в точках симплекса используется варьирование знака синаптических весов всего множества их возможных значений.
На втором этапе, в каждом симплексе для всех его точек вычисляется значение критерия; в данном случае обозначено, как Iij, где i=1, 2,…– номер симплекса, j=1, 2,… – точка i-го симплекса. Затем определяется – характеристическое число симплекса как =min(Iij). Далее рассматриваются только те симплексы, для которых , (где <10, и выбирается из результатов предварительных исследований).
На третьем этапе с отобранными симплексами выполняются операции метода Нелдера-Мида: сортировка, отражение, растяжение, сжатие, усечение, проверка условия сходимости алгоритма [5]. После окончания поиска точка с наименьшим значением критерия I является решением по данному симплексу.
На четвертом этапе сравниваются значения критерия I по каждому симплексу, среди них выбирается точка с наименьшим значением, и ее координаты синаптических весов и считаются оптимальными.
Улучшенный метод Нелдера-Мида с квазиградиентом. Далее рассмотрим подходы [7-9, 11-15], применяемые для методов прямого поиска, для оценки их возможностей применения в алгоритме ОНС.
Один из наиболее распространенных в теории оптимального управления подход – это внедрение квазиградиента, базирующегося на применении золотого сечения [11], который использует дополнительную точку, полученную на основе уже имеющихся точек симплекса, для построения квазиградиента. Последовательность действий метода, реализующего данный подход, можно представить следующим образом [11]:
Шаг 1: Выбрать n-вершин начального симплекса: X1, X2, …, Xn.
Шаг 2: Определить дополнительную точку Xs, координаты которой составлены из n вершин симплекса. Координаты выбранной точки – это диагональ матрицы X из n вершин симплекса.
(6)
Xs=[x1,1 , x2,2, … xn,n] (7)
Шаг 3: Расчёт направления квазиградиента на основе выбранной точки Xs и других n точек симплекса.
(8)
Шаг 4: Вычислить на основе точки B c наибольшим значением критерия в симплексе новую точку R’, отражённую по направлению квазиградиента. Параметр σ представляет собой размер шага, и численно равен коэффициенту отражения.
R’=B-σ G (9)
Шаг 5: Если значение критерия в R’ меньше, чем в точке L c наименьшим его значением в симплексе, это означает, что вектор BR’ является успешным, тогда осуществляется операция растяжения и получается E’. При этом критерий успешности аналогичен вышесказанному, за исключением того, что сравниваются значения критерия в точке R’ и E’
E’=(1- )B-R’, (10)
где -коэфициент растяжения.
При сравнительном анализе классического метода Нелдера-Мида и метода с квазиградиентом следует, что последний из указанных вычисляет отраженную точку по квазиградиенту и расширенную точку только в случае, если классическая операция отражения не успешна, в остальных случаях с практической точки зрения они идентичны.
Симплексный метод с приближенно-вычисленным градиентом. Далее рассмотрен еще один из подходов – использование в качестве дополнительного направления приближенно-вычисленного (численного) градиента [7, 9, 11, 12]. Он базируется на численном определении производной при малых приращениях аргументов. Вычисляя, таким образом, частные производные по всем переменным критерия, получаем приближенное направление градиента, что и будет считаться дополнительным направлением поиска. Далее, поступая аналогично указанному выше методу (формула 9), получаем точку для дальнейшего движения симплекса. В качестве точки нахождения градиента в алгоритмах, построенных на основе метода Нелдера-Мида, чаще всего применяется центр тяжести симплекса, либо точка с наименьшим значением критерия. Существует множество разновидностей данного подхода, но ввиду ограниченности объема статьи и общности полученных результатов в этой статье они дальше рассматриваться не будут.
Результаты исследования. Для иллюстрации обучения ИНС (параметрической оптимизации) конкретизируем элементы автоматической системы (рис. 1). Оператор объекта регулирования Gоб(p) представлен в виде, с помощью которого можно описать значительное количество промышленных объектов:
(11)
где kоб – коэффициент передачи объекта, kим – коэффициент передачи исполнительного механизма; , – постоянные времени объекта, – время запаздывания.
Элемент ШИМ имеет в своем составе нейронную сеть (рис. 2), состоящую из трех нейронов в скрытом слое с сигмоидальной функцией активации и одного в выходном слое [11]. В качестве критерия оптимизации выбран широко распространённый интегрально-квадратичный критерий:
(12)
где L – интервал интегрирования.
Исследования проведены в достаточно большом диапазоне параметров объекта, при этом , что, как известно, при применении ПИД-регуляторов не может обеспечить удовлетворительного качества процессов, протекающих в автоматических системах, и, в конечном итоге, вынуждает применять дискретные регуляторы, в частности, ШИМ-регуляторы. В качестве иллюстрации приведены результаты исследования при
kим =0,01; kоб =1; Tоб1 = 10; Tоб2 = 40; τоб= 50; Т=25, и при задающем воздействии λ(t)= 0,5 1(t).
Параметры алгоритмов ОНС при всех экспериментах, исходя из предварительных исследований [5, 6, 14, 15]: коэффициент отражения , коэффициент растяжения , коэффициент сжатия .
По итогам работы алгоритмов, в том числе и с квазиградиентом, получены следующие значения интегрального критерия (таблица 1).
Таблица 1. Значения интегрального критерия, количества итераций и процента симплексов, обеспечивающих сходимость к глобальному экстремуму при использовании различных алгоритмов
Алгоритм | Значение критерия | Количество итераций | % симплексов, обеспечивающих сходимость к глобальному экстремуму |
ОНС | 27,05 | 154 | 7 |
ОНС с квазиград. | 31,27 | 112 | 20 |
ОНС с числ. вычисл. град. | 29,42 | 133 | 15 |
Из представленной таблицы следует, что алгоритм ОНС с добавлением квазиградиента и численного градиента уступает алгоритму ОНС в значении найденного экстремума, при этом превосходя его по другим параметрам, подобная картина наблюдается при увеличении количества весов, из этого следует необходимость проведения дальнейшего исследования. Ввиду общности полученных результатов для большинства экспериментов (исследования проводились для нейронных сетей, имеющих от 3 до 128 синаптических весов) и для большей наглядности уменьшено количество настраиваемых параметров (весов) до трех, а оставшиеся установлены такими же, как в экстремуме, полученные с помощью алгоритма ОНС. Далее на рисунках 3-5 представлены операции, выполняемые на определенной итерации алгоритма.
Из анализа приведенных рисунков следует, что при использовании квазиградиентов и численных градиентов практически не выполняется операция внешнего сжатия, которая играет определенную роль в алгоритме ОНС, вместо нее выполняются другие операции, что увеличивает быстродействие алгоритма, но приводит к снижению значения критерия оптимизации. Это наиболее наглядно при возвращении к нейронной сети, расположенной в начале этого раздела статьи (таблица 2, где обозначены операции: О – отражение, К – квазиградиент, Р – растяжение, С – внутреннее сжатие, Вн. С. – внешнее сжатие, У – усечение).
Таблица 2. Количество операции, выполняемых алгоритмами
Алгоритм | О | К | Р | С | Вн. С. | У | Кол-во итераций |
ОНС | 65 | - | 20 | 16 | 36 | 17 | 154 |
ОНС с квазиградиентом | 23 | 43 | 9 | 21 | 2 | 14 | 112 |
ОНС с числ. вычисл. градиентом | 33 | 37 | 18 | 19 | 7 | 19 | 133 |
Для устранения вышесказанного в статье предлагается в алгоритмы ввести правило, что в случае неуспешности классической операции отражения сравниваться между собой будут точки, полученные после операции сжатия и отражения по дополнительному направлению, и уже среди них выбирается точка с наименьшим значением критерия.
Рис. 3. Операции, выполняемые на определенной итерации алгоритма с квазиградиентом
Рис. 4. Операции, выполняемые на определенной итерации алгоритма ОНС
Рис. 5. Операции, выполняемые на определенной итерации алгоритма с численным вычислением градиента
По итогам работы алгоритмов с вышеуказанным дополнением на полностью необученной нейронной сети получены следующие параметры (таблица 3).
Таблица 3. Значения интегрального критерия, количества итераций и процента симплексов, обеспечивающих сходимость к глобальному экстремуму при использовании различных алгоритмов
Алгоритм | Значение критерия | Количество итерации | % симплексов, обеспечивающих сходимость к глобальному экстремуму |
ОНС | 27,05 | 154 | 7 |
ОНС с квазиградиентом | 29,34 | 121 | 18 |
ОНС с числ. вычисл. град. | 27,05 | 140 | 12 |
Исходя из таблицы 3, дополнительное направление на основе численного вычисления градиента обеспечивает схождение к глобальному экстремуму за меньшее количество итераций, при большем проценте начальных симплексов, обеспечивающих сходимость, при решении задачи обучения нейронной сети автоматической импульсной системы.
Заключение. Решена задача параметрической оптимизации для ИНС, входящих в состав ШИМ-элементов с достаточной для практики точностью. Алгоритм ОНС с внедрением квазиградиента, на основе приближенного вычисления градиента, и c предложенными в этой статье изменениями может быть рекомендован при решении подобных задач, выдвигаемых практикой автоматической регулирования в импульсных системах с ШИМ-элементом, имеющих в своем составе ИНС.
作者简介
Innokentiy Igumnov
National research Irkutsk state technical university
编辑信件的主要联系方式.
Email: rtif555@gmail.com
SPIN 代码: 6423-5450
Candidate of technical sciences, associate professor of the software engineering center
俄罗斯联邦, IrkutskNicolai Kucyi
National research Irkutsk state technical university
Email: kucyinn@mail.ru
SPIN 代码: 7425-6740
Doctor of technical sciences, professor of the laboratory of network technologies
俄罗斯联邦, Irkutsk参考
- Rozenvaser E.N. Linejnaja teorija cifrovogo upravlenija v nepreryvnom vremeni [Linear theory of conventional control under constant time conditions]. Мoscow, Nauka, 1994, 462 p.
- Sadek S., Al-Hamadi A., Michaelis B., Sayed U. Efficient region-based image querying. Journal of computing, 2010, v. 2, no. 6, pp. 225–232.
- Wilamowski B. M., Hao Yu, Improved computation for levenberg-Marquardt training. IEEE Trans. on Neural Networks, 2010, v. 21, no. 6, pp. 930–937.
- Gao F., Han L. Implementing the Nelder-Mead Simplex algorithm with adaptive parameters. Computational optimization and applications, 2010, v. 3, no. 12, pp. 112–118.
- Igumnov I.V., Kucyj N.N. Nejrosetevaja realizacija i nastrojka ShIM-jelementov v avtomaticheskih sistemah [Neural network implementation and configuration PWM elements in automatic systems]. Novosibirsk, Vestnik NGTU [Novosibirsk, Bulletin of NSTU], 2015, no 3(60), pp. 23–32.
- Igumnov I.V., Kucyj N.N. Algoritm parametricheskoj optimizacii avtomaticheskih sistem s ShIM-jelementom, imejushhim v svoem sostave nejronnuju seti [The algorithm of parametric optimization of automated systems with PWM element that incorporates artificial neural network]. Mekhatronika, avtomatizatsiya, upravlenie [Mechatronics, automation, control], 2017, vol. 18, no. 4, pp. 227–232.
- Kibzun A.I., Matveev E.L. Stohasticheskij kvazigradientnyj algoritm minimizacii funkcii kvantili [Stochastic quasigradient algorithm for minimizing the quantile function]. Moscow, Avtomatika i telemehanika [Automation and telemechanics], 2012, no. 2, pp. 64–78.
- Nam Pham, Bogdan M., Ilamowski L., Improved Nelder Mead’s Simplex method and applications, electrical and computer engineering. US Journal of computing, 2011, v. 3, no. 3, pp. 512–518.
- Nazareth L., Tseng P., Gilding the lily: a variant of the Nelder-Mead algorithm based on golden-section search. Comput. Optim. Appl, 2002, v. 22, no. 1, pp. 133–144.
- Galushkin A.I. Nejronnye seti: osnovy teorii [Neural networks: basic theory]. Moskow, Gorjachaja linija-Telekom [Moscow, Hotline-Telecom], 2017, 496 pp.
- Jirí Vala, Petra Jarosova Optimization approaches to some problems of building design. Applications of mathematics, 2018, v. 63, no. 3, pp. 305–331.
- Saputra W.P. Comparing quasi newton BFGS and Nelder Mead algorithm for Box-Cox transformation. Applications of mathematics, 2015, v. 53, no. 5, p.p. 207–214.
- Goerz M.H., Whale K.B., Kochi C.P., Hybrid optimization schemes for quantum control EPJ Quantum Technology. 2015, v. 21, no. 2, p.p. 199-216, doi: 10.1140/epjqt/s40507-015-0034-0.
- Niegodajew P, Elsner W., Maciej M., Kowalczyk Ł. Power plant optimisation – effective use of the Nelder-Mead approach. MDPI Process, 2020, v. 357, no. 8, pp. 128-141.
- Yoshihiko O., Masaki Y., Masaki O. Effective hyperparameter optimization using Nelder-Mead method in deep learning. IPSJ transactions on computer vision and applications, 2017, v.9(20), pp.124-136, doi: 10.1186/s41074-017-0030-7.
补充文件
