Анализ применения искусственных нейронных сетей для оценки технического состояния силовых трансформаторов 6–10 КВ
- Авторы: Солодянкин М.С.1, Колонцов В.Д.1, Ткаченко В.А.1
-
Учреждения:
- Югорский государственный университет
- Выпуск: Том 20, № 4 (2024)
- Страницы: 51-54
- Раздел: ЭЛЕКТРОЭНЕРГЕТИКА
- URL: https://journal-vniispk.ru/1816-9228/article/view/276745
- DOI: https://doi.org/10.18822/byusu20240451-54
- ID: 276745
Цитировать
Полный текст
Аннотация
В настоящей работе произведено сравнение эффективности модели машинного обучения регрессора k-соседей и модели классификатора k-ближайших соседей в задаче предсказания состояния трансформаторного оборудования с использованием данных, которые были сняты системой мониторинга трансформатора.
Предмет исследования: силовые трансформаторы.
Цель исследования: выявление наилучшей модели в задаче классификации состояния трансформаторного оборудования.
Объект исследования: система диагностики трансформаторного оборудования.
Методы исследования: анализ, компьютерное моделирование.
Основные результаты исследования: были получены данные об эффективности моделей с разными параметрами, но все регрессионные модели показали результат хуже, чем модель классификатора.
Ключевые слова
Полный текст
ВВЕДЕНИЕ
Силовые трансформаторы – крайне значимое и дорогое оборудование в сфере электроснабжения, поэтому предсказывание состояния оборудования важно для продолжения нормальной работы. В связи со стремительным ростом вычислительных мощностей современных ЭВМ появилась возможность автоматизировать процессы и улучшить качество работ. На основе нейросетевых моделей разрабатывают проекты, которые могут привнести автоматизацию во многие сферы человеческой деятельности [1–6].
Регрессионная модель k-ближайших соседей основана на оценивании расстояния между данными обучающей выборки и экземпляров, которые были отправлены алгоритму для оценки. Для оценки расстояния используют различные метрики, обычно это евклидово расстояние (1), расстояние Минковского (2) и манхэттенское (3).
(1)
где u и v – векторы, между которыми оценивается расстояние.
(2)
где p – параметр пространства, который может обращать формулу в другие метрики евклидова пространства, например, при p = 1 метрика будет идентична метрике «городских кварталов», а при p= 2 – евклидовой метрике.
(3)
Однако помимо этих расстояний существует еще немало метрик.
В работе [7] приводилось сравнение некоторых простых нейросетевых моделей. Задача данной статьи – сравнить эффективность модели регрессора k-соседей при использовании разных метрик, встроенных алгоритмов и весов с результатами, полученными в работе [7].
РЕЗУЛЬТАТЫ И ОБСУЖДЕНИЕ
В качестве информации для обучения моделей выступил набор данных [8] о силовом трансформаторе напряжением 10/0,4 кВ и мощностью 1500 кВА, запись которого проводилась в промежутке с 25 июня 2019 года по 14 апреля 2020 года с интервалом в 15 минут (20 465 измерений). Этот набор был разделен на две части: тестовая и обучающая, соотношением 30 % и 70 % соответственно.
Обучение осуществлялось на языке программирования общего назначения Python.
Модели k-соседей регрессии с разными параметрами были собраны на основе библиотеки языка программирования Python «Scikit-Learn». Библиотека предоставляет возможность настройки моделей с разными встроенными алгоритмами нахождения ближайших соседей, а также метрик вычисления расстояния между ними.
Также в библиотеке реализовано полезное влияние соседей в зависимости от их расстояния от экземпляра. Это влияние оценивается весами «uniform» и «distance».
Были заданы глобальные параметры моделей:
− n_neighbors=5,
− leaf_size=30,
− p=2,
− metric_params=None,
− n_jobs=None.
По итогу работы было рассмотрено 26 метрик с разными весами («uniform» и «distance») и при разных алгоритмах («Ball_tree», «Kd_tree», «brute»). Все результаты представлены в таблице 1.
Таблица 1. Результаты правильности классификации тестовых образов
Алгоритм | Ball_tree | Kd_tree | brute | |||
Метрика | uniform | distance | uniform | distance | uniform | distance |
P | 0.574 | 0.603 | 0.574 | 0.603 | — | — |
euclidean | 0.574 | 0.603 | 0.574 | 0.603 | 0.574 | 0.603 |
rogerstanimoto | -0.111 | — | — | — | — | — |
hamming | 0.670 | — | — | — | 0.655 | — |
l1 | 0.664 | 0.693 | 0.664 | 0.693 | 0.664 | 0.693 |
chebyshev | 0.493 | 0.522 | 0.494 | 0.523 | 0.496 | 0.524 |
infinity | 0.493 | 0.522 | 0.494 | 0.523 | — | — |
jaccard | -0.111 | -0.111 | — | — | -0.111 | -0.111 |
sokalmichener | -0.111 | -0.111 | — | — | -0.111 | -0.111 |
minkowski | 0.574 | 0.603 | 0.574 | 0.603 | 0.574 | 0.603 |
sokalsneath | -0.111 | -0.111 | — | — | -0.111 | -0.111 |
braycurtis | 0.655 | 0.685 | — | — | 0.655 | 0.685 |
l2 | 0.574 | 0.603 | 0.574 | 0.603 | 0.574 | 0.603 |
russellrao | -0.111 | -0.111 | — | — | — | -0.111 |
dice | -0.111 | -0.111 | — | — | -0.111 | -0.111 |
canberra | 0.581 | 0.613 | — | — | 0.581 | 0.613 |
cityblock | 0.664 | 0.693 | 0.664 | 0.693 | 0.664 | 0.693 |
manhattan | 0.664 | 0.693 | 0.664 | 0.693 | 0.664 | 0.693 |
yule | — | — | — | — | -0.111 | -0.111 |
sqeuclidean | — | — | — | — | 0.574 | 0.618 |
nan_euclidean | — | — | — | — | 0.574 | 0.603 |
cosine | — | — | — | — | 0.583 | 0.622 |
correlation | — | — | — | — | 0.580 | — |
rogerstanimoto | — | -0.111 | — | — | -0.111 | -0.111 |
russellrao | — | — | — | — | -0.111 | — |
hamming | — | 0.688 | — | — | — | 0.675 |
Функция оценки правильности классификации для регрессионной модели выражается коэффициентом детерминации (4).
(4)
где Σi (yi – ŷ)2 – сумма квадратов ошибок регрессии;
Σi (yi – ȳ)2 – сумма квадратов отклонения точек данных от среднего значения.
Стоит отметить, что максимальная величина коэффициента детерминации – 1. При этом значении модель имеет хорошие показатели классификации объектов. Однако коэффициент может принимать и отрицательные значения, несмотря на то, что его значения лежат в пределе от 0 до 1. В документации к библиотеке «Scikit-Learn» [9] этот момент объясняется таким образом: «…модель может быть произвольно хуже», поэтому в таблице 1 можно наблюдать отрицательные оценки у некоторых метрик. Эти оценки стоит интерпретировать так: модель не справилась с задачей классификации и не представляет никакой практической ценности.
В таблице 1 также можно наблюдать отсутствие значений для некоторых метрик и алгоритмов. Это значит, что данные метрики не удалось вызвать при стандартных условиях для данных алгоритмов.
Также можно заметить, что такие метрики, как manhattan, cityblock, l1, имеют одинаковые показатели для всех алгоритмов. Связано это с тем, что эти три метрики являются синонимами расстояния городских кварталов (cityblock). Для удобства обобщим их до метрики cityblock.
По данным таблицы 1 можно заключить, что при всех метриках и алгоритмах модели с весом «distance» показывали лучший результат, чем с весом «uniform». Такие результаты исходят из принципа задания эти двух весов: в первом случае каждая точка-сосед имеет одинаковый весовой коэффициент, соответственно, и влияние каждой точки на итоговый ответ одинаковое; во втором случае же у каждой точки-соседа вес имеет зависимость от расстояния до исследуемой точки, то есть ближние «соседи» привносят больший вклад в предсказание, чем дальние.
ЗАКЛЮЧЕНИЕ И ВЫВОДЫ
По итогу исследования среди протестированных моделей не удалось выявить однозначного фаворита. Две модели показали лучшие результаты среди других (таблица 2).
Таблица 2. Лучшие результаты среди протестированных моделей
Алгоритм | Ball_tree | Kd_tree | brute | |||
Метрика | uniform | distance | uniform | distance | uniform | distance |
braycurtis | 0.655 | 0.685 | — | — | 0.655 | 0.685 |
cityblock | 0.664 | 0.693 | 0.664 | 0.693 | 0.664 | 0.693 |
Однако в сравнении с результатами модели классификатора k-ближайших соседей (95,9 %) [4] при одинаковом количестве соседей (5 соседей) эти результаты очень далеки от пригодных для использования. В целях научного интереса стоит провести углубленное исследование на предмет нахождения модели регрессора k-соседей с параметрами, которые могут дать лучшую точность. Для дальнейших исследований в данном направлении стоит использовать вес «distance», так как качество предсказаний с этим весом больше. В работе не изменялись такие параметры моделей, как n_neighbors, leaf_size и др.
Об авторах
Матвей Сергеевич Солодянкин
Югорский государственный университет
Email: matvej.solodyankin@mail.ru
лаборант
Россия, Ханты-МансийскВладислав Дмитриевич Колонцов
Югорский государственный университет
Email: kolontzov.vladislav@yandex.ru
лаборант
Россия, Ханты-МансийскВсеволод Андреевич Ткаченко
Югорский государственный университет
Автор, ответственный за переписку.
Email: v_tkachenko@ugrasu.ru
кандидат технических наук, доцент
Россия, Ханты-МансийскСписок литературы
- Свидетельство о государственной регистрации программы для ЭВМ № 2023666061 Российская Федерация. Программа оценки функционального состояния усталости человека по выражению лица : № 2023664887 : заявл. 17.07.2023 : опубл. 26.07.2023 / Б. Курбанов, А. С. Катасев ; заявитель федеральное государственное бюджетное образовательное учреждение высшего образования «Казанский национальный исследовательский технический университет им. А. Н. Туполева – КАИ».
- Свидетельство о государственной регистрации программы для ЭВМ № 2023665983 Российская Федерация. Программный комплекс редукции нечетких правил в моделях оценки дискретного состояния объектов : № 2023664921 : заявл. 17.07.2023 : опубл. 25.07.2023 / М. В. Дагаева, А. С. Катасев, М. Ф. Хасбиуллин ; заявитель федеральное государственное бюджетное образовательное учреждение высшего образования «Казанский национальный исследовательский технический университет им. А. Н. Туполева – КАИ».
- Свидетельство о государственной регистрации программы для ЭВМ № 2023665580 Российская Федерация. Программный комплекс установки и проверки электронной подписи по алгоритму RSA : № 2023664878 : заявл. 17.07.2023 : опубл. 18.07.2023 / М. Ф. Хасбиуллин, А. С. Катасев ; заявитель федеральное государственное бюджетное образовательное учреждение высшего образования «Казанский национальный исследовательский технический университет им. А.Н. Туполева – КАИ».
- Лютаревич, А. Г. Применение нейронных сетей для прогнозирования параметров электропотребления / А. Г. Лютаревич. – doi: 10.18822/byusu202302124-132. – Текст : непосредственный // Вестник Югорского государственного университета. – 2023. – № 2 (69). – С. 124–132.
- Манусов, В. З. Нейронные сети: прогнозирование электрической нагрузки и потерь мощности в электрических сетях. От романтики к прагматике : монография / В. З. Манусов, С. В. Родыгина. – Новосибирск : Издательство НГТУ, 2018. – 303 с. – Текст : непосредственный.
- Веселов, О. В. Нейроконтроллер оценки технического состояния электромеханических систем / О. В. Веселов, С. Г. Светушенко. – doi: 10.17513/snt.39104. – Текст : непосредственный // Современные наукоемкие технологии. – 2022. – № 4. – С. 32–39.
- Лютаревич, А. Г. Применение нейросетевых моделей как инкрементных комплексов надежности трансформаторного оборудования / А. Г. Лютаревич, М. С. Солодянкин, В. А. Ткаченко. – Текст : непосредственный // Пространственное социально-экономическое развитие территорий: формирование комфортной среды и повышение качества жизни населения : сборник материалов II Всероссийской научно-практической конференции с международным участием XV Международного IT-форума с участием стран БРИКС и ШОС (Ханты-Мансийск, 18-19 июня 2024 г.). – Ханты-Мансийск : Югорский государственный университет, 2024. – С. 243–247.
- Putchala, S. Distributed Transformer Monitoring / S. Putchala // Kaggle. – URL: https://www.kaggle.com/datasets/sreshta140/ai-transformer-monitoring (date of application: 15.09.2024).
- r2_score. – Текст : электронный // Открытая программная библиотека Scikit Learn. – URL: r2_score — scikit-learn 1.5.2 documentation (дата обращения: 20.09.2024).
Дополнительные файлы
