Методы нейросетевой детекции сельскохозяйственных животных в плотных динамических группах на изображениях

Обложка

Цитировать

Полный текст

Аннотация

Представлены результаты разработки и исследования методов и моделей детекции (выделения особей) сельскохозяйственных животных на изображениях на примере свиней, которые находятся на агрокомплексах в плотных динамичных группах и к которым плохо применимы традиционные методы идентификации. Для решения задачи выбраны перспективные нейросетевые архитектуры Faster R-CNN и YOLOv5, выполнена тонкая настройка и обучение нейронных сетей. Применение сети YOLOv5 позволило достигнуть точности детекции mAP=94,05%, что существенно выше показанной в аналогичных работах. Представленные результаты - основа функционирования программно-аппаратного комплекса для неинвазивного автоматизированного контроля состояния животных с интеллектуальным анализом данных, обеспечивающего поддержку принятия оперативных научно обоснованных решений в сфере управления животноводством и продовольственной безопасностью.

Полный текст

Доступ закрыт

Об авторах

Алексей Алексеевич Жигалов

Белгородский государственный национальный исследовательский университет

Автор, ответственный за переписку.
Email: jigaloff@gmail.com

Аспирант

Россия, Белгород

Ольга Александровна Иващук

Белгородский государственный национальный исследовательский университет

Email: olga.ivashuk@mail.ru

Доктор технических наук, профессор. Заведующий кафедрой информационных и робототехнических систем

Россия, Белгород

Татьяна Константиновна Бирюкова

Федеральный исследовательский центр «Информатика и управление» РАН

Email: yukonta@mail.ru

Кандидат физико-математических наук. Старший научный сотрудник

Россия, Москва

Вячеслав Игоревич Федоров

Белгородский государственный национальный исследовательский университет

Email: fedorov_v@bsu.edu.ru

кандидат технических наук, доцент кафедры информационных и робототехнических систем

Россия, Белгород

Список литературы

  1. Эффективность сельскохозяйственного производства (методические рекомендации). М.: Всероссийский научно-исследовательский институт экономики сельского хозяйства. 2005. 156 с.
  2. Сельское хозяйство в России. 2021: Статистический сборник. М.: Росстат. 2021. 100 с.
  3. Neethirajan S. The role of sensors, big data and machine learning in modern animal farming // Sensing and Bio-Sensing Research. 2020. V.29.
  4. Yang Q., Xiao D. A review of video-based pig behavior recognition // Applied Animal Behaviour Science. 2020. V.233.
  5. [Электронный ресурс]. URL: https://github.com/ ultralytics/yolov5 (дата обращения: 21.06.2022).
  6. Ren S., He K., Girshick R., Sun J. Faster R-CNN: towards real-time object detection with region proposal networks // IEEE Trans. Pattern Anal. Mach. Intell. 2017. V.39. P.1137–1149.
  7. He K., Zhang X., Ren S., Sun J. Deep residual learning for image recognition // IEEE Conference on Computer Vision and Pattern Recognition. 2016. P.770–778.
  8. [Электронный ресурс]. URL: https://pytorch.org/vision/stable/generated/torchvision.mo dels.resnet50.html (дата обращения: 20.06.2022).
  9. [Электронный ресурс]. URL: https://pytorch.org/vision/0.12/_modules/torchvision/mode ls/mobilenetv3.html (дата обращения: 18.06.2022).
  10. Padilla R., Passos W.L., Dias T.L.B., Netto S.L., da Silva E.A.B. A Comparative Analysis of Object Detection Metrics with a Companion Open-Source Toolkit // Electronics. 2021. V.10. №3. doi: 10.3390/electronics10030279. [Электронный ресурс]. URL: https://github.com/rafaelpadilla/review_object_detection_ metrics (дата обращения: 10.06.2022).
  11. Li G., Jiao J., Shi G., Ma H., Gu L., Tao L. Fast Recognition of Pig Faces Based on Improved Yolov3 // Journal of Physics: Conference Series. 2022. V.2171.
  12. Hansen M.F., Smith M.L., Smith L.N., Salter M.G., Baxter E.M., Farish M., Grieve B. Towards on-farm pig face recognition using convolutional neural networks // Computers in Industry. 2018. V.98 P.145–152.
  13. Marsot M., Mei J., Shan X., Ye L., Feng P., Yan X., Li C., Zhao Y. An adaptive pig face recognition approach using Convolutional Neural Networks // Computers and Electronics in Agriculture. 2020. V.173.
  14. Wang K., Chen C., He Y. Research on pig face recognition model based on keras convolutional neural network // IOP Conference Series: Earth and Environmental Science. 2020. V.474.
  15. Wang R., Shi Z., Li Q., Gao R., Zhao C., Feng L. Pig face recognition model based on a cascaded network // Applied Engineering in Agriculture. 2021. 37(5). P.879-890.
  16. Shigang W., Jian W., Meimei C., Jinyang W. A pig face recognition method for distinguishing features // IEEE Asia-Pacific Conference on Image Processing, Electronics and Computers (IPEC). 2021.
  17. Wang Z., Liu T. Two-stage method based on triplet margin loss for pig face recognition // Computers and Electronics in Agriculture. 2022. V.194.
  18. Alameer A., Kyriazakis I., Bacardit J. Automated recognition of postures and drinking behaviour for the detection of compromised health in pigs // Scientific Reports. 2020.
  19. Redmon J., Farhadi A. YOLO9000: Better, Faster, Stronger // IEEE Conference on Computer Vision and Pattern Recognition; Honolulu, HI, USA. 2017. P.7263–7271.
  20. Sa J., Choi Y., Lee H., Chung Y., Park D., Cho J. Fast Pig Detection with a Top-View Camera under Various Illumination Conditions // Symmetry. 2019. V.11(266).
  21. Ju M., Choi Y., Seo J. A Kinect-Based Segmentation of Touching-Pigs for Real-Time Monitoring // Sensors. 2018. V.18(1746).
  22. Riekert M., Klein A., Adrion F., Hoffmann C., Gallmann E. Automatically detecting pig position and posture by 2D camera imaging and deep learning // Computers and Electronics in Agriculture. 2020. V.174.
  23. Psota E.T., Mittek M., Perez L.C., Schmidt T., Mote B. Multi-Pig Part Detection and Association with a Fully-Convolutional Network // Sensors (Basel). 2019. 19(4):852.
  24. Lee S.K. Pig Pose Estimation Based on Extracted Data of Mask R-CNN with VGG Neural Network for Classifications // Open Public Research Access Institutional Repository and Information Exchange. Electronic Theses and Dissertations. 2020. [Электронный ресурс]. URL: https://openprairie.sdstate.edu/etd/4098 (дата обращения: 23.06.2022).
  25. Badrinarayanan V., Kendall A., Cipolla R. SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation // IEEE Trans. Pattern Anal. Mach. Intell. 2017 V.39 P.2481–2495.
  26. He K., Gkioxari G., Dollar P., Girshick R. Mask R-CNN // arXiv:1703.06870v3 [cs.CV]. 2018.
  27. Wang Z., Liu T. Two-stage method based on triplet margin loss for pig face recognition // Computers and Electronics in Agriculture. 2022. V.194.
  28. Tan M., Pang R., Le Q.V. EfficientDet: Scalable and efficient object detection // IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit. 2020. P.10778–10787.
  29. Dwivedi P. YOLOv5 compared to Faster RCNN. Who wins? // 2020. [Электронный ресурс]. URL: https://towardsdatascience.com/yolov5-compared-to-faster-rcnn-who-wins-a771cd6c9fb4#:~:text=The%20final%20comparison%20b %2Fw,little%20to%20no%20overlapping%20boxes (дата обращения: 21.06.2022).
  30. Lin T.-Y., Dollar P., Girshick R., He K., Hariharan B., Belongie S. Feature Pyramid Networks for Object Detection // 2017. [Электронный ресурс]. URL: https://arxiv.org/pdf/1612.03144.pdf (дата обращения: 19.06.2022).
  31. [Электронный ресурс]. URL: https://pytorch.org/vision/stable/models.html (дата обращения: 20.06.2022).
  32. [Электронный ресурс]. URL: https://pytorch.org/vision/0.12/_modules/torchvision/mode ls/detection/faster_rcnn.html (дата обращения: 23.06.2022).
  33. [Электронный ресурс]. URL: https://pytorch.org/vision/stable/generated/torchvision.mo dels.detection.fasterrcnn_resnet50_fpn.html#torchvision.m odels.detection.fasterrcnn_resnet50_fpn (дата обращения: 15.06.2022).
  34. [Электронный ресурс]. URL: https://pytorch.org/vision/stable/generated/torchvision.mo dels.detection.fasterrcnn_mobilenet_v3_large_fpn.html#to rchvision.models.detection.fasterrcnn_mobilenet_v3_large fpn (дата обращения: 17.06.2022).
  35. [Электронный ресурс]. URL: https://cocodataset.org/#detection-eval (дата обращения: 23.06.2022).
  36. Everingham M., van Gool L., Williams C. K., Winn J., Zisserman A. The pascal visual object classes (VOC) challenge // Int. J. Comput. 2010. No 88. P. 303–338.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML
2. Рис. 1. Результаты детекции «лиц» свиней для YOLOv5 и Faster R-CNN-FPN с backbone ResNet-50 (фотография в загоне)

Скачать (706KB)
3. Рис. 2. Результаты детекции «лиц» свиней для YOLOv5 и Faster R-CNN-FPN с backbone ResNet-50 (фотография в поле)

Скачать (640KB)
4. Рис.3. Изменение лосс-функций при обучении и валидации нейросети YOLOv5x6

Скачать (248KB)

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».