Метод обработки фото- и видеоданных с фотоловушек с использованием двухстадийного нейросетевого подхода

Обложка

Цитировать

Полный текст

Аннотация

В работе предложена технология анализа данных с фотоловушек с помощью двухстадийной нейросетевой обработки. Задача первого этапа состоит в отделении пустых изображений от непустых. Для решения задачи проведен сравнительный анализ архитектур YOLOv5, YOLOR, YOLOX и выявлена наиболее оптимальная модель детектора. Задача второго этапа заключается в классификации объектов, найденных детектором. Сравнивались модели EfficientNetV2, SeResNet, ResNeSt, ReXNet, ResNet. Для обучения модели детектора и классификатора разработан подход подготовки данных, заключающийся в удалении изображений-дубликатов из выборки. Метод был модифицирован с помощью агломеративной кластеризации для разделения выборки на обучение, валидацию и тест. В задаче обнаружения объектов лучшим на наборе данных оказался алгоритм YOLOv5-L6 с точностью нахождения 98,5%. В задаче классификации найденных объектов, лучше всех себя показала архитектура ResNeSt-101 с качеством распознавания 98,339% на тестовых данных.

Полный текст

Доступ закрыт

Об авторах

Владислав Александрович Ефремов

Московский физико-технический институт (национальный исследовательский университет)

Автор, ответственный за переписку.
Email: efremov.va@phystech.edu

Аспирант. Программист лаборатории цифровых систем специального назначения

Россия, Долгопрудный, Московская область

Андрей Владимирович Леус

Московский физико-технический институт (национальный исследовательский университет)

Email: leus.av@mipt.ru

Кандидат технических наук. Ведущий программист лаборатории цифровых систем специ- ального назначения

Россия, Долгопрудный, Московская область

Дмитрий Александрович Гаврилов

Московский физико-технический институт (национальный исследовательский университет)

Email: gavrilov.da@mipt.ru

Доктор технических наук. Директор физтех школы ФРКТ

Россия, Долгопрудный, Московская область

Даниил Игоревич Мангазеев

Московский физико-технический институт (национальный исследовательский университет)

Email: mangazeev.di@phystech.edu

Магистр. Программист лаборатории цифровых систем специального назначения

Россия, Долгопрудный, Московская область

Иван Витальевич Холодняк

Московский физико-технический институт (национальный исследовательский университет)

Email: kholodnyak.iv@phystech.edu

Магистр

Россия, Долгопрудный, Московская область

Александра Сергеевна Радыш

Московский физико-технический институт (национальный исследовательский университет)

Email: radysh.as@phystech.edu

Магистр

Долгопрудный, Московская область

Виктор Александрович Зуев

Московский физико-технический институт (национальный исследовательский университет)

Email: zuev.va@phystech.edu

Магистр

Россия, Долгопрудный, Московская область

Никита Алексеевич Водичев

Московский физико-технический институт (национальный исследовательский университет)

Email: vodichev.na@phystech.edu

Магистр

Россия, Долгопрудный, Московская область

Список литературы

  1. O’Connell A. F., Nichols J. D., Karanth K.U. Camera traps in animal ecology: Methods and analyses. – Berlin, Germany: Springer Science & Business Media. 2011. P. 279
  2. He K., Zhang X., Ren S., Sun J. Deep residual learning for image recognition. // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016. Р. 770-778.
  3. Гаврилов Д.А., Ловцов Д.А. Автоматизированная переработка визуальной информации с помощью технологий искусственного интеллекта // Искусственный интеллект и принятие решений. 2020. №4. С. 33 – 46.
  4. Lovtsov D. A., Gavrilov D.A. Automated special purpose optical electronic system’s functional diagnosis // Proc. Int. Semin. Electron Devices Des. Prod. SED-2019 (23 – 24 April 2019). Prague, Czech Repub. IEEE. 2019. P. 70–73
  5. Yu X., Wang J., Kays R., Jansen P. A., Wang T. H.T. Automated identification of animal species in camera trap images// EURASIP Journal on Image and Video Processing. 2013. Vol. No 1. P. 52.
  6. Chen G., Han T. X, He Z., Kays R., Forrester T. Deep convolutional neural network based species recognition for wild animal monitoring // IEEE international conference on image processing (ICIP). 2014. P. 858–862.
  7. Gomez-Villa A., Salazar A., Vargas F. Towards automatic wild animal monitoring: Identification of animal species in camera-trap images using very deep convolutional neural networks.// Ecological Informatics. 2017. No 41. Р. 24–32.
  8. Nguyen H., Maclagan S. J., Nguyen T. D., Nguyen T., Flemons P., Andrews K., Ritchie E. G., Phung D. Animal recognition and identification with deep convolutional neural networks for automated wildlife monitoring. //International Conference on Data Science and Advanced Analytics, DSAA. – 2017: Tokyo, Japan 19-21 October 2017. Р. 40-49.
  9. Beery S., Van Horn, G., Perona P. Recognition in Terra Incognita// Computer Vision. ECCV 2018. Lecture Notes in Computer Science. Vol. 11220.
  10. Norouzzadeh M. S., Morris D., Beery S., Joshi N., Jojic N., Clune J. A deep active learning system for species identification and counting in camera trap images. //Methods in Ecology and Evolution. 2021. Vol. 12 (1). Р. 150–161.
  11. Whytock R. C, Świeżewski J., Zwerts J.A. Robust ecological analysis of camera trap data labelled by a machine learning model// Methods in Ecology and Evolution. 2021. No 12 (6). Р. 1080 –1092.
  12. Leus A.V., Efremov V.A. Computer vision methods application for camera traps image analysis within the software for the reserves environmental state monitoring//Proceedings of the Mordovia State Nature Reserve. 2021. Vol. 28. Р.121-129.
  13. Tabak M. A., Norouzzade, M. S., Wolfson D. W., Sweeney S. J., VerCauteren K. C., Snow N. P., Halseth J. M., Di Salvo P. A., Lewis J. S., White M. D., Teton B., Beasley J. C., Schlichting P. E., Boughton R. K., Wight B., Newkirk E. S., Ivan R.S. Machine learning to classify animal species in camera trap images: Applications in ecology. //Methods in Ecology and Evolution. 2018. No 10 (4). Р. 585–590.
  14. Glenn J. YOLOv5 release v6.1 – 2021 – https://github.com/ultralytics/yolov5/releases/tag/v6.1.
  15. Wang C., Yeh I., Liao H.M. You Only Learn One Representation: Unified Network for Multiple Tasks. 2021.
  16. Ge Z., Liu S., Wang F. Li Z., Sun J. YOLOX: Exceeding YOLO Series in 2021. – 2021.
  17. Lin T. Y., Maire M., Belongie S., Hays J., Perona P., Ramanan D., Zitnick C.L. Microsoft COCO: Common objects in context // European conference on computer vision. 2014. Р. 740–755.
  18. Hu J., Shen L., Albanie S., Sun G., Wu E. Squeeze-and-Excitation Networks. // IEEE Transactions on Pattern Analysis and Machine Intelligence. 2020. Vol. 42. No 8. P. 2011-2023.
  19. Zhang H., Wu C., Zhang Z., Zhu Y., Zhang Z., Lin H., Sun Y., He T., Mueller J., Manmatha R., Li M., Smola A. ResNeSt: Split-Attention Networks. 2020.
  20. Han D., Yun S., Heo B., Yoo Y.J. ReXNet: Diminishing Representational Bottleneck on Convolutional Neural Network. 2020.
  21. Tan M., Le Q. V. EfficientNetV2: Smaller Models and Faster Training. 2021.
  22. Tan M., Le Q. V. EfficientNet: Rethinking model scaling for convolutional neural networks. 2020.
  23. Sibson R. SLINK: An Optimally Efficient Algorithm for the Single-Link Cluster Method//Comput. J. 1973. No 16. Р. 30-34

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML
2. Рис. 1. Примеры локаций заповедников. a) Воронежский (Roe deer); б) Дагестанский (Wolf); в) Саяно-Шушенский (Wolverine); г) Сихотэ-алинский (Tiger)

Скачать (283KB)
3. Рис. 2. Примеры изображений с искажениями. a) пустое изображение; б) животное в темноте; в) близкое расположение животного к фотоловушке; г) засвеченное животное; д) размытое изображение; е) несколько видов животных; ж) часть животного

Скачать (251KB)
4. Рис. 3. Пример изображений дубликатов/ а) исходное изображение; б) corr=90,2%; в) corr=90,6%; г) исходное изображения; д) corr=91,8%; е) corr=94,1%. а) и д) – изображения из валидационной выборки; б), в), г), е) – изображения из тренировочной выборки. corr означает степень корреляции между исходным изображением из валидационной выборки с изображениями с тренировочной выборки. Порог корреляции – 0,9

Скачать (226KB)

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».