Правовые основы применения искусственного интеллекта и перспективы его использования в борьбе с преступностью
- Авторы: Антонов А.А.1, Кандышева Ю.А.1
-
Учреждения:
- Северо-Западный филиал, Российский государственный университет правосудия имени В. М. Лебедева
- Выпуск: № 1 (2025)
- Страницы: 76-85
- Раздел: Уголовное право
- Статья опубликована: 26.05.2025
- URL: https://journal-vniispk.ru/2414-5750/article/view/364622
- ID: 364622
Цитировать
Полный текст
Аннотация
Авторы обращаются к актуальному вопросу определения роли искусственного интеллекта в современном мире, обсуждению мировых тенденций его правового регулирования, отмечая, что всплеск принятия нормативных документов различного уровня пришелся на 2024 г. Авторы последовательно рассматривают теоретические и нормативные подходы к определению правосубъектности искусственного интеллекта и используют сравнительно-правовой метод исследования, обращаясь к международным актам, модельному законодательству государств – участников Содружества Независимых Государств (СНГ), а также Союзного Государства (Республика Беларусь, Российская Федерация). Авторы приходят к выводу, что в нашей стране в целом сформирована нормативная основа регулирования искусственного интеллекта как на федеральном уровне, так и на уровне подзаконных нормативных правовых актов.
Отмечено, что имеющиеся технологии искусственного интеллекта не внедряются в правоохранительную деятельность органов внутренних дел (полиции). В качестве перспективных направлений дальнейших научных исследований следует выделить те, которые позволят интегрировать существующие технологии искусственного интеллекта в деятельность правоохранительных органов для предупреждения преступлений и организации служебной деятельности их сотрудников.
Полный текст
В последние годы наблюдается рост исследовательского интереса к проблеме правового регулирования отношений, связанных с искусственным интеллектом (далее – ИИ). Во-первых, это обусловлено тем, что, начиная с середины первого десятилетия XXI столетия, ряд государств (более 30) приняли стратегии в области ИИ на национальном уровне.
Обсуждению стратегических документов в сфере ИИ и их влияния на правоохранительную сферу отдельных стран посвящены работы М. М. Бикчантаева [1], И. Е. Бочаровой [2], П. В. Жестерова [3], Ю. Е. Пудовочкина [4], А. А. Сребрянской [5] и др.
Интерес к обсуждению этой проблемы в настоящее время вышел за пределы национального регулирования, что привело к появлению трудов, в которых анализируются общемировые тенденции в сфере правового регулирования ИИ. Среди них – научные статьи М. С. Жука [6], П. Н. Кобеца [7], Н. М. Олейника [8], Ю. А. Савинова [9] и др.
Подходы к уточнению правового статуса ИИ достаточно подробно исследованы в юридической литературе гражданско-правовой направленности. В целом можно выделить несколько подходов к проблеме правосубъектности ИИ. Первый подход подразумевает постановку ИИ в один ряд с физическим лицом [10, с. 105]. Второй подход основан на необходимости приравнивания статуса ИИ к статусу животных, в особенности по вопросам гражданско-правовой ответственности [11, с. 17]. Третий подход предлагает отнести ИИ к юридическим лицам и обозначать его как «электронное лицо» [12, с. 157; 13, с. 74].
Наднациональное регулирование ИИ
В условиях экспонентного роста числа разработок в области ИИ мировое сообщество активно ищет эффективные пути регулирования рассматриваемой сферы. Перечислим ключевые документы и годы их принятия.
В 2017 г. на конференции в штате Калифорния экспертами в области IT-технологий приняты так называемые Азиломарские принципы, которые установили этические рамки для разработчиков ИИ и лиц, их финансирующих.
В 2023 г. Консультативный орган по искусственному интеллекту при Генеральном секретаре ООН подготовил промежуточный отчет о применении ИИ.
Прошлый год стал богат на принятие правовых документов, регулирующих рассматриваемую нами сферу.
21 мая 2024 г. Совет ЕС одобрил Регламент об ИИ (иными словами, первый наднациональный закон об ИИ, принятый Европейским парламентом).
10 июля 2024 г. НАТО опубликовал свою пересмотренную стратегию ИИ, которая обращает особое внимание стран-членов на безопасное использование новейших технологий (генеративный ИИ, информационные инструменты на базе ИИ).
Кроме того, в 2024 г. разработан Глобальный индекс ответственного ИИ – первый в мире инструмент, позволяющий установить глобально значимые ориентиры для развития ответственного ИИ и оценить их влияние в странах по всему миру. В первом издании Глобальный индекс ответственного ИИ охватил 138 стран64.
Регулирование ИИ в рамках СНГ представлено в мае 2023 г., когда Межпарламентская ассамблея государств – участников СНГ рассмотрела проект Модельного закона об ИИ, первый подобный документ на постсоветском пространстве. Указанный законопроект имеет своей целю унификацию законодательства стран, входящих в СНГ, в рассматриваемой сфере. Предполагается, что в целом принятие данного акта сможет улучшить жизнь граждан, обеспечить их безопасность и развить экономическую и социальную сферы общества. 18 апреля 2024 г. на Заседании Постоянной комиссии Межпарламентской Ассамблеи СНГ по науке и образованию был одобрен проект модельного закона «О технологиях искусственного интеллекта»65. В соответствии с ним государства – участники СНГ согласовали единое определение ИИ и правовые рамки его использования. Ожидается, что в 2025 г. разработка модельного закона о технологиях ИИ будет завершена.
Регулирование ИИ в Российской Федерации
В отечественных нормативных документах ИИ начал упоминаться в 2016 г. Например, в ранее действовавшей Стратегии научно-технологического развития (далее – Стратегия) основой инновационного развития российского общества был признан ИИ66. Примечательно, что в п. 21 вновь принятой Стратегии 2024 г. в качестве приоритетного направления научно-технологического развития на ближайшее десятилетие подтвержден «…переход к передовым технологиям проектирования и создания высокотехнологичной продукции, основанным на применении… искусственного интеллекта»67.
В п. 5 Национальной стратегии развития искусственного интеллекта на период до 2030 года68 включен термин ИИ, определяемый как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их». Обозначенный выше комплекс включает в себя: 1) информационно-коммуникационную инфраструктуру; 2) программное обеспечение (в том числе использующее методы машинного обучения); 3) процессы и сервисы по обработке данных и поиску решений.
Отметим важность принятия Федерального закона от 4 августа 2023 г. № 417-ФЗ69, который определил цели специального правового регулирования ИИ. Среди них: обеспечение повышения качества жизни населения, эффективности государственного или муниципального управления, деятельности хозяйствующих субъектов в ходе внедрения технологий ИИ, формирование комплексной системы регулирования общественных отношений, возникающих в связи с развитием и использованием технологий ИИ. Данный экспериментальный правовой режим был установлен на 5 лет, и его действие заканчивается 1 июля 2025 г.
Приказ Минэкономразвития России от 29 июля 2021 г. № 39270 содержит Перечень технологических задач, на реализацию которых может быть направлен проект в сфере ИИ. Кроме того, в этом приказе также представлена классификация современных технологий ИИ: компьютерное зрение; обработка естественного языка; распознавание и синтез речи; интеллектуальная поддержка принятия решений; перспективные методы ИИ.
В Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года71 сформулирована цель регламентации общественных отношений, возникающих по поводу ИИ и робототехники, а также впервые отмечается значимость ИИ для обеспечения национальной безопасности и правопорядка.
Предотвращение и раскрытие преступлений являются важнейшими компонентами обеспечения общественной безопасности в любой стране [14, с. 9]. Традиционно подходы к предупреждению и раскрытию преступлений основывались на человеческой интуиции и весьма ограниченных исходных данных, что приводило к тому, что часть противоправных деяний выпадала из поля зрения правоохранителей и формировала так называемую латентную преступность.
Однако недавние достижения в области технологий ИИ предлагают смену парадигмы, позволяя применять так называемые проактивные подходы, сочетающие традиционные методы предупреждения преступлений (патрулирование общественных мест, выборочные досмотры автомобилей и т. п.) с технологическими подходами, такими как системы наблюдения, картирование преступлений и географическое профилирование [15, с. 299].
Полагаем, что ИИ может быть использован в предупреждении и раскрытии преступлений с помощью таких подобластей, как машинное обучение и компьютерное зрение. Соответствующие перспективные направления внедрения технологий ИИ в деятельность органов внутренних дел активно обсуждаются в специальной литературе [16, с. 52]. Например, алгоритмы машинного обучения способны обрабатывать большие объемы данных для прогнозирования потенциальной преступной деятельности, тем самым преобразуя операции правоохранительных органов. Модели компьютерного зрения, в свою очередь, могут использовать визуальные данные с камер наблюдения и других источников для анализа, выявления и реагирования на преступления. В частности, технологии компьютерного зрения способны осуществлять детекцию и идентификацию объектов в сложной окружающей среде, в том числе для систем охраны и обеспечения общественной безопасности, тем самым позволяя оценить и своевременно реагировать на изменения криминальной ситуации [17, с. 42].
Следует подчеркнуть, что и в организации служебной деятельности сотрудников органов внутренних дел (полиции) могут быть использованы технологии по интеллектуальной поддержке принятия решений (управление персоналом, контроль производительности, психофизического состояния и поиск возможностей оптимизации загрузки сотрудников полиции), а также перспективные методы ИИ, которые включают разнообразные управленческие решения, технологии обогащения и улучшения качества больших объемов данных, получаемых с устройств и из других информационных систем, моделирование угроз информационной безопасности и т. п.
Однако нельзя забывать о серьезных рисках, связанных с внедрением ИИ [18, с. 82]. Ведь после того, как действие ИИ будет понятно большому числу людей, вырастают шансы использования его в преступных целях. Таким образом, злоумышленники смогут найти уязвимые места в системе и использовать их для сбора огромного количества личной информации граждан, информации, составляющей государственную тайну, и т. п. Помимо этого, наличие уязвимостей может повлиять и на обороноспособность государства, построенную на использовании ИИ.
Также стоит отметить, что уже сегодня мошенники используют современные технологии, связанные с подменой личности и голоса (дипфейки). Практически ежедневно СМИ публикуют подобные факты, призывая российских граждан к бдительности. Так, к концу 2024 г. было совершено 5,7 тыс. преступлений с использованием дипфейков72.
В России уже ведется разработка системы, которая способна определять признаки генерации синтетического голоса, используемой телефонными мошенниками [19, с. 76]. Данная система основана на ИИ и способна учитывать контекст и знания о голосовых данных, в связи с чем может более эффективно различать подлинный голос и подделку.
МВД России в начале 2024 г. заявило о планах разработки и внедрения ИИ в правоохранительную деятельность: речь шла о датасетах для обучения и тестирования нейросетевых моделей и двух системах на базе ИИ («Клон», «Конъюнктура»)73. Однако после данного заявления никакой публичной информации об итогах реализации данного проекта нигде не появлялось.
Перспективной видится разработка эффективной структуры и модели для обнаружения преступлений на основе глубокого обучения, что позволит обеспечить общественную безопасность и расширить возможности правоохранительных органов в выявлении «цифровых» преступлений, совершаемых в сети «Интернет».
В заключение сформулируем следующие выводы.
- Разработка ИИ является стратегически важной деятельностью государства, а внедрение данных технологий повысит эффективность в борьбе с преступностью.
- Между тем существуют обоснованные риски, что технологии ИИ могут использоваться также и для совершения преступлений, в связи с чем требуют более тщательной проработки и экспертного обсуждения любые инициативы правового регулирования и охраны рассматриваемой сферы.
Об авторах
Александр Андреевич Антонов
Северо-Западный филиал, Российский государственный университет правосудия имени В. М. Лебедева
Автор, ответственный за переписку.
Email: dispraekailo14@gmail.com
студент 3 курса
Россия, Санкт-ПетербургЮлия Алексеевна Кандышева
Северо-Западный филиал, Российский государственный университет правосудия имени В. М. Лебедева
Email: ndyshevagalina@gmail.com
3rd year student
Россия, Санкт-ПетербургСписок литературы
- Бикчантаев М. М. Развитие и регламентация технологий искусственного интеллекта в Российской Федерации и в зарубежных странах // Право, экономика и управление: теория и практика : сб. материалов II Всерос. науч.-практ. конф. (Чебоксары, 12 мая 2022 г.) / гл. ред. Э. В. Фомин. Чебоксары : Изд. дом «Среда», 2022. С. 306–309.
- Бочарова И. Е., Вершинина А. В., Вершинина Е. Д. Анализ стратегий государств мира в области искусственного интеллекта // Системное моделирование социально-экономических процессов : тр. 43-й Междунар. науч. школы-семинара (Воронеж, 13–18 окт. 2020 г.) / под ред. В. Г. Гребенникова, И. Н. Щепиной. Воронеж : Истоки, 2020. С. 250–255.
- Жестеров П. В. Влияние цифровой трансформации на уголовную репрессию // Муниципальная служба: правовые вопросы. 2022. № 1. С. 21–24.
- Пудовочкин Ю. Е., Гусенко Д. П. Предупреждение преступлений в экологической сфере с применением технических и компьютерных средств и технологий // Проблемы региональной экологии. 2006. № 5. С. 63–66.
- Сребрянская А. А., Лежников М. А. Правовой статус искусственного интеллекта в разных странах // Проблемы реформирования российской государственности : материалы XIV Всерос. конф. по нац. и междунар. праву (Екатеринбург, 20 дек. 2019 г.) / науч. ред. Д. Н. Сергеев. Екатеринбург : Учеб.-науч. лаборатория «SAPIENTIA», 2019. С. 9–13.
- Жук М. С. Искусственный интеллект в современном мире // Наука молодых – наука будущего : сб. ст. III Междунар. науч.-практ. конф. (Петрозаводск, 2 февр. 2023 г.) Ч. 2 / ред. И. И. Ивановская, М. В. Поснова. Петрозаводск : Междунар. центр науч. партнерства «Новая Наука», 2023. С. 101–104.
- Кобец П. Н. Криминологическое исследование потенциальных угроз для общества и государства, инициированных ростом инноваций в сфере искусственного интеллекта, и меры их предупреждения // Вестник Восточно-Сибирского института МВД России. 2024. № 3 (110). С. 148–162.
- Олейник Н. М. Текущие тенденции и проблемы внедрения технологий искусственного интеллекта в экономику и государственное управление // Первый экономический журнал. 2024. № 10 (352). С. 159–170.
- Савинов Ю. А., Тарановская Е. В. Искусственный интеллект в международной торговле // Российский внешнеэкономический вестник. 2020. № 4. С. 58–71.
- Чаннов С. Е. Робот (система искусственного интеллекта) как субъект (квазисубъект) права // Актуальные проблемы российского права. 2022. Т. 17, № 12. С. 94–109.
- Бахтеев Д. В. Правовой статус систем искусственного интеллекта и модели дифференциации юридической ответственности за причиненный ими вред // Lex russica. 2024. Т. 77, № 4 (209). С. 9–23.
- Архипов В. В., Наумов В. Б. О некоторых вопросах теоретических оснований развития законодательства о робототехнике: аспекты воли и правосубъектности // Закон. 2017. № 5. С. 157–170.
- Павлов В. И. Правосубъектность роботов как электронных лиц и возможные модели их юридической ответственности // Право.by. 2023. № 6 (86). С. 74–84.
- Краснова К. А. Уголовная политика Европейского Союза в сфере противодействия коррупции : моногр. М. : Проспект, 2016. 88 с.
- Тиханьи М. Роль государства в обеспечении безопасности спортивных мероприятий // Д. А. Безбородов, А. Н. Берестовой, М. Х. Гельдибаев и др. Уголовно-правовые и криминологические проблемы противодействия преступности в спорте : моногр. СПб. : Астерион, 2021. С. 287–302.
- Кобец П. Н. Вопросы ответственности за деяния, совершаемые с использованием технологий искусственного интеллекта: проблемы и подходы к их решению // Вестник Белгородского юридического института МВД России имени И. Д. Путилина. 2024. № 4. С. 49–55.
- Кобец П. Н., Краснова К. А. О необходимости социально-криминологического моделирования криминальной ситуации в России // Новая криминальная ситуация: оценка и реагирование : сб. ст. / отв. ред. А. И. Долгова. М. : Рос. криминолог. ассоц., 2009. С. 41–46.
- Кобец П. Н. Причинный комплекс возникновения криминальных рисков, вызванных применением технологий искусственного интеллекта, и превентивные меры по их предупреждению // Юридическая наука и практика: Вестник Нижегородской академии МВД России. 2024. № 2 (66). С. 80–85.
- Краснова К. А., Кобец П. Н. О современных информационных технологиях, используемых экстремистскими и террористическими организованными группами, и необходимости противодействия киберпреступности // Вестник Дальневосточного юридического института МВД России. 2018. № 2 (43). С. 75–79.
Дополнительные файлы



