Прозрачность государственного управления в условиях автоматизированного принятия решений
- Авторы: Кабытов П.1, Назаров Н.1
-
Учреждения:
- Институт законодательства и сравнительного правоведения при Правительстве Российской Федерации
- Выпуск: Том 18, № 3 (2025)
- Страницы: 28-55
- Раздел: Российское право: состояние, перспективы, комментарии
- URL: https://journal-vniispk.ru/2072-8166/article/view/318081
- DOI: https://doi.org/10.17323/2072-8166.2025.3.28.55
- ID: 318081
Цитировать
Полный текст
Аннотация
В условиях активного внедрения автоматизированных систем принятия решений и систем искусственного интеллекта в деятельность органов публичной власти актуализируется проблема поддержания надлежащего уровня прозрачности государственного управления, имеющая критическое значение для соблюдения принципов верховенства права и защиты фундаментальных прав граждан. Настоящая работа ставит целью провести комплексную систематизацию и критический анализ сложившихся в российском и зарубежном праве, а также в правовой теории подходов к решению указанной проблемы. Методологическую основу исследования составили общенаучные (анализ, синтез, системный подход) и частные (сравнительно-правовой, формально-юридический) методы изучения. В статье рассматриваются концептуальные основания и практические вызовы реализации требований прозрачности и объяснимости автоматизированного принятия решений и систем искусственного интеллекта, включая их роль в повышении доверия, обеспечении подотчетности, предотвращении дискриминации и укреплении легитимности публичного управления. Основное внимание уделено критическому анализу широкого спектра механизмов прозрачности (классифицируемых, в частности, по направленности на систему в целом или на отдельное решение, а также по моменту сообщения информации — ex ante или ex post): раскрытие порядка или логики принятия решений, «право на объяснение», контрфактологические объяснения, раскрытие данных и программного кода/модели, аудит и общественный контроль, информирование о применении, а также использование объяснимых/интерпретируемых моделей и иных технических решений. По каждому механизму выявлены преимущества, недостатки и трудности реализации — конфликт с защитой интеллектуальной собственности, техническая затрудненность имплементации и интерпретации, «эффект Расёмона» и фундаментальная проблема «черного ящика» систем искусственного интеллекта. Обосновывается вывод о недостаточности применения отдельных инструментов и необходимости разработки гибкого, риск-ориентированного и контекстуально-зависимого комплексного подхода. Подчеркивается актуальность имплементации адаптированных и системно увязанных механизмов в российское законодательство для поддержания надлежащего уровня прозрачности в условиях автоматизации государственного управления в России.
Об авторах
Павел Кабытов
Институт законодательства и сравнительного правоведения при Правительстве Российской Федерации
Email: kapavel.v@yandex.ru
ORCID iD: 0000-0001-8656-5317
Кандидат юридических наук, ведущий научный сотрудник. Кандидат юридических наук, ведущий научный сотрудник. , д. 34.
Россия 117218, Москва, Большая Черемушкинская ул., д. 34.Никита Назаров
Институт законодательства и сравнительного правоведения при Правительстве Российской Федерации
Автор, ответственный за переписку.
Email: naznikitaal@gmail.com
ORCID iD: 0000-0002-3997-0886
Младший научный сотрудник. Младший научный сотрудник. , д. 34.
Россия 117218, Москва, Большая Черемушкинская ул., д. 34.Список литературы
- Bathaee Y. (2017) The Artificial Intelligence Black Box and the Failure of Intent and Causation. Harvard Journal of Law & Technology, no. 2, pp. 889–938.
- Diver L., Schafer B. (2017) Opening the Black Box: Petri Nets and Privacy by Design. International Review of Law, Computers & Technology, no. 1, pp. 1–39.
- Edwards L., Veale M. (2018) Enslaving the Algorithm: From a Right to an Explanation to a Right to Better Decisions? IEEE Security & Privacy, no. 3, pp. 46–54.
- Felzmann H., Villaronga E.F. et al. (2019) Transparency You Can Trust: Transparency Requirements for Artificial Intelligence between Legal Norms and Contextual Concerns. Big Data & Society, no. 1, pp. 1–14.
- Ferrario A., Loi M. (2022) The Robustness of Counterfactual Explanations over Time. IEEE Access, no. 10, pp. 82736–82750.
- Goodman B., Flaxman S. (2017) European Union Regulations on Algorithmic Decision Making and a Right to Explanation. AI Magazine, no. 3, pp. 50–57.
- Guidotti R., Monreale A. et al. (2019) A Survey of Methods for Explaining Black Box Models. ACM Computing Surveys, no. 5, pp. 1–42.
- Guidotti R. (2022) Counterfactual Explanations and How to Find them: Literature Review and Benchmarking. Data Mining and Knowledge Discovery, vol. 38, pp. 2770–2824.
- Kuner C., Bygrave L.A., Docksey C. (2019) The EU General Data Protection Regulation (GDPR): a commentary. Oxford: University Press, 1393 p.
- Mittelstadt B. (2016) Auditing for Transparency in Content Personalization Systems. International Journal of Communication. no. 10, pp. 4991–5002.
- Pilipenko A.N. (2019) France: towards Digital Democracy. Pravo. Journal Vysshey shkoly ekonomiki=Law. Journal of the Higher School of Economics, vol. 12, no. 4, pp. 185–207. (in Russ.)
- Santosuosso A., Pinotti G. (2020) Bottleneck or Crossroad? Problems of Legal Sources Annotation and some Theoretical Thoughts Stats, vol. 3, no. 3, pp. 376–395.
- Selbst A.D., Powles J. (2017) Meaningful Information and the Right to Explanation. International Data Privacy Law, vol. 7, no. 4, pp. 233–242.
- Talapina E.V. (2024) Principle of Transparency in the use of Artificial Intelligence. Gosudarstvennaya vlast i mestnoe samoupravlenie=State Power and Local Self-Government, no. 7, pp. 36–39 (in Russ.)
- Troisi E. (2022) Automated Decision Making and Right to Explanation. The Right of Access as ex post Information. European Journal of Privacy Law & Technologies, no. 1, pp. 182–202.
- Tutt A. (2017) An Fda for Algorithms. Administrative Law Review, no. 1, pp. 83–123.
- Vengerov A.B. (1979) Legal Bases of Management Automation in the National Economy of the USSR. Moscow: Vysshaya shkola, 245 p. (in Russ.)
- Wachter S., Mittelstadt B., Floridi L. (2017) Why a Right to Explanation of Automated Decision-Making does not Exist in the General Data Protection Regulation. International Data Privacy Law, vol. 7, no. 2, pp. 76–99.
- Wulf A.J., Seizov O. (2024) Please Understand We Cannot Provide Further Information: Evaluating Content and Transparency of GDPR-Mandated AI Disclosures. AI & SOCIETY, vol. 39, no. 1, pp. 235–256.
Дополнительные файлы
