Прозрачность алгоритмов искусственного интеллекта
- Авторы: Талапина Э.1
-
Учреждения:
- Институт государства и права РАН
- Выпуск: Том 18, № 3 (2025)
- Страницы: 4-27
- Раздел: Правовая мысль: история и современность
- URL: https://journal-vniispk.ru/2072-8166/article/view/318080
- DOI: https://doi.org/10.17323/2072-8166.2025.3.4.27
- ID: 318080
Цитировать
Полный текст
Аннотация
В эпоху активного освоения искусственного интеллекта (ИИ) перед юристами встает вопрос, как решить проблему «черного ящика», непонятности и непредсказуемости решений, принимаемых искусственным интеллектом. Разработка правил, обеспечивающих прозрачность и понятность алгоритмов ИИ, позволяет вписать его в классические правоотношения, устраняя угрозу институту юридической ответственности. В частном праве защита потребителей перед лицом крупных онлайн-платформ выдвигает прозрачность алгоритмов на первый план, меняя само обязательство по предоставлению информации потребителю, которое теперь описывается формулой «знать + понимать». Аналогично и в праве публичном — государства не в состоянии должным образом защитить граждан от вреда, причиняемого зависимостью от алгоритмов при оказании государственных услуг. Противопоставить этому можно только знание и понимание функционирования алгоритмов. Требуется принципиально новое регулирование, позволяющее ввести использование искусственного интеллекта в легальные рамки, в которых следует формулировать требования к прозрачности алгоритмов. Эксперты активно обсуждают создание нормативной базы для формирования системы наблюдения за внедрением и использованием технологий ИИ. Разрабатываются меры «политики алгоритмической подотчетности», фреймворк «Прозрачность через проектирование» с акцентом на постоянном взаимодействии с заинтересованными сторонами и организационной открытости, обосновывается внедрение объяснимых систем ИИ. В целом предлагаемые подходы к регулированию ИИ и обеспечению прозрачности схожи, равно как и прогнозы о смягчающей роли прозрачности алгоритмов ИИ в вопросах доверия к ИИ. Интересна концепция «алгоритмического суверенитета», относящаяся к способности государства управлять разработкой, развертыванием и воздействием систем ИИ в соответствии с собственными правовыми, культурными и этическими нормами. Обеспечение прозрачности алгоритмов ИИ — направление общей политики управления в области ИИ, важнейшей частью которой является этика ИИ. Несмотря на кажущуюся универсальность, этика ИИ не всегда учитывает все разнообразие этических конструкций в разных уголках мира, что демонстрирует африканский пример и опасения алгоритмической колонизации.
Об авторах
Эльвира Талапина
Институт государства и права РАН
Автор, ответственный за переписку.
Email: talapina@mail.ru
ORCID iD: 0000-0003-3395-3126
Доктор юридических наук, главный научный сотрудник.
Россия, Москва 119019, Знаменка, 10.Список литературы
- Adams R. (2021) Can artificial intelligence be decolonized? Interdisciplinary Science Reviews, vol. 46, pp. 176-197.
- Badawy W. (2025) Algorithmic sovereignty and democratic resilience: rethinking AI governance in the age of generative AI. AI and Ethics, vol. 5, pp. 4402-4410.
- Batool A. et al. (2025) AI governance: a systematic literature review. AI and Ethics, vol. 5, pp. 3265-3279.
- Birhane A. (2023) Algorithmic colonization of Africa. In: S. Cave S., K. Dihal (eds.). Imagining AI: How the world sees intelligent machines. Oxford: University Press, pp. 247-260.
- Buriaga V.O., Djuzhoma V.V., Artemenko E.A. (2025) Shaping an artificial intelligence regulatory model: international and domestic Experience. Legal Issues in the Digital Age, vol. 6, no. 2, pp. 50-68.
- Goldstein S. (2025) Will AI and humanity go to war? AI & Society.
- Han S. (2025) The question of AI and democracy: four categories of AI governance. Philosophy & Technology, vol. 38, pp. 1-26.
- Kabytov P.P., Nazarov N.A. (2025) Transparency in public administration in the digital age: legal, institutional and mechanisms. Legal Issues in the Digital Age, vol. 6, no. 2, pp. 161-182.
- Mohamed S. et al. (2020) Decolonial AI: Decolonial theory as sociotechnical foresight in artificial intelligence. Philosophy & Technology, vol. 33, pp. 659-684.
- Nihei M. (2022) Epistemic injustice as a philosophical conception for considering fairness and diversity in human-centered AI principles. Interdisciplinary Information Sciences, vol. 28, pp. 25-43.
- O’Neil C. (2016) Weapons of math destruction: how big data increases inequality and threatens democracy. New York: Crown Publishers, 272 p.
- Park K., Yoon Ho Y. (2025) AI algorithm transparency, pipelines for trust not prisms: mitigating general negative attitudes and enhancing trust toward AI. Humanities and Social Sciences Communities, no. 12.
- Rachovitsa A., Johann N. (2022) The human rights implications of the use of AI in the digital welfare state: lessons learned from the dutch SyRI case. Human Rights Law Review, no. 22, pp. 1-15.
- Saleem M. et al. (2025) Responsible AI in fintech: addressing challenges and strategic solutions. In: S. Dutta et al. Generative AI in FinTech: Revolutionizing Finance through Intelligent Algorithms. Cham: Springer, pp. 61-72.
- Spina Alì G., Yu R. (2021) Artificial Intelligence between transparency and secrecy: from the EC Whitepaper to the AIA and beyond. European Journal of Law and Technology, vol. 12, no. 3, pp. 1-25.
- Sposini L. (2024) The governance of algorithms: profiling and personalization of online content in the context of European Consumer Law. Nordic Journal of European Law, vol. 7, no. 1, pp. 1-22.
- Thaler R. (2018) New behavioral economics. Why people break the rules of traditional economics and how to make money on it. Moscow: Eksmo, 367 p. (in Russ.)
- Visave J. (2025) Transparency in AI for emergency management: building trust and accountability. AI and Ethics, no. 5, pp. 3967-3980.
- Yilma K. (2025) Ethics of AI in Africa: interrogating the role of Ubuntu and AI governance initiatives. Ethics and Information Technology, vol. 27, pp. 1-14.
Дополнительные файлы
