Прозрачность алгоритмов искусственного интеллекта

Обложка

Цитировать

Полный текст

Аннотация

В эпоху активного освоения искусственного интеллекта (ИИ) перед юристами встает вопрос, как решить проблему «черного ящика», непонятности и непредсказуемости решений, принимаемых искусственным интеллектом. Разработка правил, обеспечивающих прозрачность и понятность алгоритмов ИИ, позволяет вписать его в классические правоотношения, устраняя угрозу институту юридической ответственности. В частном праве защита потребителей перед лицом крупных онлайн-платформ выдвигает прозрачность алгоритмов на первый план, меняя само обязательство по предоставлению информации потребителю, которое теперь описывается формулой «знать + понимать». Аналогично и в праве публичном — государства не в состоянии должным образом защитить граждан от вреда, причиняемого зависимостью от алгоритмов при оказании государственных услуг. Противопоставить этому можно только знание и понимание функционирования алгоритмов. Требуется принципиально новое регулирование, позволяющее ввести использование искусственного интеллекта в легальные рамки, в которых следует формулировать требования к прозрачности алгоритмов. Эксперты активно обсуждают создание нормативной базы для формирования системы наблюдения за внедрением и использованием технологий ИИ. Разрабатываются меры «политики алгоритмической подотчетности», фреймворк «Прозрачность через проектирование» с акцентом на постоянном взаимодействии с заинтересованными сторонами и организационной открытости, обосновывается внедрение объяснимых систем ИИ. В целом предлагаемые подходы к регулированию ИИ и обеспечению прозрачности схожи, равно как и прогнозы о смягчающей роли прозрачности алгоритмов ИИ в вопросах доверия к ИИ. Интересна концепция «алгоритмического суверенитета», относящаяся к способности государства управлять разработкой, развертыванием и воздействием систем ИИ в соответствии с собственными правовыми, культурными и этическими нормами. Обеспечение прозрачности алгоритмов ИИ — направление общей политики управления в области ИИ, важнейшей частью которой является этика ИИ. Несмотря на кажущуюся универсальность, этика ИИ не всегда учитывает все разнообразие этических конструкций в разных уголках мира, что демонстрирует африканский пример и опасения алгоритмической колонизации.

Об авторах

Эльвира Талапина

Институт государства и права РАН

Автор, ответственный за переписку.
Email: talapina@mail.ru
ORCID iD: 0000-0003-3395-3126

Доктор юридических наук, главный научный сотрудник.

Россия, Москва 119019, Знаменка, 10.

Список литературы

  1. Adams R. (2021) Can artificial intelligence be decolonized? Interdisciplinary Science Reviews, vol. 46, pp. 176-197.
  2. Badawy W. (2025) Algorithmic sovereignty and democratic resilience: rethinking AI governance in the age of generative AI. AI and Ethics, vol. 5, pp. 4402-4410.
  3. Batool A. et al. (2025) AI governance: a systematic literature review. AI and Ethics, vol. 5, pp. 3265-3279.
  4. Birhane A. (2023) Algorithmic colonization of Africa. In: S. Cave S., K. Dihal (eds.). Imagining AI: How the world sees intelligent machines. Oxford: University Press, pp. 247-260.
  5. Buriaga V.O., Djuzhoma V.V., Artemenko E.A. (2025) Shaping an artificial intelligence regulatory model: international and domestic Experience. Legal Issues in the Digital Age, vol. 6, no. 2, pp. 50-68.
  6. Goldstein S. (2025) Will AI and humanity go to war? AI & Society.
  7. Han S. (2025) The question of AI and democracy: four categories of AI governance. Philosophy & Technology, vol. 38, pp. 1-26.
  8. Kabytov P.P., Nazarov N.A. (2025) Transparency in public administration in the digital age: legal, institutional and mechanisms. Legal Issues in the Digital Age, vol. 6, no. 2, pp. 161-182.
  9. Mohamed S. et al. (2020) Decolonial AI: Decolonial theory as sociotechnical foresight in artificial intelligence. Philosophy & Technology, vol. 33, pp. 659-684.
  10. Nihei M. (2022) Epistemic injustice as a philosophical conception for considering fairness and diversity in human-centered AI principles. Interdisciplinary Information Sciences, vol. 28, pp. 25-43.
  11. O’Neil C. (2016) Weapons of math destruction: how big data increases inequality and threatens democracy. New York: Crown Publishers, 272 p.
  12. Park K., Yoon Ho Y. (2025) AI algorithm transparency, pipelines for trust not prisms: mitigating general negative attitudes and enhancing trust toward AI. Humanities and Social Sciences Communities, no. 12.
  13. Rachovitsa A., Johann N. (2022) The human rights implications of the use of AI in the digital welfare state: lessons learned from the dutch SyRI case. Human Rights Law Review, no. 22, pp. 1-15.
  14. Saleem M. et al. (2025) Responsible AI in fintech: addressing challenges and strategic solutions. In: S. Dutta et al. Generative AI in FinTech: Revolutionizing Finance through Intelligent Algorithms. Cham: Springer, pp. 61-72.
  15. Spina Alì G., Yu R. (2021) Artificial Intelligence between transparency and secrecy: from the EC Whitepaper to the AIA and beyond. European Journal of Law and Technology, vol. 12, no. 3, pp. 1-25.
  16. Sposini L. (2024) The governance of algorithms: profiling and personalization of online content in the context of European Consumer Law. Nordic Journal of European Law, vol. 7, no. 1, pp. 1-22.
  17. Thaler R. (2018) New behavioral economics. Why people break the rules of traditional economics and how to make money on it. Moscow: Eksmo, 367 p. (in Russ.)
  18. Visave J. (2025) Transparency in AI for emergency management: building trust and accountability. AI and Ethics, no. 5, pp. 3967-3980.
  19. Yilma K. (2025) Ethics of AI in Africa: interrogating the role of Ubuntu and AI governance initiatives. Ethics and Information Technology, vol. 27, pp. 1-14.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Талапина Э., 2025

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».