Transparency of Artificial Intelligence Algorithms

封面

如何引用文章

全文:

详细

In the modern era of active development of artificial intelligence (AI), lawyers are faced with the question: how to solve the “black box” matter, the incomprehensibility and unpredictability of decisions made by artificial intelligence. The development of rules ensuring transparency and explainability of AI algorithms allows artificial intelligence to be integrated into classical legal relations, eliminating the threat to the institution of legal liability. In Private Law consumer protection in front of large online platforms brings the algorithms transparency to the forefront, changing the very obligation to provide information to the consumer, which is now described by the formula: know + understand. Similarly, in Public Law, states are unable to properly protect citizens from harm caused by dependence on algorithmic applications in the provision of public services. It can only be countered by knowledge and understanding of the functioning of algorithms. A fundamentally new regulation is required to introduce the artificial intelligence use into a legal framework in which requirements for the transparency of algorithms should be formulated. Researchers are actively discussing creation of a regulatory framework for the formation of a system of observation, monitoring and preliminary permission for the AI technologies use. The paper analyzes “algorithmic accountability policies” and a “Transparency by Design” framework (problem solving throughout the entire AI development process) and the implementation of explainable AI systems. Overall, the proposed approaches to AI regulation and transparency are quite similar, as are the predictions about the mitigating role of AI algorithm transparency in matters of trust in AI. The concept of “algorithmic sovereignty” which refers to the ability of a democratic State to govern the development, deployment, and impact of AI systems in accordance with its own legal, cultural, and ethical norms, is also analyzed. This model is designed for the harmonious coexistence of different states, leading to an equally harmonious coexistence between humanity and AI. At the same time, ensuring the AI algorithms transparency is a direction of the general AI governance policy, the most important part of which is AI ethics. Despite its apparent universality, artificial intelligence ethics does not always take into account the diversity of ethical constructs in different parts of the world, as the African example demonstrates as well as fears of algorithmic colonization.

作者简介

Elvira Talapina

Institute of State and Law

编辑信件的主要联系方式.
Email: talapina@mail.ru
ORCID iD: 0000-0003-3395-3126

Doctor of Sciences (Law), Chief Researcher.

10 Znamenka St., Moscow 119019, Russian Federation.

参考

补充文件

附件文件
动作
1. JATS XML

版权所有 © Talapina E., 2025

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».