Обработка данных при помощи искусственного интеллекта и риски дискриминации

Обложка

Цитировать

Полный текст

Аннотация

Дискриминация создает угрозу равенству как основному концепту правового государства. Эта проблема обретает новое звучание в связи с использованием искусственного интеллекта для принятия значимых юридических решений, поскольку искусственный интеллект способен принимать ошибочные решения в отношении конкретных лиц, в основе которых часто лежит дискриминация. Целью статьи стало изучение рисков дискриминации, чтобы учесть и избегать их в будущем правовом регулировании. Исследование основано на анализе доктринальных и нормативных источников разных стран, изучении имеющегося опыта использования искусственного интеллекта. Конкретным методом интеллектуального анализа данных является профилирование, которое не оставляет большого пространства для автономии и самоопределения личности. В связи с этим предлагается переоценить теорию информационного самоопределения, используя ее потенциал разделения ответственности между обладателем данных и обработчиком. Ввиду явных дискриминационных рисков профилирования некоторые операции уже запрещены (например, редлайнинг в США, генетическое профилирование в области страхования и занятости в ряде стран). Отдельно должны изучаться предиктивные способности искусственного интеллекта в отношении юридической оценки поведения конкретного человека. Опыт алгоритмического прогнозирования поведения человека, накопленный в рамках уголовного правосудия в США, свидетельствует о вероятностном характере такой оценки. Это способно нарушить права человека на справедливое судебное разбирательство и индивидуализацию наказания, если алгоритмическая оценка станет единственным основанием для вынесения судебного решения. В целом развитие приложений по решению рутинных правовых проблем, которые будут давать результаты на основании прошлых судебных решений, особо актуально в странах общего права, где господствует прецедентное право. С учетом того, что Россия принадлежит к континентальной системе права перспективы использования американского опыта сомнительны. Рассмотрение конкретных видов недостатков, которые способны привести к дискриминационной обработке данных, позволило сделать выводы о контурах будущего законодательства в отношении деятельности искусственного интеллекта с учетом всех проанализированных рисков дискриминации.

Об авторах

Эльвира Талапина

Институт государства и права РАН

Автор, ответственный за переписку.
Email: talapina@mail.ru
ORCID iD: 0000-0003-3395-3126
Доктор юридических наук, доктор права (Франция), главный научный сотрудник

Список литературы

  1. Barocas S., Selbst A.D. (2016) Big Data's disparate impact. California Law Review. Vol. 104, pp. 671-732. DOI:https://doi.org/10.2139/ssrn.2477899
  2. Bartenev D.G. (2019) Forbidding discrimination: the review of the approaches of the ECHR. Mezhdunarodnoe pravosudie=International Justice, no 1, pp. 43-66. (in Russ.).
  3. Bosco F., Creemers N., Ferraris V. et al. (2014) Profiling Technologies and Fundamental Rights and Values: Regulatory Challenges and Perspectives from European Data Protection Authorities. S. Gutwirth, R. Leenes, P. de Hert (eds.). Reforming European Data Protection Law. Berlin: Springer, pp. 3-33. DOI:https://doi.org/10.1007/978-94-017-9385-8_1
  4. Bygrave L.A. (2002) Data protection law: Approaching its rationale, logic and limits. The Hague: Kluwer Law International, 456 p.
  5. Feldman E.A., Quick E. (2020) Genetic Discrimination in the United States: What State and National Government Are Doing to Protect Personal Information. Khoury L., Blackett A., Vanhonnaeker L. (eds.). Genetic Testing and the Governance of Risk in the Contemporary Economy. Berlin: Springer, pp. 331-354. DOI:https://doi.org/10.1007/978-3-030-43699-5_15
  6. G'sell F. (2020) Les progrès à petits pas de la «justice prédictive» en France. ERA Forum. Vol. 21, pp. 299-310. DOI:https://doi.org/10.1007/s12027-020-00618-6
  7. Hildebrandt M. (2009) Profiling and AML. In: K. Rannenberg, D. Royer, A. Deuker (eds.). The Future of Identity in the Information Society. Challenges and Opportunities. Heidelberg: Springer, pp. 273-310.
  8. Khoury L., Blackett A., Vanhonnaeker L. (2020) Legal Aspects of Genetic Testing Regarding Insurance and Employment. General Report. Khoury L. et al (eds.), Genetic Testing and the Governance of Risk in the Contemporary Economy, Ius Comparatum — Global Studies in Comparative Law 34. Berlin: Springer, pp. 3-67. DOI:https://doi.org/10.1007/978-3-030-43699-5_1
  9. Lapaeva V.V. (2008) The Principle of Formal Equality. Zhurnal rossijskogo prava=Russian Law Journal. no 2, pp. 67-80 (in Russ.)
  10. Miné M. (2003) Les concepts de discrimination directe et indirecte. ERA Forum. Vol. 4, pp. 30-44. DOI:https://doi.org/10.1007/s12027-003-0015-0
  11. Nersesyants V.S. (2009) Towards law. About the origin of equality (from the unpublished). Istoriya gosudarstva i prava=History of State and Law, no 17, pp. 2-7 (in Russ.).
  12. Nömper A. (2001) Geenitestide öiguslikust regulatsioonist. Jurídica II, pp. 113-123.
  13. Pormeister K. (2020) The Prohibitions Against Genetic Discrimination in Estonia. Khoury L., Blackett A., Vanhonnaeker L. (eds.). Genetic Testing and the Governance of Risk in the Contemporary Economy. Berlin: Springer, pp. 179-191. DOI:https://doi.org/10.1007/978-3-030-43699-5_7
  14. Regan J. (2016) New Zealand passport robot tells applicant of Asian descent to open eyes. Available at.https://www.reuters.com/article/us-newzealand-passport-error/new-zea-land-passportrobot-tells-applicant-of-asian-descent-to-open-eyes-idUSKBN13W0RL/(accessed: 17 February 2022)
  15. Romanovskiy V.G. (2020) Profiling Terrorists and Human Rights Constitutional Protection. Konstitutsionnoe i municipal'noe pravo=Constitutional and Municipal Law, no 10, pp. 46-50. (in Russ.) DOI:https://doi.org/10.18572/1812-3767-2020-10-46-50
  16. Rouvroy A., Poullet Y. (2009) The right to informational self-determination and the value of self-development. Reassessing the importance of privacy for democracy. S. Gut-wirth et al. (eds.). Reinventing Data Protection? Dordrecht: Springer, pp. 45-76. DOI:https://doi.org/10.1007/978-1-4020-9498-9_2
  17. Tischbirek A. (2020) Artificial Intelligence and Discrimination: Discriminating Against Discriminatory Systems. Th. Wischmeyer, T. Rademacher. Regulating Artificial Intelligence. Springer pp. 103-121. DOI:https://doi.org/10.1007/978-3-030-32361-5_5
  18. Zuiderveen Borgesius F. (2018) Discrimination, intelligence artificielle et décisions algorithmiques. Etude à l'intention du Service anti-discrimination du Conseil de l'Europe. Strasbourg: Conseil de l'Europe. 51 p.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Талапина Э., 2022

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».