Применение технологий искусственного интеллекта при осуществлении цензуры со стороны интернет-платформ

Обложка

Цитировать

Полный текст

Аннотация

Проблема злоупотреблений при осуществлении модерации интернет-платформ с помощью технологий искусственного интеллекта в значительной степени нова для юридической науки и практики, нормативное регулирование данной сферы только формируется, правоприменительная практика пока не сложилась. Автор, используя формально-юридический, сравнительно-правовой, исторический методы и метод правового моделирования, анализирует негативные последствия применения программных комплексов с элементами искусственного интеллекта для осуществления модерации пользовательского контента. Исследуя некоторые технологические решения, с помощью которых интернет-платформы собирают и обрабатывают значительные массивы разнообразных данных о пользователях, автор указывает на потенциальную угрозу правам граждан на поиск и распространение информации в том случае, если правоотношения в области модерации контента с помощью искусственного интеллекта не будут законодательно регулироваться на качественно новом уровне. Исследуется ряд фактов, которые подтверждают тезис о том, что интернет-платформы, в условиях отсутствия нормативных ограничений, требований к прозрачности их деятельности, контроля со стороны государства и общества начинают осуществлять цензуру путем удаления мнений, высказываний и информации, которые могут ими рассматриваться как нежелательные, при том, что данные высказывания не нарушают законодательства и правила платформы. Автор приходит к выводу о том, что интернет-платформы наращивают возможности по контролю за высказываниями, играющими существенную роль в поддержании информационного баланса, т.е. возможности различных политических сил доносить свою точку зрения до широкой общественности, что в свою очередь представляет собой серьезную угрозу демократическому правопорядку. По результатам анализа российского законодательства и законодательства стран ЕС и США, с учетом сложившихся тенденций в работе интернет-платформ, сделан вывод о несовершенстве существующего правового регулирования, необходимости законодательного ограничения и контроля подобных технологий, применительно к осуществлению модерации, использованию алгоритмов и искусственного интеллекта.

Об авторах

Евгений Иосифович Дискин

Национальный исследовательский университет «Высшая школа экономики» (НИУ ВШЭ)

Автор, ответственный за переписку.
Email: ediskin@hse.ru
ORCID iD: 0000-0001-9259-9820
SPIN-код: 4364-0208

кандидат юридических наук, ведущий научный сотрудник Международной лаборатории цифровой трансформации в государственном управлении ИГМУ

101000, Российская Федерация, г. Москва, ул. Мясницкая, д. 20

Список литературы

  1. Baburin, V.V. & Cheremnova, N.A. (2022) Harassment in the information space (cyberbullying) and victimization of juveniles and minors. Altai Law Journal. (3), 54-59. (in Russian).
  2. Chiroma, I. & Sule, I. (2022) ‘Twitting to Suspend Twitter’ - Social Media Censorship in Nigeria: Possibilities, Realities and Legalities. Scholars International Journal of Law, Crime and Justice. (5), 202-210. https://doi.org/10.36348/sijlcj.2022.v05i06.004
  3. Crosset, V. & Dupont, B. (2022) Cognitive assemblages: The entangled nature of algorithmic content moderation. Big Data & Society. 9(2). https://doi.org/10.1177/20539517221143361
  4. Diskin, E. (2023) Ilon Musk and crusade against digital censorship. Law. (1), 106-109. http://doi.org/10.37239/0869-4400-2023-20-1-95-109 (in Russian).
  5. Douek, E. (2021) Governing online speech: From ‘posts-as-trumps’ to proportionality and probability. Columbia Law Review. 121(3), 759-833.
  6. Dym, B. & Fiesler, C. (2020) Social Norm Vulnerability and its Consequences for Privacy and Safety in an Online Community. Proceedings of the ACM on Human-Computer Interaction. 4(CSCW2), 1-24. https://doi.org/10.1145/3415226
  7. Filatova-Bilous, N. (2023) Content moderation in times of war: testing state and self-regulation, contract and human rights law in search of optimal solutions. International Journal of Law and Information Technology. 31(1), 46-74. https://doi.org/10.1093/ijlit/eaad015.
  8. Francois, C. & Lin, H. (2021) The strategic surprise of Russian information operations on social media in 2016 in the United States: mapping a blind spot. Journal of Cyber Policy. 6(1), 9-30. https://doi.org/10.1080/23738871.2021.1950196
  9. Geissler, D., Bär, D., Pröllochs, N. & Feuerriegel, S. (2023) Russian propaganda on social media during the 2022 invasion of Ukraine. EPJ Data Science. 12(35). https://doi.org/10.1140/epjds/s13688-023-00414-5
  10. Griffin, R. (2022) New school speech regulation as a regulatory strategy against hate speech on social media: The case of Germany’s NetzDG. Telecommunications Policy. 46(9), 102411. doi: 10.1016/j.telpol.2022.102411
  11. Hodgins, J.M. (2022) Countering Russian Subversion during Federal Elections in Canada in the Era of Social Media and Fake News. ITSS Verona Magazine. 1(1). Режим доступа: https://www.researchgate.net/publication/361532403_Policy_Paper_Countering_Russian_ Subversion_during_Federal_Elections_in_Canada_in_the_Era_of_Social_Media_and_Fake_ News [Accessed 16 January 2024].
  12. Jaidka, K., Mukerjee, S. & Lelkes, Y. (2023) Silenced on social media: the gatekeeping functions of shadowbans in the American Twitterverse. Journal of Communication. 73(2), 163-178. https://doi.org/10.1038/s41598-020-65358-6
  13. Kachur, A., Osin, E., Davydov, D., Shutilov, K. & Novokshonov, A. (2020) Assessing the Big Five personality traits using real-life static facial images. Scientific Reports. (10), 8487. https://doi.org/10.1038/s41598-020-65358-6
  14. Kosinski, Mi. (2021) Facial recognition technology can expose political orientation from naturalistic facial images. Scientific Reports. 11(100). https://doi.org/10.1038/s41598-020-79310-1
  15. Kovaleva, N.N., Anisimova, A.S., Tugusheva, Y.M. & Danilova, M.A. (2022) Artificial Intelligence and Social Media: Self-Regulation and Government Control. European Proceedings of Social and Behavioural Sciences. State and Law in the Context of Modern Challenges. https://doi.org/10.15405/epsbs.2022.01.56
  16. Lessig, L. (1999) Code and other laws of cyberspace. 1st edition. New York, USA., Basic Books Inc. Режим доступа: https://lessig.org/images/resources/1999-Code.pdf [Accessed 16th January 2024].
  17. Monti, M. (2020) The EU Code of Practice on Disinformation and the Risk of the Privatization of Censorship. In: Giusti, S., & Piras, E. (eds.). Democracy and Fake News: Information Manipulation and Post-Truth Politics. 1st ed. London, Routledge. pp. 214-225. https://doi.org/10.4324/9781003037385
  18. Nikishin, V.D. & Galyashina, E.I. (2021) Destructive Speech Behavior in the Digital Environment: Factors that Determine the Negative Impact on the User’s Worldview. Lex Russica. 74(6), 79-94. https://doi.org/10.17803/1729-5920.2021.175.6.079-094 (in Russian).
  19. Quercia, D., Kosinski, M., Stillwell, D. & Crowcroft, J. (2011) Our Twitter Profiles, Our Selves: Predicting Personality with Twitter. In: 2011 IEEE Third International Conference on Privacy, Security, Risk and Trust and 2011 IEEE Third International Conference on Social Computing, Boston, MA, USA. October 2011. pp. 180-185. https://doi.org/10.1109/PASSAT/SocialCom.2011.26
  20. Roberts, S.T. (2019) Behind the Screen: Content Moderation in the Shadows of Social Media. Illustrated edition. New Haven, Yale University Press. https://doi.org/10.2307/j.ctvhrcz0v.
  21. Romanov, A.A., Levashova, A.V., Sidenko, K.O. & Mikhailova, E.A. (2021) The essense of bullying as a social and legal phenomenon. Matters of Russian and International Law. 11(1A), 98-106. https://doi.org/10.34670/AR.2020.59.72.014 (in Russian).
  22. Rumyantsev, A. (2019) The German law on social networks: regulatory fixing of technological straggling. Sravnitel’noe konstitucionnoe obozrenie. 3(130), 27-53. https://doi.org/10.21128/1812-7126-2019-3-27-53. (in Russian).
  23. Saurwein, F. & Spencer-Smith, C. (2020) Combating Disinformation on Social Media: Multilevel Governance and Distributed Accountability in Europe. Digital Journalism. 8(6), 820-841. https://doi.org/10.1080/21670811.2020.1765401
  24. Sherstobitov, A., Neverov, K. & Barinova, E. (2018) Roskomnadzor vs. strategic and institutional limits of good public governance (case of blockage of online-resources in Russia). South-Russian Journal of Social Sciences. 19(3), 163-176. https://doi.org/10.31429/26190567-19-3-163-176 (in Russian).
  25. Sinnreich, A., Sanchez, M., Perry, N. & Aufderheide, P. (2023) Performative Media Policy: Section 230’s Evolution from Regulatory Statute to Loyalty Oath. Communication Law and Policy. 27(3-4), 167-186. https://doi.org/10.1080/10811680.2022.2136472
  26. Sirichit, M. (2015) Censorship by Intermediary and Moral Rights: Strengthening Authors’ Control Over the Online Expressions Through the Right of Respect and Integrity. Journal of Law, Technology and Public Policy and Methaya Sirichit. 1(3), 54-159. Режим доступа: https://www.semanticscholar.org/paper/Censorship-by-Intermediary-and-Moral-Rights%3A-Over-Sirichit/fe9c2543d07630482816c6657b3f8ffe70d353af [Accessed 16th January 2024].
  27. Sorbán, K. (2023) An elephant in the room-EU policy gaps in the regulation of moderating illegal sexual content on video-sharing platforms. International Journal of Law and Information Technology. 31(3), 171-185. https://doi.org/10.1093/ijlit/eaad024
  28. Titov, A.A. (2021) Novelities in the Russian legislation regulating the counteraction to Internet censorship. Bulletin of the University of the Prosecutor's Office of the Russian Federation. 3(83), 76-79. (in Russian).
  29. Wang, Y. & Kosinski, M. (2018) Deep neural networks are more accurate than humans at detecting sexual orientation from facial images. Journal of Personality and Social Psychology. 114(2), 246-257. https://doi.org/10.1037/pspa0000098
  30. Weintraub, E.L. & Valdivia, C.A. (2020) Strike and Share: Combatting Foreign Influence Campaigns on Social Media. Ohio State Technology Law Journal. 16(2), 701-721.
  31. Wu, T. (2019) Will Artificial Intelligence Eat the Law? The Rise of Hybrid Social-Ordering Systems. Columbia Law Review. (119), 2001-2028. Режим доступа: https://scholarship.law.columbia.edu/faculty_scholarship/2598 [Accessed 16th January 2024].
  32. Yushkina, N.A. & Panarina, M.A. (2019) Features of the discursive environment as a source for creating meaning in online communication (using the example of social networks). Digital Sociology. 2(2), 25-33. https://doi.org/10.26425/2658-347X-2019-2-25-33 (in Russian).
  33. Zhumabekova, K. (2022) Topical issues of protecting children from cyberbullying. Journal of actual problems of jurisprudence. 104(4), 98-103. https://doi.org/10.26577/JAPJ.2022.v104.i4.011

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».