The Right to Refuse from Digital Technologies: the Results of Expert Survey
- Authors: Fedotov M.A.1, Naumov V.B.2, Deyneko A.G.1, Tytiuk E.V.3
-
Affiliations:
- Higher School of Economics
- State and Law Institute of the Russian Academy of Sciences
- Nextons Legal Firm
- Issue: Vol 48, No 1 (2024)
- Pages: 8-28
- Section: Information. State. Human Rights
- URL: https://journal-vniispk.ru/2225-3475/article/view/278765
- DOI: https://doi.org/10.17323/tis.2024.19813
- ID: 278765
Cite item
Full Text
Abstract
The article continues a series of publications based on the results of traditional expert surveys conducted by the UNESCO Chair on Copyright, Related, Cultural and Information Rights of the National Research University Higher School of Economics together with the law firm Nextons among participants in annual scientific and practical conferences on media law and intellectual property law. The article summarizes and analyzes the results of an expert survey conducted in the fall of 2023 and dedicated to the human right to choose when using digital technologies. The thesis about the right to choose as a new generation of human rights is put forward and discussed.
As part of the survey, respondents were asked questions based on real examples of the implementation of digital technologies in various spheres of life in modern Russian society. Questions related to unmanned vehicles, the use of artificial intelligence for personnel selection, the use of voice assistants and chat bots for communication with the population, the integration of video surveillance and photographic recording systems into smart city projects, etc.
The results of the study showed that in most cases, respondents chose those answer options that provided individuals with the opportunity to refuse to use a particular technology. In general, the results obtained do not contradict the results of surveys conducted on similar topics in other jurisdictions.
The necessity is substantiated in the very near future to introduce in industry legislation the obligation to inform citizens about the use of certain digital technologies (for example, artificial intelligence technologies) and to create non-discriminatory conditions in the field of digitalization, where for persons who do not have the knowledge and/or ability to use them, there is always an alternative non-digital interaction will be provided.
Full Text
Современное общество тяготеет к искусственности
и чуждается непосредственности.
Сирил Н. Паркинсон
Покинув тайный мир, я соколом парил. Как радовался я свободе сильных крыл! Увы! Никто восторг со мной не разделил. И я спустился вновь туда, где прежде был.
Омар Хайям
ВВЕДЕНИЕ
Настоящая статья продолжает серию публикаций по результатам традиционных экспертных опросов [1, 2, 3], проводимых Кафедрой ЮНЕСКО по авторскому праву, смежным, культурным и информационным правам Национального исследовательского университета «Высшая школа экономики» совместно с юридической фирмой Nextons среди участников ежегодных научно-практических конференций по медиаправу и праву интеллектуальной собственности. Темами этих опросов становятся ключевые вопросы, возникающие на стыке цифровых технологий и права, компьютерных наук и юриспруденции. Поскольку эти вопросы неминуемо затрагивают интересы широкого круга людей, ценную информацию для размышлений и выработки рекомендаций, которые могут быть востребованы при выработке будущих управленческих решений, целесообразно искать именно с помощью прикладных социологических исследований. Их результаты призваны стать пищей для обсуждения не только правоведами, но также специалистами в области социологии, экономики, психологии и, разумеется, компьютерных наук. В итоге авторы рассчитывают содействовать формированию системы оптимальных социальных регуляторов, включающих нормы права, этики, технического регулирования и алгоритмического программирования, призванных сделать цифровую сферу обитания человека наиболее комфортной для жизни и созидательного творчества.
Методика экспертного опроса впервые была реализована авторами весной 2023 г. в ходе исследования «Искусственный интеллект и интеллектуальная собственность», приуроченного к организации и проведению III Международной научно-практической конференции «АВТОР/AUTHOR-2023» (Москва, 27-28 апреля 2023 г.). Результаты опроса были представлены на конференции, после чего стали основой для научного обобщения и публикации в журнале «Труды по интеллектуальной собственности» [1].
Настоящая статья подводит итоги следующего, второго по счету экспертного опроса. На этот раз темой опроса и социально-правового исследования, проведенного на его основе, стало право человека на выбор при использовании цифровых технологий. Площадкой для проведения опроса и представления его результатов быда выбрана ХХХII Международная научно-практическая конференция «МЕДИАПРАВО – 2023» (Москва, 7-8 декабря 2023 г.). В течение трех месяцев, пока на сайте Кафедры ЮНЕСКО НИУ ВШЭ продолжалась предварительная регистрация участников, посетители сайта имели возможность принять участие в экспертном опросе. Среди респондентов оказались практикующие юристы, представители бизнеса, государственные и муниципальные служащие, преподаватели, студенты, аспиранты и т.д. Разумеется, авторы не претендуют на репрезентативность выборки, однако тот факт, что в опросе приняли участие более половины докладчиков и слушателей конференции, то есть людей, как минимум ориентирующихся в проблематике использования цифровых технологий, в частности в сфере массовых коммуникаций, говорит сам за себя [2].
Перед респондентами были поставлены вопросы, основанные на реальных примерах внедрения цифровых технологий в различные сферы жизни современного российского общества. Авторы стремились сформулировать вопросы таким образом, чтобы не только выявить отношение респондентов к правовым и этическим проблемам, возникающим в связи с использованием цифровых технологий, но и проверить, насколько представления авторов об актуальности этих проблем, еще недавно казавшихся относящимися к далекому будущему, разделяются участниками экспертного опроса. С учетом высокого отклика со стороны аудитории (в опросе приняли участие более двухсот участников конференции) авторы полагают, что поставленная цель была хотя бы отчасти достигнута.
ПРАВО НА ВЫБОР В НОВОМ ПОКОЛЕНИИ ПРАВ ЧЕЛОВЕКА
Прежде чем приступить к представлению результатов нашего исследования, обратим внимание на недавно сформировавшуюся в отечественной правовой науке дискуссию относительно права на отказ от цифровых технологий, которое целесообразно рассматривать в контексте становления концепции нового поколения прав человека. Истоки идеи «отказа от “цифры”» можно отыскать в публичных акциях общественного движения «За право жить без ИНН, личных кодов и микрочипов», возникшего в начале 2000-х годов и объединившего «священнослужителей, монашествующих и православных верующих, не желающих соучаствовать в реализации богоборческих глобальных проектов, ведущих к демонтажу государства и подавлению богоданной свободы каждой личности» [4]. Распространившиеся в определенных кругах опасения, что «ИНН является печатью антихриста», «в ИНН и в электронных документах, удостоверяющих личность, присутствует апокалиптическое число 666», а христианин «утрачивает свое имя, принимая ИНН», заставили государство в 2006 г. внести изменения в Налоговый кодекс РФ, разрешив физическим лицам, не являющимся индивидуальными предпринимателями, не указывать ИНН в налоговых декларациях и иных подаваемых в налоговые органы документах, ограничиваясь своими персональными данными (п. 7 ст. 84). Таким образом, можно констатировать, что законодательное признание права человека на отказ от получения и использования ИНН стал первым шагом к формированию целостного правового института — права на отказ от цифровых технологий.
Идея формирования такого института была сформулирована несколько лет назад, когда для повышения уровня доверия к коммуникациям в стремительно развивающемся цифровом мире была предложена модель конституционной нормы о предоставлении гражданам права отказаться от использования цифрового пространства и технологий с сохранением за ними традиционной системы прав и свобод человека и гражданина и гарантией возможности не пользоваться новыми технологиями [5]. Появление такого предложения было обусловлено повсеместным проникновением в общественную жизнь цифровых технологий, в особенности технологий искусственного интеллекта, которые действительно, в отличие от ИНН, способны нести угрозы правам и свободам граждан.
Сформировавшаяся социальная мода на искусственный интеллект (ее можно назвать и рекламой искусственного интеллекта, и пропагандой связанных с ним ценностей), неоспоримые удобства и эффект от его использования в ряде сфер, включая распознавание речи и видеоизображений, анализ объемных текстов, рекламный триумф генеративных технологий создали ситуацию, когда в сфере цифровых коммуникаций использование ботов, автоматизированных ассистентов, применение технологий искусственного интеллекта в компьютерных играх и так называемых метавселенных становится уже не средством использования плодов технического процесса, а самоцелью в общественной жизни. При этом массовое распространение дипфейков и сгенерированного, но непроверенного человеком контента превращается, увы, в норму.
Таким образом, общественные отношения, в которых субъекты — физические лица вольно или невольно взаимодействуют с компьютерными программами, работающими на основе недетерминированных алгоритмов, становятся данностью для информационного общества. В этих условиях уместно обратиться к авторитету А.А. Пиленко, который более ста лет назад советовал крайне осторожно относиться к культурно-этическому воздействию изобретений. Он предупреждал, что «одно улучшение материального благосостояния еще ведь не служит доказательством сопутствующего повышения также и общекультурного уровня. Материальное благосостояние современной Европы неизмеримо выше благосостояния античной Греции, а между тем греческая культура нам до сих пор является завидным примером для подражания» [6].
С учетом сказанного выше нам представляется разумным, справедливым и перспективным предоставить человеку бόльшие возможности для выбора и обеспечить «осознанное и доверенное участие человека и гражданина в правоотношениях в цифровом пространстве с возможностью отказа от использования внедряемых сложных и не до конца понятных ему технологий» [7].
Можно вспомнить и адресованные молодому поколению слова академика Д.С. Лихачева о том, что «этика, простая в предшествующие века, бесконечно усложнится в век науки. На человека ляжет тяжелейшая и сложнейшая задача быть… человеком науки, человеком, нравственно отвечающим за все, что происходит в век машин и роботов» [8].
Насколько надежны технические средства, которые нам навязывают, функционируют ли они с учетом установленных социальными регуляторами требований по обеспечению прав и интересов человека и гражданина, есть ли, наконец, у человека необходимый набор знаний о том, как ими пользоваться и какие риски здесь могут иметь место? Таков далеко не полный перечень принципиальных вопросов, на которые, как представляется, не дают ответа ни правовые доктрины, ни законодательство, ни естественные, ни точные, ни даже компьютерные науки.
Очевидно, что заставлять человека использовать цифровые технологии для решения тех или иных рутинных задач (например, оплаты услуг ЖКХ, получения различных государственных и муниципальных услуг), запрещая ему поступать в соответствии с выработанными за десятилетия привычками поведения, — нерациональный выбор для человечества. Необходимо целенаправленно формировать в обществе доверие к цифровым технологиям, не пытаясь навязать их или ввести законом. Доверие должно стать результатом не принуждения со стороны государства, а уважительного, комфортного для человека решения ряда задач. В их число входят, например, задачи идентификации и аутентификации субъектов и объектов в цифровом мире, достижения «среднестатистическим потребителем» медийной и информационной грамотности, обеспечения квалифицированного уровня знания технологий и навыков пользования ими, создания целостной системы гарантий соблюдения прав и законных интересов людей, включая определение юридической ответственности [9].
Право на отказ от цифровых технологий также связано с вопросом обеспечения человеку возможности быть достоверно информированным о том, с кем или с чем он взаимодействует, когда с помощью средств связи пытается реализовать свои законные интересы: получить информацию о расписании движения автобусов, записаться к врачу и т.д. Представляется принципиально важным закрепить за человеком право на коммуникацию с человеком, а не с чат-ботом или голосовым помощником, который во многих случаях оказывается крайне непонятливым, а значит, для человека бесполезным. Подобные ситуации встречаются во многих сферах — от получения государственных и муниципальных услуг до банковского обслуживания.
Представляется, что право на отказ от использования цифровых технологий должно служить инструментом для достижения баланса прав граждан и публичных интересов [10]. Соответствующая логика нашла свое отражение в докладе «Цифровая трансформация и защита прав граждан в цифровом пространстве» [11], представленном Советом при Президенте РФ по развитию гражданского общества и правам человека в конце 2021 г. В документе справедливо поднимается проблематика, связанная с тотальной цифровизацией, которая может при определенных обстоятельствах являться вызовом ценностям человеческого достоинства, прав и свобод человека и гражданина.
В докладе утверждается, что во многих случаях происходит нарушение естественного права человека не использовать цифровые технологии. В связи с этим делается вывод, что «гражданин имеет право на отказ взаимодействовать с государством и обществом в электронной форме — без необходимости объяснять кому-либо причины такого решения» [12]. Документ указывает на альтернативу тотальному «цифровому» развитию, предлагая отказаться от жесткого технологического детерминизма и требуя руководствоваться презумпцией «неизменности базовых принципов прав, морали и природы человека, исходя из того, что никакие “технологические революции” и “новые технологические уклады” не меняют ни природы человека, ни моральных ценностей, ни сути общественных отношений, ни основных прав человека» [13].
Как в этих условиях будет развиваться общество, какие цели и задачи оно будет себе ставить, насколько ясно будет понимать собственные приоритеты и управлять системой социальных регуляторов — чрезвычайно важные вопросы. Крайности уже сейчас преследуют нас, и разнонаправленность управленческих решений очевидна. Например, в октябре 2023 г. в такой социально значимой сфере, как образование, впервые была нормативно предусмотрена возможность отказа от применения цифровых технологий. С 01.09.2024 здесь будет действовать следующее правило: при наличии заявления обучающегося об отказе от применения электронного обучения образовательная организация обязана осуществлять обучение без применения соответствующих технологий [14]. Напротив, в декабре 2023 г. было объявлено о переходе в 2024 г. всей российской системы здравоохранения на электронные медицинские карты1, что вызвало большой общественный резонанс.
Не меньший резонанс среди пациентов и медицинских работников вызвал п. 1 Рекомендации к проведению амбулаторного приема и алгоритм ведения приема в медицинских организациях государственной системы здравоохранения г. Москвы, оказывающих первичную медико-санитарную помощь взрослому и детскому населению, утвержденный московскими властями в конце 2023 г. [16]. Несмотря на заявления Департамента здравоохранения г. Москвы о том, что аудиозапись приема является обезличенной и конфиденциальной [17], на наш взгляд, риски нарушения охраняемой законом врачебной тайны (вследствие идентификации человека по голосу или времени приема либо вследствие взлома компьютера, на котором хранятся аудиозаписи) существенно превышают возможные выгоды от реализации данной инициативы. Спустя месяц после издания приказа Департамент внес в него существенные изменения, исключив процедуру идентификации пациента и дополнив Регламент пунктом о необходимости обезличенного хранения аудиозаписей без привязки данных к конкретным пациентам, их медицинским картам или врачам [18].
Угрозы нарушения прав и свобод граждан, вызванные стремительной цифровизацией процессов государственного планирования и управления, были озвучены в ходе встречи Президента Российской Федерации В.В. Путина с Советом при Президенте Российской Федерации по развитию гражданского общества и правам человека в декабре 2020 г. [19]. По итогам указанного заседания глава государства поручил Правительству Российской Федерации совместно с Советом разработать проект концепции обеспечения защиты прав и свобод человека и гражданина в цифровом пространстве Российской Федерации и проект плана мероприятий (дорожной карты) по ее реализации, включающий в себя мероприятия по повышению цифровой грамотности граждан России и их обучению навыкам информационной безопасности и «цифровой гигиены» [20]. Такой документ был разработан специально сформированной межведомственной рабочей группой в 2022 г., однако пока не получил официального утверждения в качестве федерального документа стратегического планирования.
В проекте Концепции, в частности, содержится указание на риски, связанные с продвижением в общественном сознании деструктивных представлений о человеке, его достоинстве, правах и свободах как об исторически преходящих ценностях, утрачивающих свою актуальность в условиях нового технологического уклада, о допустимости и целесообразности тотального контроля частной и общественной жизни граждан, об исторической безальтернативности возрастающей зависимости человека, общества и государства от цифровой среды. В проекте Концепции в числе приоритетных направлений совершенствования законодательства в сфере обеспечения защиты прав и свобод человека и гражданина в цифровом пространстве Российской Федерации указано, в частности, на необходимость обеспечения паритетного уровня реализации прав и свобод граждан, использующих и не использующих информационные технологии, вне зависимости от причин, которыми они при этом руководствуются (текст проекта концепции опубликован в [21]).
Подобные положения нередко вызывают критику хозяйствующих субъектов, занимающихся развитием информационных технологий, а также отдельных представителей органов публичной власти. Утверждается, в частности, что любые ограничения, связанные с необходимостью защиты прав и свобод человека и гражданина в цифровом пространстве Российской Федерации, будут тормозить развитие российской цифровой экономики и снижать конкурентоспособность отечественного бизнеса. Граждане же якобы в большинстве своем согласны на ограничения своих прав и свобод в обмен на те удобства, которые предоставляют им современные цифровые технологии. Подтвердить или опровергнуть эти утверждения могут результаты проведенного социально-правового исследования.
Транспорт без пилота или без выбора
Стало тривиальным утверждение, что беспилотный транспорт все больше проникает в нашу повседневную жизнь. Все больше городов во всем мире переходят на беспилотный транспорт, а законодатели разных стран при этом реализуют различные регуляторные сценарии. Первая группа стран демонстрирует инновационный подход, обеспечивающий постепенное экспериментальное внедрение беспилотного транспорта, которое предоставляет производителям время для адаптации новых технологий к реальной жизни. Речь идет, в частности, о США, а также о странах «глобального Юга»: Китае, ОАЭ, Сингапуре, Японии и др. Отметим, что в США можно наблюдать конкуренцию экспериментальных правовых режимов между штатами (прежде всего между Калифорнией, Мичиганом и Флоридой) за наиболее привлекательные условия для технологических компаний, развивающих технологии беспилотного транспорта (подробнее о зарубежном опыте регулирования см. [22]).
Вторая группа стран, в которую входят государства Европейского союза, реализует консервативный подход, поскольку эти страны связаны формулировками Венской конвенции о безопасности дорожного движения 1968 г. Так, ч. 1 ст. 8 Конвенции устанавливает, что каждое транспортное средство или состав транспортных средств, которые находятся в движении, должно иметь водителя, а ч. 3 ст. 8 говорит о том, что он должен обладать необходимыми психическими и физическими качествами для управления. В 2014 г. на 68-й сессии Рабочей группы по безопасности дорожного движения Комитета ООН по внутреннему транспорту была одобрена поправка к Венской конвенции, дополняющая ее п. 5-bis ст. 8, «легализовавшим» использование автономных систем управления транспортными средствами. Данная поправка вступила в силу для нашей страны и других стран — участниц Конвенции 23 марта 2016 г., но, как отмечают исследователи, поскольку одним из обязательных условий использования автономных систем является возможность их отключения водителем в любой момент, говорить о полной легализации автономного транспорта пока преждевременно [23].
На наш взгляд, формулировки Венской конвенции не исключают толкования, в соответствии с которым при использовании автономной системы управления водитель, обладающий необходимыми качествами, может находиться не в салоне автомобиля, а например, в диспетчерском центре, осуществляя наблюдение за движением беспилотного транспорта. Такой подход позволяет нашей стране делать шаги в области национального правового регулирования, направленные на реализацию инновационного подхода. В соответствии с Федеральным законом от 31 июля 2020 г. № 258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации» Правительством Российской Федерации в 2018–2022 гг. был реализован первый правовой эксперимент по эксплуатации на автомобильных дорогах общего пользования высокоавтоматизированных транспортных средств [24]. Первоначально он проводился в Москве и Республике Татарстан силами компании «Яндекс.Испытания» и автозавода КамАЗ, но впоследствии к эксперименту присоединились Владимирская, Ленинградская, Московская, Нижегородская, Новгородская и Самарская области, Чувашская Республика, Ханты-Мансийский и Ямало-Ненецкий автономные округа, Краснодарский край и г. Санкт-Петербург (подробнее о ходе первого эксперимента см. [25]).
Второй правовой эксперимент стартовал в 2022 г. и продлится в течение трех лет на территории 38 субъектов Российской Федерации, в его реализации принимают участие компании «Бейстрек Рус», «Газпромнефть-Снабжение», «СтарЛайн», «Сберавтотех» и «Яндекс.Испытания» [26]. На наш взгляд, расширение географии экспериментального правового режима позволит разработчикам накопить массивы информации о работе беспилотного транспорта в разных климатических зонах и различных дорожных условиях. Кроме того, такое стремительное развитие свидетельствует о высоком уровне безопасности, достигнутом разработчиками: по данным мониторинга публикаций в СМИ и социальных сетях, во всех случаях ДТП с участием беспилотных автомобилей виновиками оказываются другие участники дорожного движения. В целом, на наш взгляд, режим правового эксперимента в большей степени подходит для решения задачи по урегулированию процессов развития беспилотного транспорта, нежели точечные изменения десятков федеральных законов, которые пришлось бы произвести в противном случае. Подобные правовые эксперименты проводятся и за рубежом, во многих странах (подробнее об этом см. [27]).
В рамках данного экспертного опроса теме использования беспилотного транспорта был посвящен следующий вопрос: «Согласны ли вы, что у гражданина должно быть право выбора в вопросе использования беспилотного транспорта, защищаемое законодательно?». Вопрос носит отчасти провокационный характер, поскольку на данный момент внедрение автоматизированного транспорта (особенно общественного) происходит таким образом, что возможность выбора для пассажиров в принципе не предусмотрена. Тем интереснее выглядят результаты опроса, представленные на диаграмме 1: абсолютное большинство респондентов (72%) проголосовали за вариант, при котором человек должен иметь гарантированное законом право выбирать, использовать беспилотный транспорт или нет.
Диаграмма 1
Лишь 22% респондентов указали альтернативный вариант, при котором возможность выбора транспорта не должна предусматриваться. Этот вариант звучал следующим образом: «Нет, это лишнее: повсеместное проникновение беспилотного транспорта снизит аварийность и повысит качество обслуживания». В рамках опроса некоторые респонденты также высказали мнение, что в целом необходимо отталкиваться не от реального выбора пассажиров, а от соображений безопасности: безопасность должна быть обеспечена на транспорте для всех пассажиров, а способы, которыми эта цель будет достигаться, в данном случае вторичны.
Цифровой кадровик: плюсы и минусы
Еще одна сфера применения цифровых технологий (конкретнее — искусственного интеллекта) — подбор кадров. Уже сейчас многие работодатели применяют построенные на нейросетях системы подбора кадров, чтобы анализировать резюме кандидатов и отсеивать нерелевантные заявки. Однако и те, кто используют такие системы, и те, кто их разрабатывают и обеспечивают машинное обучение, видимо, не читали мировой бестселлер Сирила Н. Паркинсона «Законы Паркинсона» [28], в котором автор в привычной для его произведений форме блистательного сарказма анализирует сильные и слабые стороны различных способов подбора кадров.
Так называемый британский метод старого типа был основан на «личной беседе, в которой соискатель должен объяснить, кто он такой. Немолодые джентльмены, сидящие вокруг краснодеревого стола, спрашивают его имя и фамилию. …Комиссия не встретит трудностей, пока ей не придется выбирать между третьим сыном баронета и вторым, хотя и побочным, сыном виконта».
Напротив, так называемый китайский метод старого типа сводился к письменным испытаниям: «Во времена династии Мин экзамен для самых способных устраивали каждые три года, и включал он три трехдневные сессии. В первую сессию соискатель писал три сочинения и поэму в восьми четверостишиях. Во вторую он писал пять сочинений на издавна установленные темы. В третью он писал пять сочинений об искусстве управления. Тех, кто все сдал успешно (процента два), допускали к последнему экзамену, который проходил в столице. Длился он один день и включал одно сочинение на тему из текущей политики. Выдержавшие этот экзамен могли стать чиновниками, и чем выше была отметка, тем выше было и место».
Описывая методы рекрутинга середины прошлого века, Сирил Н. Паркинсон отмечает, что все они «сводятся к проверке умственного уровня и психологической беседе. Недостаток вышеозначенной проверки — в том, что победители не знают совершенно ничего. Они тратят столько времени на подготовку к тесту, что ничего больше не успевают выучить. …При таком методе нередко из пятисот человек выбирают именно того, кто через несколько недель окажется абсолютно непригодным».
Главный вывод Сирила Н. Паркинсона таков: современные методы плохи обилием соискателей. «Конечно, —пишет он, — существуют простейшие способы уменьшить их количество. Сейчас широко применяется формула: «Не старше пятидесяти, не моложе двадцати, и никаких ирландцев», что несколько сокращает число претендентов. Но все же их остается много. …Незачем привлекать такую массу народу. Но никто об этом не знает, и объявления составлены так, что они неизбежно приманят тысячи».
Идея Сирила Н. Паркинсона состоит в том, чтобы при составлении post description «так уравновесить риском денежную выгоду, чтобы не явилось больше одного соискателя». А если все-таки придут двое или трое, у которых будут все нужные качества, то следует «провести простейшую проверку. Мы спрашиваем какую-нибудь девицу (машинистку или секретаршу): “Который вам больше нравится?” Она тут же отвечает, и вопрос решен. Нам возразят, что мы полагаемся здесь на чистую случайность, как бы бросаем монету. Это не так. Мы просто ввели новое качество — мужскую привлекательность» [28].
Автоматизированные HR-системы, функционирующие на базе технологии искусственного интеллекта, построены на прямо противоположных принципах. Предназначенные для работы с большими данными, они, как правило, а) используют исходные данные, полученные от машины и (или) от человека, чтобы формировать виртуальную среду; б) обобщают свое восприятие, автоматически или вручную перерабатывая его в модели; в) с помощью человека либо автоматически извлекают из этих моделей результаты в виде рекомендаций, прогнозов и решений. В Рекомендации Комиссара Совета Европы по правам человека «Раскрытие искусственного интеллекта: 10 шагов для защиты прав человека», датированной маем 2019 г., так и определяется система искусственного интеллекта: «машинная система, которая дает рекомендации, делает прогнозы и принимает решения для заданного набора целей» [29]. Современные алгоритмы искусственного интеллекта могут не просто распознавать лица, но и более точно, чем люди, определять по фотографии уровень интеллекта (64% у алгоритма против 57% у человека) [30], а также различные личные качества [31].
Здесь необходимо вспомнить так называемый закон Конвея, согласно которому организации, проектируя сложные искусственные системы, непреднамеренно копируют структуру коммуникаций в своей собственной организации [32]. Мелвин Конвей доказал, что дизайн создаваемых систем в самом широком смысле этого слова отражает ценности и стереотипы людей, которые их создавали. Отсюда следует, что алгоритмы автоматизированной HR-системы будут настолько этичны, толерантны и законопослушны, насколько эти качества присущи создавшим их людям. На каких больших данных будет построено машинное обучение, так и будет делать свой выбор робот-кадровик. Например, если для его глубокого обучения будет использован массив резюме за последние несколько десятилетий, то «в своей последующей автономной работе он будет отдавать предпочтение мужчинам, а не женщинам, воспроизводя старую практику» [33]. Кроме того, работодатель или сторонняя компания, которой он поручит кадровую работу, может намеренно использовать технологии искусственного интеллекта в дискриминационных целях — например, для того чтобы избавиться от кандидатов с невысоким уровнем интеллекта, неподходящей политической или сексуальной ориентацией или от женщин, планирующих пополнение в семье в ближайшее время. В последнем случае будет иметь место совершение группой лиц по предварительному сговору преступления, предусмотренного ст. 145 Уголовного кодекса Российской Федерации.
Понимая опасность таких последствий, авторы настоящего исследования поставили перед респондентами следующий вопрос: «Нужно ли законодательно закрепить отдельное право кандидата требовать, чтобы его кандидатура рассматривалась сотрудником кадровой службы, а не автоматизированной HR-системой?». При этом мы учитывали, что ст. 16 Федерального закона от 27 июля 2006 г. № 152-ФЗ «О персональных данных» (ред. от 06.02.2023) запрещает принятие юридически значимых решений в отношении субъекта персональных данных на основании исключительно автоматизированной обработки его персональных данных, поскольку такие решения порождают юридические последствия или иным образом затрагивают права и законные интересы субъекта персональных данных. Исключения предусмотрены только для тех случаев, когда имеется письменное согласие субъекта персональных данных «или в случаях, предусмотренных федеральными законами, устанавливающими также меры по обеспечению соблюдения прав и законных интересов субъекта персональных данных» (п. 2 ст. 16).
Оператор персональных данных, в данном случае — работодатель, обязан разъяснить субъекту персональных данных порядок принятия решения на основании исключительно автоматизированной обработки его персональных данных и возможные юридические последствия такого решения, предоставить возможность заявить возражение против такого решения, а также разъяснить порядок защиты субъектом персональных данных своих прав и законных интересов. Если кандидат на вакантную должность воспользуется своим правом подать возражение на принятое в отношении него кадровое решение, то оператор обязан рассмотреть его в 30-дневный срок.
Сходные правила предусмотрены также законодательными актами других стран и межгосударственных образований. В качестве примера можно привести GDPR [34], California Privacy Rights Act (“CPRA”) [35] и другие нормативные правовые акты. Смысл всех подобных правил очевиден — обеспечить защиту прав и законных интересов физических лиц с соответствующим ограничением прав компаний-работодателей, на которые возлагаются дополнительные обязательства.
Однако расплывчатость формулировок Федерального закона «О персональных данных» по данному вопросу и отсутствие у субъекта персональных данных гарантированного права требовать, чтобы решение о его трудоустройстве принималось без использования автоматизированной HR-системы, предопределили необходимость постановки в рамках нашего исследования вопроса в столь категоричной форме. Распределение ответов на поставленный вопрос показано на диаграмме 2.
Диаграмма 2
Как видим, подавляющее большинство респондентов проявили лояльность к автоматизированным HR-системам, которые могут использовать работодатели в процессе рекрутинга. В той или иной степени с этим готовы мириться 87% опрошенных. Только 13% опрошенных решили, что нужно законодательно запретить использование подобных систем подбора кадров.
Наибольшее число голосов (37%) набрал ответ, согласно которому работодатель может самостоятельно принимать решение об использовании подобных систем, однако обязан предварительно уведомлять об этом кандидатов. Иными словами, здесь предлагается использовать ту последовательность юридически значимых действий, которая предусмотрена в ст. 16 Федерального закона «О персональных данных».
Примерно столько же респондентов высказались за некоторое уточнение существующего правового механизма. Так, 23% опрошенных посчитали, что использование подобных систем подбора кадров нужно запретить в определенных законом сферах. По мнению 11% опрошенных, работодатель может применять только такие основанные на использовании технологии искусственного интеллекта системы подбора кадров, которые прошли сертификацию в Минтруда России. Отметим, что на сегодняшний день подобная сертификация законодательством не предусмотрена. Однако, если предположить, что целью установления подобной процедуры будет реальная защита трудовых прав работника, который всегда является слабой стороной в правоотношениях с работодателем, то следует признать эту идею заслуживающей обсуждения.
Радикальными сторонниками автоматизированных HR-систем оказались 9% опрошенных. Они согласились с тем, что работодатель должен иметь право самостоятельно принимать решение об использовании подобных систем без уведомления и согласия кандидата. Естественно предположить, что такой ответ выбирали прежде всего те респонденты, которые сами являются работодателями. Наша гипотеза о наличии корреляции между предпочтением респондента и его реальным положением в трудовых правоотношениях полностью подтвердилась. Ответы тех, кто указал в анкете, что работает в бизнесе, разделились между вариантами: «Работодатель должен иметь право самостоятельно принимать решение об использовании подобных систем без уведомления и согласия кандидата» и «Работодатель должен иметь право самостоятельно принимать решение об использовании подобных систем, но обязан предварительно уведомлять об этом кандидатов». Тот факт, что в этой группе респондентов из двух перечисленных некоторое преобладание выявлено у второго варианта, может объясняться тем, что ответ «Работаю в бизнесе» в равной степени могли давать как предприниматели, так и их наемные работники.
«Его звали Роберт»
Так называлась советская научно-фантастическая кинокомедия производства кинокомпании «Ленфильм» (режиссер — Илья Ольшвангер), вышедшая на экраны в 1967 г. и посвященная приключениям робота-андроида по имени Роберт, которого по своему образу и подобию сконструировал молодой ученый Сергей. Естественно, обе роли играл один и тот же актер, Олег Стриженов. Сюжет популярного фильма строился на том, что запрограммированное сходство персонажей становится причиной многих веселых недоразумений.
Мы вспомнили этот фильм, исследуя тему самоидентификации роботов-андроидов и понимая, что сходство с человеком может выражаться не только во внешнем облике, но и, в частности, в голосе. В фильме, кстати, робот всегда представляется Робертом, но никогда — роботом. И на совет своего создателя Сергея «Учись думать, а не только вычислять» отвечал: «У меня нет времени думать».
Фактически создатели фильма показали, видимо, сами того не подозревая, принцип работы теста Тьюринга, суть которого в максимально редуцированном виде можно сформулировать как поставленную перед испытателем (судьей) задачу в рамках вербальной коммуникации с человеком и компьютером определить, с кем именно в данный момент происходит его общение (см. подробнее, например, [36].) В нашем исследовании мы попросили респондентов задуматься над тем, должен ли гражданин всякий раз проходить тест Тьюринга, когда сталкивается с работой искусственного интеллекта при получении информации или услуг в дистанционном формате, например по телефону.
Поставив вопрос о необходимости обязательной самоидентификации роботов, мы сформулировали его следующим образом: «Когда вы звоните по телефону в какую-нибудь организацию, вы не всегда можете определить, разговариваете ли вы с человеком или с роботом — голосовым помощником. Нужно ли законодательно регулировать такие ситуации?» Мнения опрошенных разделились практически пополам между двумя ответами: 45% опрошенных выбрали вариант «Да, достаточно законодательно установить обязательность идентификации того, с кем (чем) коммуницирует гражданин, обратившийся в организацию», 42% выбрали вариант «Да, должны быть закреплены подробные правила коммуникации человека с роботом, поскольку человек может оказаться в роли «слабой стороны». Только 12% опрошенных посчитали, что такое регулирование излишне. Распределение ответов показано на диаграмме 3.
Диаграмма 3
Отметим, что законодательные новеллы, предполагающие обязательную самоидентификацию систем, работающих на основе технологии искусственного интеллекта, уже встречаются в различных юрисдикциях. К примеру, в штате Калифорния (США) принят закон под названием Bolstering Online Transparency Act (сокращенно «The B.O.T.»). В соответствии с этим законом физическим и юридическим лицам запрещено использовать чат-бота для общения или взаимодействия в сети с жителями Калифорнии с целью стимулирования продажи или сделки с товарами или услугами либо влияния на голосование на выборах без раскрытия информации о том, что общение происходит с помощью чат-бота [37].
Более того, в настоящее время идет активное обсуждение проекта «AI Disclosure Act». Согласно этому законопроекту, любой контент, сгенерированный искусственным интеллектом, должен содержать дисклеймер DISCLAIMER: this output has been generated by artificial intelligence [38]. По поводу содержания законопроекта разгорелись споры, поскольку многие предсказуемо сочли такое требование излишне обременительным.
Напомним, что в рамках предыдущего экспертного опроса, проведенного в апреле 2023 г., авторы настоящей статьи ставили перед респондентами вопрос о том, нужно ли при создании объектов интеллектуальной собственности раскрывать информацию о технологии, с помощью которой они были созданы. Абсолютное большинство опрошенных согласились с такой необходимостью [1]. Как видим, и в вопросе о необходимости самоидентификации искусственного интеллекта налицо высокий уровень единодушия среди респондентов (87%).
Незаменимый оператор
В развитие темы коммуникации человека с роботами, будь то чат-боты или голосовые помощники, в рамках экспертного опроса респондентам было предложено выразить свое мнение в отношении того, должна ли быть установлена законом возможность перевода телефонного звонка на специалиста-человека при коммуникации с организацией, использующей автоматических голосовых помощников.
Отметим, что с момента появления на рынке первого голосового помощника Siri (2011), представляющего собой «программное обеспечение с внедренным искусственным интеллектом, который постоянно обучается, улучшается и сам себя совершенствует» [39], данное направление развития цифровых технологий продвинулось уже достаточно далеко, хотя и сохранило основные принципы своего построения. Коммуникация с голосовым помощником, как и прежде, происходит через распознавание речи пользователя, который теперь может задать вопрос компьютеру, подключенному к облачным сервисам в интернете, не беря в руки клавиатуру, планшет или смартфон. Ответ на вопрос получается в виде либо текста на дисплее, либо синтезированной «речи» голосового помощника.
В настоящий момент по подсчетам Е.С. Егоровой, Д.А. Быкова и Д.А. Вьюнова [39], на рынке представлены около 30 голосовых помощников. Некоторые из них используются в работе государственных организаций и частных компаний для коммуникации с заинтересованными гражданами посредством голосовой (телефонной) связи. Так, среди зарегистрированных в Роспатенте программ для ЭВМ имеется ряд вариантов голосовых помощников для государственных учреждений: модуль «Интерактивный голосовой помощник» единой информационной системы оказания государственных и муниципальных услуг Московской области», «Клиент-серверное приложение с голосовым помощником “Голос города” для регионов Российской Федерации» и т. д.
Как отмечают специалисты, для успешной коммуникации человека с голосовым помощником принципиальное значение имеет так называемый принцип вежливости, который по мысли английского лингвиста Дж. Лича включает в себя шесть максим: такт, великодушие, одобрение, скромность, согласие и симпатия. Исследование, проведенное П.В. Дорожкиной и Е.О. Моисеевой [40], показало, что «голосовым помощникам в основном свойственна непротиворечивость словам пользователя, тем не менее принцип вежливости нарушается относительно часто. По большей части это связано с отступлением от максимы скромности. Стоит, однако, заметить, что часто ботами давались нерелевантные ответы или такие, в которых сложно угадать интенцию при общем соответствии смысла сообщения запросу. При этом в отдельных случаях регулярно не давались ответы вообще».
Тот факт, что ответы голосового помощника часто оказываются нерелевантными вопросу или не даются вообще, заставляет поставить вопрос о необходимости обеспечить заинтересованному гражданину возможность коммуникации с человеком-оператором в качестве альтернативы общения с роботом. В нашем исследовании абсолютное большинство опрошенных (82%) посчитали, что такая возможность должна быть всегда. Другие варианты ответов привлекли значительно меньшее количество респондентов. Так, 9% экспертов посчитали, что возможность перевода звонка на человека-оператора должна быть не во всех, а только в предусмотренных законом случаях, а 6% решили, что такая возможность обязательна для коммуникации только с государственными организациями, но никак не с коммерческими. Для 3% опрошенных возможность контакта с человеком-оператором оказалась вообще не нужна (см. диаграмму 4).
Диаграмма 4
Несомненно, законодательное установление правила, согласно которому использование голосового помощника для коммуникации с гражданами должно предусматривать возможность переключения разговора на человека-оператора, будет обременительным для использующих такую технологию организаций, поскольку потребует от них затрат на создание дополнительных рабочих мест и оплату труда работников. Тогда как возможность использования исключительно голосовых помощников для коммуникации с гражданами позволяет существенно снижать затраты компаний, прежде всего на оплату труда работников, а также резко повышать количество обработанных звонков.
Несмотря на значительную экономию, которую дает использование голосовых помощников, все настойчивее ставится в науке и в общественной дискуссии вопрос о необходимости регулирования данного процесса. Так, проект закона “AI Bill of Rights: Making Automated Systems Work for the American People”, опубликованный Управлением по научно-технической политике Администрации Президента США в октябре 2022 г., содержит предложения, согласно которым люди, где это необходимо, должны иметь доступ к человеку-оператору, способному быстро рассмотреть и устранить возникшие проблемы. Кроме того, человек должен иметь возможность отказаться от использования автоматизированных систем в пользу получения требуемой услуги от человека-оператора, если это ему необходимо [41].
ПРАВО НА ВЫБОР ФОРМЫ КОММУНИКАЦИИ С ГОСУДАРСТВОМ
Коммуникация человека с теми или иными организациями посредством использования голосового помощника или чат-бота — всего лишь частные случаи более общей проблемы, а именно получения услуг в цифровой форме в дистанционном режиме. Если для коммерческих структур данный вопрос относится к сфере выбора оптимальной бизнес-стратегии, то для государственных и муниципальных органов — к сфере реализации конституционных принципов функционирования институтов публичной власти.
Согласно Конституции Российской Федерации, «признание, соблюдение и защита прав и свобод человека и гражданина — обязанность государства» (ст. 2), а сами эти права и свободы «определяют смысл, содержание и применение законов, деятельность законодательной и исполнительной власти, местного самоуправления и обеспечиваются правосудием». В то же время к числу конституционных прав и свобод человека и гражданина в интересующей нас сфере относятся право на ознакомление с документами и материалами, непосредственно затрагивающими его права и свободы (часть вторая ст. 24), право на информацию (часть четвертая ст. 29), право обращаться лично, а также направлять индивидуальные и коллективные обращения в государственные органы и органы местного самоуправления (ст. 33).
Все эти права могут в настоящее время реализовываться гражданами как в дистанционном формате в цифровой форме, так и в более традиционных формах, путем личного посещения тех или иных учреждений, направления и получения документов в бумажном виде и т.д. Для граждан, которые уже вполне овладели навыками цифрового общения с органами публичной власти, первый вариант, можно предположить, будет предпочтительнее. Но было бы ошибкой абстрагироваться от того факта, что существует значимая часть населения, которая не освоила эти навыки по тем или иным причинам.
Принято считать, что среди противников использования информационно-коммуникационных технологий в данной сфере преобладают люди пожилого возраста. Есть и другие категории граждан, для которых получение государственных и муниципальных услуг «по старинке» является не только привычным стереотипом, но и принципиальным выбором и которых можно отнести к «цифроскептикам»2. Следовательно, тотальный и безальтернативный переход на исключительно цифровую коммуникацию органов публичной власти с населением, с одной стороны, даст большую экономию средств за счет высвобождения значительного числа офисных работников, а с другой — приведет к ущемлению прав отдельных категорий граждан.
Исходя из этих соображений авторы предложили участникам экспертного опроса задуматься над тем, должны ли государственные и муниципальные органы предоставлять гражданину возможность выбора формы взаимодействия с ними — очное или дистанционное, цифровое. Как показано на диаграмме 5, большинство опрошенных (77%) посчитали, что такая возможность должна предоставляться во всех случаях, причем бесплатно. Еще 16% опрошенных полагают, что такая возможность должна предоставляться только для установленного законом перечня случаев подобного взаимодействия. 5% опрошенных все же поддержали идею о том, что гражданину не должна предоставляться возможность выбора формы взаимодействия с органами публичной власти, но нужна государственная программа обеспечения всеобщей цифровой грамотности, особенно среди пожилых. Отдельно некоторые из опрошенных отметили, что государству в любом случае необходимо решать проблему цифрового неравенства между людьми, которые свободно владеют цифровыми технологиями и не испытывают трудностей при их использовании, и теми, для кого цифровые продукты могут являться препятствием для доступа к государственным и муниципальным сервисам.
Диаграмма 5
Обратим внимание на очевидную корреляцию в ответах на вопрос о формах коммуникации граждан с институтами публичной власти и на предыдущий вопрос об обязательности участия человека-оператора при использовании организациями голосовых помощников и чат-ботов для общения с населением. За сохранение альтернативных вариантов в первом случае высказались 82% опрошенных, во втором случае — 77%. Чтобы проверить устойчивость позиции, согласно которой внедрение цифровых технологий должно сопровождаться сохранением прежних, более привычных каналов коммуникации, перед респондентами был поставлен вопрос, призванный обобщить описанные выше частные случаи: «Должно ли быть закреплено в законах право гражданина на отказ от использования цифровых технологий?». Как показано на диаграмме 6, абсолютное большинство опрошенных (85%) считают, что такое право должно быть закреплено законодательно. При этом 54% респондентов полагают, что такую норму необходимо ввести в законодательство уже сейчас, а 31% — что данное правило должно появиться позднее, по мере продвижения цифровизации общественной жизни: пока же она представляется им преждевременной.
Диаграмма 6
Абсолютное меньшинство опрошенных (12%) убеждены, что в законодательном закреплении права человека на отказ от использования цифровых технологий нет необходимости. При этом в своих комментариях некоторые сторонники последней позиции указывали, что смысла в закреплении подобного правила нет, поскольку препятствовать цифровизации невозможно.
Представляется этически некорректным умолчать, что авторы настоящей статьи являются сторонниками законодательного закрепления права человека на отказ от использования цифровых технологий. Более того, мы полагаем, что время установления такой нормы уже пришло. Чем дольше законодатель будет оттягивать ее введение, тем сложнее будет снимать социальное напряжение, вызванное ее отсутствием. На наш взгляд, закрепление на законодательном уровне права гражданина на отказ от использования цифровых технологий не должно рассматриваться как воспрепятствование технологическому развитию. Скорее оно необходимо для того, чтобы сбалансировать стремительно развивающуюся «технологическую эволюцию» и с помощью специальных мер социальной поддержки, прежде всего в сфере медийной, информационной и компьютерной грамотности, позволить адаптироваться к новой цифровой реальности людям, которые в силу определенных причин не успевают за скоростью развития технологий.
Для нас очевидно, что эти люди должны иметь возможность чувствовать себя полноценными членами современного общества. Поэтому представляются этически неприемлемыми случаи, когда коммерческие компании (например, банки) отменяют возможность решения того или иного вопроса посредством посещения офиса, переводя все в онлайн-формат. Такой подход, обусловленный стремлением к минимизации затрат на операционную деятельность, откровенно ущемляет права той части общества, которая еще не адаптировалась к цифровым технологиям.
По сути, такой подход лишь углубляет тот электронно-цифровой разрыв, о котором говорилось в Окинавской хартии глобального информационного общества 2000 г., которая декларировала, что «каждый человек должен иметь возможность доступа к информационным и коммуникационным сетям. …Ключевой составляющей нашей стратегии должно стать непрерывное движение в направлении всеобщего доступа для всех», в том числе необходимо «уделять особое внимание нуждам и возможностям людей, пользующихся меньшей социальной защищенностью, людей с ограниченной трудоспособностью, а также пожилых граждан и активно осуществлять меры, направленные на предоставление им более легкого доступа» [43]. Особую важность данная проблема приобретает в том случае, когда речь идет о решении повседневных задач, затрагивающих каждого человека (к примеру, об оплате налогов или услуг ЖКХ).
Шоры для «недреманного ока»
В рамках проведенного исследования респондентам было предложено высказать мнение и по поводу таких неотъемлемых элементов системы умного города, как видеонаблюдение и фотофиксация. В 2014 г. Правительством Российской Федерации была утверждена Концепция построения и развития аппаратно-программного комплекса «Безопасный город» [44], а в 2018 г. Правительство г. Москвы утвердило региональную Концепцию «Москва. Умный город 2030» [45]. Требования об обязательном оснащении публичных мест системами видеонаблюдения установлены также для торговых объектов (рынков, магазинов и пр.), гостиниц, учреждений культуры и т.д. [46].
В числе функций комплекса «Безопасный город», направленных на обеспечение правопорядка и профилактику правонарушений, подп. «б» п. 1 разд. IV федеральной Концепции называет «идентификацию и распознавание лиц». Что же касается столичной системы, то, по информации Департамента информационных технологий г. Москвы, в 2022 г. в Москве насчитывалось более 225 тыс. камер видеонаблюдения, благодаря которым за год удалось раскрыть более 9,4 тыс. преступлений, в том числе особо тяжких [47]. Однако ни в указанных концепциях, ни в предварительном национальном стандарте [48] пока не описан алгоритм реализации данной функции. В связи с этим возникает вопрос о признании права законопослушного гражданина не быть идентифицированным и распознанным при помощи таких систем, которое можно назвать логическим продолжением презумпции невиновности.
В связи с этим в рамках нашего экспертного опроса вопрос был сформулирован следующим образом: «Согласны ли вы, что в законе не должно быть территориальных ограничений по “покрытию” города системами видеонаблюдения для автоматизированной аналитики ситуации в режиме реального времени, иными словами, “слепых зон” в городе быть не должно?». В итоге, как показано на диаграмме 7, 42% опрошенных посчитали, что в первую очередь необходимо отталкиваться от соображений безопасности, и выбрали вариант, в соответствии с которым автоматизированный мониторинг ситуации должен осуществляться только в тех местах, где имеются реальные угрозы безопасности граждан.
Диаграмма 7
Немного меньше опрошенных (37%) предпочли опереться на противопоставление частных и публичных пространств и посчитали, что «слепые зоны» в городе допустимы, только если это частные территории. При этом 14% респондентов решили, что «слепых зон» в принципе быть не должно, а 5%, наоборот, высказали мнение, что автоматизированный мониторинг в реальном времени должен быть запрещен.
НЕКОТОРЫЕ ВЫВОДЫ
В качестве общей тенденции по результатам опроса можно отметить, что в большинстве случаев респонденты выбирали те варианты ответов, которые предоставляли физическим лицам возможность отказаться от использования той или иной технологии. Этот вывод заставляет задуматься, поскольку на практике технологии внедряются в нашу жизнь без какой-либо возможности повлиять на этот процесс или отказаться быть его участником. Можно даже предположить, что, если мир пойдет по пути «навязывания» цифровизации, это может привести к жесткому отрицанию со стороны общества и гипотетически — к «антитехнологической» революции. С учетом того, что на данный момент идея внедрения права на отказ от цифровых технологий не обсуждается широко в публичном пространстве, авторы настоящей статьи призывают к дискуссии о возможности введения такого права на законодательном уровне.
Как упоминалось выше, это не первый экспертный опрос, который проводит Кафедра ЮНЕСКО НИУ ВШЭ совместно с компанией Nextons [1]. По результатам двух опросов можно сделать вывод, что в ответах респондентов прослеживаются тенденция отсутствия однозначного доверия технологиям в целом и последовательный выбор в пользу человека, когда речь идет о противопоставлении «человек — машина». С одной стороны, такие результаты могут объясняться тем, что респонденты в первую очередь видят себя самих в качестве пользователей технологий, а не в качестве разработчиков. С другой стороны, целевой аудиторией опросов всегда являются неравнодушные к теме инноваций лица, включая тех, кто занимается технологиями (в том числе их регулированием) на профессиональной основе. Кроме того, больше половины респондентов в обоих экспертных опросах составляют молодежь и люди среднего возраста, то есть та часть общества, которая в основной своей массе свободно владеет технологиями и не испытывает особых сложностей в процессе цифровизации.
Представляется, что среди лиц старшего возраста уровень доверия к информационным технологиями будет в среднем еще ниже. Одновременно с этим многие респонденты готовы к использованию технологий и внедрению их в повсеместную жизнь при условии прозрачности этого процесса. В целом полученные нами результаты не противоречат результатам опросов, проводившихся по схожей тематике в других юрисдикциях. Так, ресурс Pew Research Center опубликовал результаты исследования, которое показало, что 52% американцев говорят, что они больше обеспокоены, чем воодушевлены расширением использования искусственного интеллекта [49]. Глобальное исследование, проведенное совместно Университетом Квинсленда (University of Queensland) и компанией KPMG, продемонстрировало, что трое из пяти опрошенных (61%) либо настроены неоднозначно в отношении использования искусственного интеллекта, либо не желают доверять ему [50]. Наконец, опубликованные на ресурсе World Economic Forum результаты исследования, которое проводилось для Мирового экономического форума, показали, что только половина опрошенных в равной степени доверяют компаниям, использующим искусственный интеллект, и не использующим его [51].
Подводя итог сказанному выше, заметим, что, по нашему мнению, в предметном отраслевом законодательстве в ближайшее время потребуется вводить обязанности информирования граждан об использовании тех или иных технологий (например, технологий искусственного интеллекта) и создания недискриминационных условий в сфере цифровизации, где для лиц, не имеющих знаний и/или возможностей их использовать, всегда будет предусмотрена альтернативная возможность нецифрового взаимодействия.
1 Министр здравоохранения М.А. Мурашко 02.12.2023 объявил об обязательном переходе на электронные медицинские карты с 2024 г. По его словам, власти не посягают «ни в коем разе на врачебный почерк», который «уже в анекдотах зарекомендовал себя», но с 2024 г. от бумажных медкарт врачи должны отказаться. См. [15].
2 Авторы полагают весьма удачным появившийся в последнее время неологизм «цифроскептики», построенный по аналогии с общеупотребимым термином «евроскептики», который широко используется как в специальной литературе, так и в массовых СМИ для обозначения людей, скептически относящихся к актуальному состоянию и перспективам Европейского союза. См., например, [42].
About the authors
Mikhail A. Fedotov
Higher School of Economics
Author for correspondence.
Email: mfedotov@hse.ru
ORCID iD: 0000-0002-2591-1770
SPIN-code: 8819-5654
Scopus Author ID: 57188800734
ResearcherId: K-6408-2015
Doctor of Legal Sciences, Professor, Director of the UNESCO Copyright, Neighboring, Cultural and Information Rights Department; Honorable Lawyer of the Russian Federation, Active State Councilor of the Russian Federation of 2nd Class (ret.)
Russian Federation, MoscowViсtor B. Naumov
State and Law Institute of the Russian Academy of Sciences
Email: nau@russianlaw.net
ORCID iD: 0000-0003-3453-6703
SPIN-code: 5729-5413
Scopus Author ID: 57191844984
Doctor of Legal Sciences, Principal Researcher of the Information Law and International Information Security Sector; Managing Partner of the Saint Petersburg Office of Nextons, Head of the Preserved Culture Project, Associate Member of the UNESCO Copyright, Neighboring, Cultural and Information Rights Department at the Higher School of Economics
Russian Federation, MoscowAlexey G. Deyneko
Higher School of Economics
Email: alexey-deyneko@mail.ru
ORCID iD: 0000-0003-3700-7364
SPIN-code: 8899-7709
Candidate of Legal Sciences, Professor of the Department of the Digital Technology Law and Bio Law, Associate Member of the UNESCO Copyright, Neighboring, Cultural and Information Rights Department, State Councilor of the Russian Federation of 2nd Class
Russian Federation, MoscowEkaterina V. Tytiuk
Nextons Legal Firm
Email: ekaterina.tytiuk@nextons.ru
Associate in the IP/IT Practice Group of Nextons
Russian Federation, MoscowReferences
- Ekspertnyj opros na temu «Iskusstvennyj intellekt i intellektual’naya sobstvennost’» provodilsya na sajte Kafedry YUNESKO NIU VSHE po adresu https://hse.ru/unesco/ v yanvare–aprele 2023 g. Rezul’taty issledovaniya ispol’zovany pri napisanii stat’i: Fedotov M.A., Naumov V.B., Budnik R.A., Tytyuk E.V. Rol’ iskusstvennogo intellekta v sfere intellektual’noj sobstvennosti: social’no-pravovye problemy tvorchestva // Trudy po intellektual’noj sobstvennosti (Works on Intellectual Property). 2023. T. 47, No 4. S. 68–83; doi: 10.17323/tis.2023.18218.
- Ekspertnyj opros na temu “Pravo na vybor pri ispol’zovanii cifrovyh tekhnologij” provodilsya na sajte Kafedry YUNESKO NIU VSHE po adresu https://hse.ru/unesco/ v sentyabre-noyabre 2023 g. Rezul’taty issledovaniya ispol’zovany avtorami pri podgotovke nastoyashchej stat’i.
- Ekspertnyj opros na temu “Iskusstvennoe iskusstvo: okno v tvorchestvo ili bumazhnye cvety dlya mekhanicheskogo pianino?” provoditsya na sajte Kafedry YUNESKO NIU VSHE po adresu https://www.hse.ru/unesco/ii s yanvarya po aprel’ 2024 g.
- Oficial’nyj sajt Mezhdunarodnogo obshchestvennogo dvizheniya “Za pravo zhit’ bez INN, lichnyh kodov i mikrochipov” [elektronnyj resurs]. — URL: https://www.notinn.ru (data obrashcheniya: 25.01.2024).
- Naumov V.B. Institut identifikacii v informacionnom prave: Dis. … dokt. yur. nauk. M., 2020., S. 355. Sm. takzhe materialy i vystupleniya Chetvertoj mezhdunarodnoj nauchno-prakticheskoj konferencii “Bachilovskie chteniya”, IGP RAN (Moskva), 5-6 fevralya 2021 g.
- Pravo izobretatelya: (privilegii na izobreteniya i ih zashchita v russkom i mezhdunarodnom prave) : istoriko-dogmaticheskoe issledovanie [t. 1-2] / Al. Pilenko, privat-docent Imperatorskogo SPb universiteta. Sankt-Peterburg: Tipografiya M.M. Stasyulevicha, 1902-1903. T. 2. S. 46. Moskovskij Libertarium [Elektronnyj resurs]. — URL: https://libertarium.ru/pilenko-0-vvedenie.html (data obrashcheniya: 25.01.2024).
- Naumov V.B. Otkaz ot cifrovyh tekhnologij: absurd ili novoe pravo cheloveka i grazhdanina // Chetvertye Bachilovskie chteniya: materialy Mezhdunarodnoj nauchno-prakticheskoj konferencii / Otv. red. T.A. Polyakova, A.V. Minbaleev, V.B. Naumov. M.: Institut gosudarstva i prava RAN, 2022. S. 83.
- Lihachev D.S. Pis’ma o dobrom i prekrasnom. M.: Det. lit., 1985.
- Naumov V.B. Teoreticheskie informacionno-pravovye voprosy identifikacii v cifrovoj sfere // Informacionnoe pravo. 2020. № 4. S. 7.
- Polyakova T.A., Naumov V.B., Minbaleev A.V. Trust in the Law During the Digital Transformation // State and Law. 2022. № 11. S. 145.
- Cifrovaya transformaciya i zashchita prav grazhdan v cifrovom prostranstve: doklad Soveta pri Prezidente RF po razvitiyu grazhdanskogo obshchestva i pravam cheloveka / I.S. Ashmanov, S.G. Volobuev, V.B. Naumov i dr. M., 2021. 123 s. — URL: http://www.president-sovet.ru/presscenter/news/spch_podgotovil_doklad_o_polozhenii_del_s_pravami_i_svobodami_cheloveka_i_grazhdanina_v_tsifrovom_pr/
- Tam zhe. S. 40.
- Tam zhe. S. 91.
- Punkt 12 Pravil primeneniya organizaciyami, osushchestvlyayushchimi obrazovatel’nuyu deyatel’nost’, elektronnogo obucheniya, distancionnyh obrazovatel’nyh tekhnologij pri realizacii obrazovatel’nyh programm, utv. Postanovleniem Pravitel’stva RF ot 11.10.2023No 1678 // SPS “Konsul’tantPlyus”.
- Murashko nazval srok obyazatel’nogo perekhoda na elektronnye medkarty. RBK [elektronnyj resurs]. — URL: https://www.rbc.ru/society/02/12/2023/656b56bd9a794774d175ac7a (data obrashcheniya: 25.01.2024).
- Prikaz Departamenta zdravoohraneniya g. Moskvy ot 20 dekabrya 2023 g. № 1241 “O tirazhirovanii proekta po provedeniyu audiokontrolya ambulatornogo priyoma vracha v medicinskih organizaciyah gosudarstvennoj sistemy zdravoohraneniya goroda Moskvy, okazyvayushchih pervichnuyu mediko-sanitarnuyu pomoshch‘ vzroslomu i detskomu naseleniyu” // SPS “Konsul‘tant Plyus”.
- Depzdrav Moskvy vvel vyborochnuyu audiozapis‘ priema v kabinetah vrachej // Kommersant, 12 yanvarya 2024 g. [elektronnyj resurs]. — URL: https://kommersant.ru/doc/6452738 (data obrashcheniya: 1 fevralya 2024 g.).
- Prikaz Departamenta zdravoohraneniya g. Moskvy ot 24 yanvarya 2024 g. № 40 «O vnesenii izmenenij v prikaz ot 20 dekabrya 2023 g.No 1241 “O tirazhirovanii proekta po provedeniyu audiokontrolya ambulatornogo priyoma vracha v medicinskih organizaciyah gosudarstvennoj sistemy zdravoohraneniya goroda Moskvy, okazyvayushchih pervichnuyu mediko-sanitarnuyu pomoshch‘ vzroslomu i detskomu naseleniyu” // SPS “Konsul‘tant Plyus”.
- Stenogramma zasedaniya Soveta pri Prezidente Rossijskoj Federacii po razvitiyu grazhdanskogo obshchestva i pravam cheloveka ot 10 dekabrya 2020 g. [elektronnyj resurs] — URL: http://kremlin.ru/events/councils/by-council/18/64638 (data obrashcheniya: 1 fevralya 2024 g.).
- Podp. “g” p. 3 perechnya poruchenij Prezidenta Rossijskoj Federacii ot 28 yanvarya 2021 g. № Pr-133 [Elektronnyj resurs]. — URL: http://kremlin.ru/acts/assignments/orders/64952 (data obrashcheniya: 1 fevralya 2024 g.).
- Dejneko A.G. Publichnoe pravo v kiberprostranstve (publichno-pravovoe regulirovanie informacionnyh otnoshenij): monografiya. M.: Prospekt, 2023. S. 209.
- Voronin D.A., Makarevich M.L. Problemy pravovogo regulirovaniya avtonomnogo transporta // Innovacionnaya ekonomika: perspektivy razvitiya i sovershenstvovaniya. 2018. № 7 (33), T. 1. S. 123–128.
- Neznamov A.V. Pravila bespilotnogo vozhdeniya: ob izmeneniyah Venskoj konvencii o dorozhnom dvizhenii // Zakon. 2018. № 1. S. 178.
- Postanovlenie Pravitel’stva Rossijskoj Federacii ot 26 noyabrya 2018 g. № 1415 (red. ot 7 fevralya 2022 g.) “O provedenii eksperimenta po opytnoj ekspluatacii na avtomobil’nyh dorogah obshchego pol’zovaniya vysokoavtomatizirovannyh transportnyh sredstv” // SPS “Konsul’tant Plyus”.
- Dejneko A.G. Evolyuciya pravovogo regulirovaniya ekspluatacii bespilotnyh avtomobilej v Rossijskoj Federacii // Informacionnoe pravo. № 1 (71), 2022. S. 31–34. doi: 10.55291/1999-480H-2022-1-31-34.
- Postanovlenie Pravitel’stva Rossijskoj Federacii ot 9 marta 2022 g. № 309 “Ob ustanovlenii eksperimental’nogo pravovogo rezhima v sfere cifrovyh innovacij i utverzhdenii programmy eksperimentel’nogo pravovogo rezhima v sfere cifrovyh innovacij po ekspluatacii vysokoavtomatizirovannyh transportnyh sredstv” // SPS “Konsul’tant Plyus”.
- Makarov V.O. Prakticheskie voprosy vnedreniya instituta regulyativnyh pesochnic v rossijskoe zakonodatel’stvo v kontekste vstupleniya v silu federal’nogo zakona ot 31.07.2020 No 258-FZ “Ob eksperimental’nyh pravovyh rezhimah v sfere cifrovyh innovacij v Rossijskoj Federacii” // Yuridicheskie issledovaniya. 2020. № 11. S. 18–24.
- Parkinson S.N. Zakony Parkinsona i drugie pamflety: per. s angl. M.: Progress, 1976. S. 34–41.
- Oficial’nyj sajt Komissara Soveta Evropy po pravam cheloveka [elektronnyj resurs]. — URL: https://search.coe.int/commissioner/Pages/result_details.aspx?ObjectId=09000016809a42e4 (data obrashcheniya: 25.01.2024).
- Zebrowitz L.A. Hall J.A., Murphy N.A., Rhodes G. Looking Smart and Looking Good: Facial Cues to Intelligence and Their Origins //Personality and Social Psychology Bulletin. 2002. Vol. 28. № 2. doi: 10.1177/0146167202282009. P. 238–249.
- What your Facebook Profile Picture Reveals about your Personality / C. Segalin, F. Celli, L. Polonio et al // MM ‘17: Proceedings of the 25th ACM International Conference on Multimedia. 2017. P. 460–468. doi: 10.1145/3123266.3123331/
- Conway Melvin E. How Do Committees Invent? // Datamation (magazine, F.D. Thompson Publications, Inc.). 1968. April.
- Fedotov M.A. Rol’ universitetskoj nauki v formirovanii prava iskusstvennogo intellekta // Cifrovaya sreda i politika universitetov v sfere intellektual’noj sobstvennosti : sb. nauchnyh rabot / otv. red. prof. I.A. Bliznec. M.: Izdatel’skaya gruppa “Yurist”, 2021. S. 15.
- Art. 22 General Data Protection Regulation.
- California Consumer Privacy Act of 2018 [1798. 100 – 1798.199.100] (Title 1.81.5 added by Stats. 2018, Ch. 55, Sec. 3.)
- Alekseev A.Yu. Kompleksnyj test T’yuringa: filosofsko-metodologicheskie i sociokul’turnye aspekty. M.: IInteLL, 2013. 303 s.
- Gail J. Kamal of Faegre Drinker. California’s BOT Disclosure Law, SB 1001, Now in Effect // The National Law review. 2024. Vol. XIV, No 22. — URL: https://www.natlawreview.com/article/california-s-bot-disclosure-law-sb-1001-now-effect (data obrashcheniya 22.01.2024).
- H.R. 3831: AI Disclosure Act of 2023 // Govtrack. — URL.: https://www.govtrack.us/congress/bills/118/hr3831/summary (data obrashcheniya 24.01.2024).
- Egorova E.S., Bykov D.A., V’yunov D.A. Sravnitel’nyj analiz raboty golosovyh pomoshchnikov // Sovremennye informacionnye tekhnologii. 2022. № 36 (36). S. 114.
- Dorozhkina P.V., Moiseeva E.O. Princip vezhlivosti v reakciyah golosovyh pomoshchnikov na komplimenty // V sbornike: Gumanitarnye tekhnologii v sovremennom mire. Sbornik statej HI Mezhdunarodnoj nauchno-prakticheskoj konferencii, posvyashchennoj pamyati doktora pedagogicheskih nauk, glavnogo redaktora nauchnogo zhurnala “Sovremennaya kommunikativistika”, professora Oskara Yakovlevicha Gojhmana. Kaliningrad, 2023. S. 299.
- The Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People. — URL: https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf (data obrashcheniya 22.01.2024).
- Knorre B.K., Murashova A.A. “V nachale bylo slovo...”, a v konce budet chislo? pravoslavie i anticifrovoj protest v Rossii: s 1990-h do koronavirusa // Mir Rossii. Sociologiya. Etnologiya. 2021. T. 30. No 2. S. 146–166.
- Okinavskaya hartiya global’nogo informacionnogo obshchestva (Prinyata na o. Okinava 22.07.2000) // SPS “Konsul’tantPlyus”.
- Koncepciya postroeniya i razvitiya apparatno-programmnogo kompleksa «Bezopasnyj gorod» (utv. rasporyazheniem Pravitel’stva Rossijskoj Federacii ot 3 dekabrya 2014 g. No 2446-r, v red. ot 5 aprelya 2019 g.)// SPS “Konsul’tant Plyus”.
- Koncepciya “Moskva. Umnyj gorod 2030” [Elektronnyj resurs]. — URL: https://ict.moscow/docs/Strategy_Smart_City_v5.pdf (data obrashcheniya: 9 fevralya 2024 g.).
- Postanovlenie Pravitel’stva Rossijskoj Federacii ot 19 oktyabrya 2017 g. No 1273 (red. ot 5 marta 2022 g.) «Ob utverzhdenii trebovanij k antiterroristicheskoj zashchishchennosti torgovyh ob”ektov (territorij) i formy pasporta bezopasnosti torgovogo ob”ekta (territorii)»; Postanovlenie Pravitel’stva Rossijskoj Federacii ot 14 aprelya 2017 g. No 447 (red. ot 5 marta 2022 g.) “Ob utverzhdenii trebovanij k antiterroristicheskoj zashchishchennosti gostinic i inyh sredstv razmeshcheniya i formy pasporta bezopasnosti etih ob”ektov” // SPS “Konsul’tant Plyus”.
- Gorodskaya sistema videonablyudeniya [elektronnyj resurs]. — URL: https://video.dit.mos.ru (data obrashcheniya: 9 fevralya 2024 g.).
- Predvaritel’nyj nacional’nyj standart Rossijskoj Federacii PNST 761-2023 «Bezopasnost’ v chrezvychajnyh situaciyah. Bezopasnyj gorod. Terminy i opredeleniya» (utv. prikazom Rosstandarta ot 6 marta 2023 g. No 12-pnst) // SPS “Konsul’tant Plyus”.
- Faverio M., Tyson A. What the data says about Americans’ views of artificial intelligence // Pew Research Center 21.11.2023. — URL: https://www.pewresearch.org/short-reads/2023/11/21/what-the-data-says-about-americans-views-of-artificial-intelligence/ (data obrashcheniya: 25.01.2024).
- Gillespie N., Lockey S., Curtis C., Pool J., Akbari A. (2023). Trust in Artificial Intelligence: A Global Study. The University of Queensland and KPMG Australia. 10.14264/00d3c94. — URL: https://ai.uq.edu.au/project/trust-artificial-intelligence-global-study (data obrashcheniya: 25.01.2024).
- Joe Myers. 5 charts that show what people around the world think about AI // Weforum. 5.01.2022. — URL: https://www.weforum.org/agenda/2022/01/artificial-intelligence-ai-technology-trust-survey/(data obrashcheniya: 25.01.2024).
Supplementary files
