Этика искусственного интеллекта: социологический подход

Обложка

Цитировать

Полный текст

Аннотация

Актуальность. Для создания эффективных механизмов государственного регулирования потенциальных моральных вызовов, обусловленных широким внедрением технологий искусственного интеллекта, практический интерес представляет изучение отношения социума к данной проблеме.

Цель работы – социологический анализ отношения российского социума к внедрению технологий искусственного интеллекта Всероссийским центром изучения общественного мнения. Использованы материалы социологических опросов за период 2007–2023 гг. Данные взвешены по социально-демографическим параметрам.

Результаты. Большинство респондентов считает, что искусственный интеллект не может полностью заменить человека (78 %). Наибольшие опасения населения (отметили 50–65 % респондентов) связаны с потерей персональных данных и нарушением границ приватности, утратой персональной ответственности за ошибочные действия. Каждый третий респондент отметил риски нарушения гражданских прав и социальных гарантий («усиливает неравенство», «нарушает баланс интересов общества и человека»), потенциальные этические проблемы («у искусственного интеллекта нет морали и этики» – 32 %).

Заключение. Недоверие к технологиям ИИ связано с пониманием социальных рисков их интеграции и осознанием потери человеческих ценностей общения, творчества, индивидуальности. Особые риски в данном контексте представляются для социальных институтов образования и здравоохранения, где утрата межличностной коммуникации ставит под сомнение проявление эмпатии, сочувствия и сострадания.

Об авторах

Алена Димитриевна Доника

Волгоградский государственный медицинский университет; Волгоградский медицинский научный центр

Автор, ответственный за переписку.
Email: addonika@yandex.ru
ORCID iD: 0000-0003-3905-5538
Scopus Author ID: 57190221899

кандидат медицинских наук, доктор социологических наук, профессор, старший научный сотрудник Лаборатории этической, правовой и социологической экспертизы в медицине

Россия, Волгоград; Волгоград

Список литературы

  1. Леушина В.В., Карпов В.Э. Этика искусствен-ного интеллекта // Философия и общество. 2022. № 3. С. 124–140. doi: 10.30884/jfio/2022.03.07.
  2. Каримов А.Р., Хорт М.Г. Современные вызо-вы в этике искусственного интеллекта // Inter-national Scientific and Practical Conference. 2023. № 2. С. 344–349. doi: 10.24412/2181-1385-2023-2-344-349.
  3. Constantinescu M., Voinea C., Uszkai R., Vică C. Understanding responsibility in responsible AI. Dianoetic virtues and the hard problem of context // Ethics and Information Technology. 2021. No. 23. P. 803–814.
  4. Hallamaa J., Kalliokoski T. How AI systems challenge the conditions of moral agency? // In-ternational conference on human-computer inter-action. Springer, Berlin, 2020. P. 54–64.
  5. Wallach W., Vallor S. Moral machine: from value alignment to embodied virtue // Ethics of Artificial Intelligence / Liao M (Ed). Oxford University Press, New York, NYC, 2020. P. 383–412.
  6. Назарова Ю.В., Каширин А.Ю. Дилеммы эти-ки искусственного интеллекта // Гуманитарные ведомости ТГПУ им. Л. Н. Толстого. 2020. № 4 (36). С. 23–31. doi: 10.22405/2304-4772-2020-1-4-23-31.
  7. Доника А.Д. Социологический прогноз ком-плаентности молодежи к современным векто-рам государственной политики: монография. Тамбов: ООО «Юником», 2023. 88 с. URL: https://ukonf.com/doc/mon. 2023.08.01.pdf.
  8. Еремина М.В. Социальная группа «65+»: эти-ческая дилемма пандемии // Биоэтика. 2022. Т. 15. № 1. С. 46–50.
  9. Филиппов А.В. Уроки пандемии: этика без-опасности // Биоэтика. 2021. Т. 27. № 1. С. 32–35.
  10. Седова Н.Н. Биоэтика в эпоху перемен: неза-щищенные группы // Биоэтика. 2022. Т. 15. № 1. С. 3–5.
  11. Седова Н.Н. Этическая экспертиза в меди-цине: от гуманизма к формализму // Биоэтика. 2022. Т. 15. № 2. С. 6–11.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML
2. Рис. 1. Оценка интереса населения к науке и технике в динамике 2007–2023 гг. По оси ординат – число респондентов в процентах. По оси абсцисс – варианты ответов

Скачать (134KB)
3. Рис. 2. Структура недоверия россиян к технологиям искусственного интеллекта . По оси ординат – варианты ответов на вопрос: «Почему именно Вы не доверяете технологиям искусственного интеллекта?». По оси абсцисс: число респондентов в процентах

Скачать (362KB)
4. Рис. 3. Экспектации населения социальных рисков внедрения технологий искусственного интеллекта. По оси ординат – варианты ответов на вопрос: «Как Вы считаете, у развития технологий искусственного интеллекта есть негативные последствия или таковых нет? Если есть, то какие из перечисленных негативных последствий вызывают у Вас наибольшее беспокойство?». По оси абсцисс: число респондентов в процентах

Скачать (292KB)

© Доника А.Д., 2023

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».