Культура вины и ответственность врача при использовании систем поддержки принятия врачебных решений

Обложка

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

Цель данной статьи заключается в обосновании необходимости пересмотра структуры моральной и уголовной ответственности врача в общественной системе, в которой ему навязывается культура вины, то есть единоличная персональная ответственность за любую медицинскую ошибку, совершенную в том числе с участием системы поддержки принятия врачебных решений. От патерналистской модели взаимоотношений «врач–пациент», начиная с 1970 годов совершен переход к модели совместного ответственного поведения, в которой каждой стороне вменяется в обязанность знание и понимание природы выносимых клинических решений, что должно быть подкреплено в случае включения в процедуры диагностики и лечения технологий искусственного интеллекта особой формой информированного согласия как для пациента, так и для врача. При этом фактически отсутствует четкая регламентация процесса сообщения и работы с информацией, и персональная ответственность высшего менеджмента за формирование системы медицинского обеспечения. В силу принципиальной непрозрачности работы постоянно развивающихся технологий искусственного интеллекта, окончательное решение должно оставаться за врачом. Однако обоснование его ответственности в актуальных технологических условиях требует нового общественного договора внутри профессиональной среды относительно условий внедрения систем поддержки принятия врачебных решений в широкую медицинскую практику.

Об авторах

Анастасия Валерьевна Углева

Национальный исследовательский университет «Высшая школа экономики»

Российская Федерация, 101000 Москва, ул. Мясницкая, д. 20

Список литературы

  1. American College of Physicians. Ethics manual (4th ed.). Annals of Internal Medicine. 1998. N 128. P. 576–594.
  2. Barocas S., Selbst A., and Raghavan M. The hidden assumptions behind counterfactual explanations and principal reasons. Proceedings of the 2020 International Conference on Fairness, Accountability, and Transparency. 2020. P. 80–89.
  3. Bleher H., Braun M. Diffused responsibility: attributions of responsibility in the use of AI-driven clinical decision support systems. AI Ethics. 2022. N 2. P. 747–761.
  4. Braun M., Hummel P., Beck S., et al. Primer on an ethics of AI-based decision support systems in the clinic. Journal of Medical Ethics. 2021. N 47. P. e3.
  5. Chollet F. On the measure of intelligence, 2019, available at: https://arxiv.org/abs/1911.01547
  6. Coeckelbergh M. Artificial intelligence, responsibility Attribution, and a relational Justification of explainability. Sci Eng Ethics. 2020. N 26. P. 2051–2068.
  7. Dellermann D., Calma A., Lipusch N., Weber T., Weigel S., and Ebel P. The future of human-ai collaboration: a taxonomy of design knowledge for hybrid intelligence systems. Hawaii international Conference on System Sciences (HICSS). Hawaii, USA, 2019.
  8. Di Nucci E. Should we be afraid of medical AI? J Med Ethics. 2019. N 45. P. 556–558.
  9. Feenberg A. Critical theory of technology: An overview. Information technology in librarianship: New critical approaches. 2005. Vol. 1. Iss. 1. P. 47–64.
  10. Feenberg A. Technosystem: the social life of reason. Harvard University Press, 2017.
  11. Floridi L., Cowls J. A unified framework of five principles for AI in society. Machine Learning and the City: Applications in Architecture and Urban Design. May 2022. N 2. P. 535–545.
  12. Ford E., Edelman N., Somers L., et al. (2021). Barriers and facilitators to the adoption of electronic clinical decision support systems: a qualitative interview study with UK general practitioners. BMC Med Inform Decis Mak. 2021. P. 21.
  13. Funer F. The deception of certainty: how non-interpretable machine learning outcomes challenge the epistemic authority of physicians. A deliberative-relational approach. Med Health Care Philos. 2022. N 25.: P. 167–78.
  14. Funer F., Liedtke W., Tinnemeyer S., et al. J Med Ethics, 2022.
  15. Grote T., Berens P. On the ethics of algorithmic decision-making in healthcare. J Med Ethics. 2020. N 46. P. 205–211.
  16. Hu X.-B. A methodological framework of human-machine Co-evolutionary intelligence for decision-making Support of ATM. Integrated Communications Navigation and Surveillance Conference (ICNS). 2020. P. 5C3-1–5C3-8.
  17. Jonas H. The Imperative of Responsibility: In Search of an Ethics for the Technological Age. Chicago: University of Chicago Press, 1985.
  18. Krijger J. Enter the metrics: critical theory and organizational operationalization of AI ethics. Ai & society. 2021. P. 1–11.
  19. Krinkin K., Shichkina Y. and Ignatyev A. Co-evolutionary hybrid intelligence is a key concept for the world intellectualization. Kybernetes.2022. Vol. ahead-of-print. N ahead-of-print.
  20. Langanke M., Liedtke W., Buyx A. Patients’ responsibility for their health. In: Schramme T., Edwards S., eds. Handbook of the Philosophy of Medicine. Cham; Heidelberg; New York; Dordrecht; London: Springer, 2016. P. 619–640.
  21. Lepri B., Oliver N., and Pentland A. Ethical machines: the human-centric use of artificial intelligence. Science. 2021. Vol. 24, N. 3. P. 102–249.
  22. Leslie D. Understanding Artificial Intelligence Ethics and Safety: A Guide for the Responsible Design and Implementation of AI Systems in the Public Sector. The Alan Turing Institute, 2019.
  23. Makary M.A., Daniel M. Medical error — the third leading cause of death in the US BMJ. 2016. P. 353.
  24. Nebeker C., Torous J., Bartlett E. RJ. Building the case for actionable ethics in digital health research supported by artificial intelligence. BMC Med. 2019. N 17. P. 137.
  25. Reason J. T. Human error. Cambridge University Press, 1990.
  26. Van Cauwenberge D, Van Biesen W, Decruyenaere J, et al. Many roads lead to Rome and the artificial intelligence only shows me one road: an interview study on physician attitudes regarding the implementation of computerised clinical decision support systems. BMC Med Ethics. 2022. P. 23.
  27. Waterman A.D., Garbutt J., Hazel E., Dunagan W.C., Levinson W., Fraser V.J., & Gallagher T.H. The emotional impact of medical errors on practicing physicians in the United States and Canada. Joint Commission journal on quality and patient safety. 2007. N 33(8). P. 467–476.
  28. Werner M.H. Verantwortung. In: Grunwald A., Hillerbrand R., eds. Handbuch Technikethik. Stuttgart: J.B. Metzler, 2021. P. 44–48.

© Российская академия наук, 2023

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».