Problematic aspects of medical artificial intelligence. Part 2

Cover Page

Cite item

Full Text

Open Access Open Access
Restricted Access Access granted
Restricted Access Subscription Access

Abstract

The capabilities of artificial intelligence (AI) and machine learning are growing at an unprecedented pace. These technologies have many useful applications, from machine translation to medical image analysis.

A large number of such applications are currently being developed, and an increasing number of such applications is expected in the long term. Unfortunately, weaknesses and other unpleasant aspects of AI have received insufficient attention. In this review, we consider a whole range of already known problems and possible risks associated with the use of innovative neural network technologies, paying special attention to the ways of preventing real dangers and potential threats in order to expand the range of stakeholders and profile experts involved in the discussion of current issues of medical AI cybersecurity, formation of responsible approach to the vulnerabilities of neural network platforms, increasing the reliability of equipment protection for its safe use, as well as the importance of legal and ethical aspects of regulating the use of AI.

Despite certain challenges described in our review, it is clear that AI will be an important element of the healthcare future. As the population continues to age and the demand for healthcare services grows, neural networks are expected to drive healthcare very soon, especially in the areas of medical image analysis, virtual assistants, drug development, treatment recommendations and patients' data processing. We would like to emphasize that while we recognize the innovative role that digital technologies and AI can and should play in strengthening the domestic healthcare system, we should not overlook the importance of timely and accurate assessment of their beneficial or negative impact on the industry to ensure such management decisions do not unnecessarily divert our attention and resources from non-digital approaches and research.

This article is a continuation of the article by Berdutin VA, Romanova TE, Romanov SV, Abaeva OP. Problematic aspects of medical artificial intelligence. Part 1. Sociology of Medicine. 2023;22(2):202–211. DOI: https://doi.org/10.17816/socm619132

About the authors

Vitalii A. Berdutin

State Research Center — Burnasyan Federal Medical Biophysical Center

Author for correspondence.
Email: vberdt@gmail.com
ORCID iD: 0000-0003-3211-0899
SPIN-code: 8316-7111

MD, Cand. Sci. (Medicine)

Russian Federation, Moscow

Tatyana E. Romanova

Privolzhsky Research Medical University

Email: drmedromanova@gmail.com
ORCID iD: 0000-0001-6328-079X
SPIN-code: 4943-6121

MD, Cand. Sci. (Medicine)

Russian Federation, Nizhny Novgorod

Sergey V. Romanov

Privolzhsky District Medical Center

Email: director@pomc.ru
ORCID iD: 0000-0002-1815-5436
SPIN-code: 9014-6344

MD, Dr. Sci. (Medicine)

Russian Federation, Nizhny Novgorod

Olga P. Abaeva

State Research Center — Burnasyan Federal Medical Biophysical Center

Email: abaevaop@inbox.ru
ORCID iD: 0000-0001-7403-7744
SPIN-code: 5602-2435

MD, Dr. Sci. (Medicine), Professor

Russian Federation, Moscow

References

  1. Reshetnikov AV, Shamshurina NG, Shamshurin VI. Economics and management in healthcare: Textbook and workshop. 2nd ed. Moscow: Yurayt Publishing House; 2020 (In Russ.) EDN: KSZBPT
  2. Reshetnikov A, Fedorova J, Prisyazhnaya N, et al. Health management for sustainable development. In: 2018 Second World Conference on Smart Trends in Systems, Security and Sustainability (WorldS4). IEEE, 2018.
  3. Berdutin V. Socionic vision on Bioethics and Deontology. LAP LAMBERT Academic Publishing; 2018.
  4. Liu J. Artificial Intelligence and Data Analytics Applications in Healthcare General. Review and Case Studies. In: CAIH2020: Proceedings of the 2020 Conference on Artificial Intelligence and Healthcare, October 2020, P. 49–53. doi: 10.1145/3433996.3434006
  5. Daley K. Two arguments against human-friendly AI. AI and Ethics. 2021;1(4):435–444. doi: 10.1007/s43681-021-00051-6
  6. Vellido A. Societal Issues Concerning the Application of Artificial Intelligence in Medicine. Kidney Dis. 2019;5(1):11–17. doi: 10.1159/000492428
  7. Breede E, Bayor E, Hersh F, et al. A Human-Centered Evaluation of a Deep Learning System Deployed in Clinics for the Detection of Diabetic Retinopathy. In: CHI 2020; 2020 Apr 25–30; Honolulu. P. 1–12. doi: 10.1145/3313831.3376718
  8. Daneshjou R, Vodrahalli K, Novoa RA, et al. Disparities in Dermatology AI Performance on a Diverse, Curated Clinical Image Set [Internet]. Cornell University; 2022. [cited 2023 Sep 05]. Available from: https://arxiv.org/ftp/arxiv/papers/2203/2203.08807.pdf
  9. Freeman K, Geppert J, Stinton Ch, et al. Use of artificial intelligence for image analysis in breast cancer screening programs: systematic review of test accuracy. BMJ. 2021;374:n1872. doi: 10.1136/bmj.n1872
  10. Wong A, Otles E, Donnelly JP, et al. External Validation of a Widely Implemented Sepsis Prediction Model in Hospitalized Patients. JAMA Intern Med. 2021;181(8):1065–1070. doi: 10.1001/jamainternmed.2021.2626
  11. O’Leary L. How IBM’s Watson Went from the Future of Health Care to Sold Off for Parts. In: Slate [Internet]. 2022. [cited 2023 Sep 23]. Available from: https://slate.com/technology/2022/01/ibm-watson-health-failure-artificial-intelligence.html
  12. Khan B, Hajira F, Qureshi A, et al. Drawbacks of Artificial Intelligence and Their Potential Solutions in the Healthcare Sector. In: Biomedical Materials & Devices; 2023. Feb 8. P. 1–8. doi: 10.1007/s44174-023-00063-2
  13. Lee TT, Kesselheim AS. U.S. Food and Drug Administration Precertification Pilot Program for Digital Health Software: Weighing the Benefits and Risks. Ann Intern Med. 2018;168(10):730–732. doi: 10.7326/M17-2715
  14. Parikh RB, Teeple S, Navathe AS. Addressing Bias in Artificial Intelligence in Health Care. JAMA. 2019;322(24):2377–2378. doi: 10.1001/jama.2019.18058
  15. Challen R, Denny J, Pitt M, et al. Artificial intelligence, bias and clinical safety. BMJ Qual Saf. 2019;28(3):231–237. doi: 10.1136/bmjqs-2018-008370
  16. He J, Baxter SL, Xu J, et al. The practical implementation of artificial intelligence technologies in medicine. Nat Med. 2019;25(1):30–36. doi: 10.1038/s41591-018-0307-0
  17. Monitoring the implementation of digital health:an overview of selected national and international methodologies [Internet]. Copenhagen: WHO Regional Office for Europe; 2022. [cited 2023 Sep 20]. Available from: https://www.who.int/europe/publications/i/item/WHO-EURO-2022-5985-45750-65816
  18. Gale A. Reimagined Hospitals. How Far Is the Future? HealthManagement.org The Journal. 2020;20(1):36–38.
  19. Christensen J. A Snapshot of Imaging Technology: Exciting Developments and When to Expect Them. HealthManagement.org The Journal. 2020;20(6):476–479.
  20. Landi H. Investors poured $4B into healthcare AI startups in 2019. In: Fierce Healthcare [Internet]. Questex; 2020 [cited 2023 Sep 23]. Available from: https://www.fiercehealthcare.com/tech/investors-poured-4b-into-healthcare-ai-startups-2019
  21. Memora Health raises $40M for its virtual care delivery platform. Memora Health competitors include Wheel, Welby Health, and Twistle. ResearchBriefs. In: CBinsights [Internet]; 2022. [cited 2023 Sep 24] Available from: https://www.cbinsights.com/research/memora-health-competitors-wheel-welby-health-twistle/
  22. The AI effect: How artificial intelligence is making health care more human. In: Technology review [Internet]. GE Healthcare. [cited 2023 Sep 13]. Available from: https://www.technologyreview.com/hub/ai-effect/
  23. Avuçlu E. Determining the most accurate machine learning algorithms for medical diagnosis using the monk’ problems database and statistical measurements. Journal of Experimental & Theoretical Artificial Intelligence. Forthcoming. 2023. doi: 10.1080/0952813X.2023.2196984
  24. Shukla S. Enhancing Healthcare Insights, Exploring Diverse Use-Cases with K-means Clustering. International Journal of Management, IT & Engineering. 2023;13(8):60–68.

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2024 Eco-Vector

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
 


Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».