Виктимность пациентов и риски применения технологии искусственного интеллекта в здравоохранении

  • А.А. Шутова Казанский инновационный университет имени В.Г. Тимирясова (ИЭУП), г. Казань, Россия https://orcid.org/0000-0003-3015-3684
Ключевые слова: искусственный интеллект в здравоохранении, цифровая медицина, цифровая преступность, машинное обучение, современные вызовы, этика

Аннотация

Технологии искусственного интеллекта вызывают все больший интерес в области медициныи являются одним из ключевых направлений цифровой трансформации здравоохранения. По мнению ряда экспертов, медицинских работников и разработчиков цифровых технологий, применение медицинских изделий, оснащенными технологиями искусственного интеллекта, поднимет здравоохранение на высокий уровень, что приведет к улучшению принятия клинических решений, качественному анализу цифровых изображений, прогнозированию и контролю правильности назначаемого лечения.
Однако неудачи, причиненные в результате применения медицинских изделий, оснащенных системами искусственного интеллекта, могут иметь серьезные последствия как для клинических результатов, так и для пациентов. Эти последствия могут подорвать доверие общества к технологиям искусственного интеллекта и в целом к учреждениям системы здравоохранения. С учетом определенной новизны технологических решений, данные о клинической эффективности и безопасности продуктов, оснащенных искусственным интеллектом, считаются на данный момент недостаточными.
В представленной публикации поднимается два важных вопроса. В первой части в нем описываются основные физические, социальные и психические характеристики (свойства) пациентов, которые повышают вероятность того, что они окажется в роли жертвы при возникновении криминогенной ситуации в сфере оказания инновационных медицинских услуг. Во второй части исследования определяются риски применения технологий искусственного интеллекта в здравоохранении, вызывающие наибольшие беспокойства как у пациентов, так и у лиц, эксплуатирующих инновационные технологии.

Скачивания

Данные скачивания пока не доступны.

Биография автора

А.А. Шутова, Казанский инновационный университет имени В.Г. Тимирясова (ИЭУП), г. Казань, Россия

A.A. Shutova, Candidate of Legal Sciences, Senior Researcher, Research Institute of Digital Technologies and Law, Associate Professor, Department of Criminal Law and Process

Литература

khan B., Fatima H., Qureshi A., Kumar S., Hanan A., Hussain J. & Abdullah S. Drawbacks of Artificial Intelligence and Their Potential Solutions in the Healthcare Sector. Biomedical Materials & Devices. 2023;1:731–738. DOI: https://doi.org/10.1007/s44174-023-00063-2

Rajpurkar, P., Chen, E., Banerjee, O. &Topol, E. J. AI in health and medicine. Nat. Med. 2022. 28(1):31-38. DOI: https://doi.org/10.1038/s41591-021-01614-0

Singh RP, Hom GL, Abramoff MD, Campbell JP & Chiang MF. Current challenges and barriers to real-world artificial intelligence adoption for the healthcare system, provider, and the patient. Transl. Vis. Sci. Technol. 2020;9(2):45. DOI: https://doi.org/10.1167/tvst.9.2.45.

Kaplan A, Haenlein M. Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. Bus Horiz. 2019;62(1):15–25. DOI: https://doi.org/10.1016/j.bushor.2018.08.004.

Dreyer K, Allen B. Artificial intelligence in health care: brave new world or golden opportunity? J Am CollRadiol. 2018;15(4):655–657. DOI: https://doi.org/10.1016/j.jacr.2018.01.010.S1546-1440(18)30032-2.

Asan O, Bayrak AE, Choudhury A. Artificial Intelligence and Human Trust in Healthcare: Focus on Clinicians. J Med Internet Res. 2020;22(6):e15154. DOI: https://doi.org/10.2196/15154.

Esmaeilzadeh P, Mirzaei T, Dharanikota S. Patients' Perceptions Toward Human-Artificial Intelligence Interaction in Health Care: Experimental Study. J Med Internet Res. 2021;23(11):e25856. DOI: https://doi.org/10.2196/25856.

Khazizulin VB. Patient as an element of the mechanism for providing medical care. Viktimologiya [Victimology]. 2023;10(1):107–114. (In Russ.). DOI: https://doi.org/10.47475/2411-0590-2023-10111.

Vlasenkova AO, Guznova AD, Prokin AA. Trends in the development of mobile applications. E-Scio. 2023;(5):388-396. (In Russ.).

Hatherley JJ. Limits of trust in medical AI. J Med Ethics. 2020;46(7):478-481. DOI: https://doi.org/10.1136/medethics-2019-105935..

Mullakhmetova NE. Victimological aspects of iatrogenic crimes. Viktimologiya [Victimology]. 2022;9(2):157-165. (In Russ.). DOI: https://doi.org/10.47475/2411-0590-2022-19203.

Quinn TP, Senadeera M, Jacobs S, Coghlan S, Le V. Trust and medical AI: the challenges we face and the expertise needed to overcome them. J Am Med Inform Assoc. 2021;28(4):890-894. DOI: https://doi.org/10.1093/jamia/ocaa268.

Lemogne C. L'empathieenmédecine, nécessairemais non dénuée de risques [EMPATHY IN MEDICINE, NECESSARY BUT NOT FREE FROM RISKS]. Rev Prat. 2015;65(8):1027-1030. (In French.). PMID: 26749697.

Calnan M, Rowe R. Researching trust relations in health care: conceptual and methodological challenges–introduction. J Health Organ Manag. 2006;20:349–358. DOI: https://doi.org/10.1108/14777260610701759.

Dmitrieva EV. Patient - Health Care Provider Communication in the Digital Era. Communicology. 2020;8(3):150-162. (In Russ.). DOI: https://doi.org/10.21453/2311-3065-2020-8-3-150-162.

Parry MW, Markowitz JS, Nordberg CM. et al. Patient Perspectives on Artificial Intelligence in Healthcare Decision Making: A Multi-Center Comparative Study. JOIO. 2023;57:653–665. DOI: https://doi.org/10.1007/s43465-023-00845-2.

Gusev AV, Astapenko EM, Ivanov IV, Zarubina TV, Kobrinsky BA. Principles of building trust in artificial intelligence systems for healthcare. Vestnik Roszdravnadzora [Bulletin of Roszdravnadzor]. 2022;(2):25-33. (In Russ.).

Kharitonova YuS. Legal means of ensuring the transparency principle of artificial intelligence. Journal of Digital Technologies and Law. 2023;1(2):337–358. (In Russ.). DOI: https://doi.org/10.21202/jdtl.2023.14.

Kleinberg G, Diaz MJ, Batchu S, Lucke-Wold B. Racial underrepresentation in dermatological datasets leads to biased machine learning models and inequitable healthcare. J Biomed Res (Middlet). 2022;3(1):42-47. PMID: 36619609; PMCID: PMC9815490.

Basu K, Sinha R, Ong A, Basu T. Artificial Intelligence: How is It Changing Medical Sciences and Its Future? Indian J Dermatol. 2020;65(5):365-370. DOI: https://doi.org/10.4103/ijd.IJD_421_20.

Gallese-Nobile K. Legal aspects of the use of artificial intelligence in telemedicine. Journal of Digital Technologies and Law. 2023;1(2):314–336. (In Russ.). DOI: https://doi.org/10.21202/jdtl.2023.13.

Hallowell, N., Badger, S., Sauerbrei, A. et al. “I don’t think people are ready to trust these algorithms at face value”: trust and the use of machine learning algorithms in the diagnosis of rare disease. BMC MedEthics. 2022;23:Art.112. DOI: https://doi.org/10.1186/s12910-022-00842-4.

Опубликован
2023-11-24
Как цитировать
Шутова, А. (2023). Виктимность пациентов и риски применения технологии искусственного интеллекта в здравоохранении. ВИКТИМОЛОГИЯ [VICTIMOLOGY], 10(4). извлечено от https://victimolog.ru/index.php/victimo/article/view/595
Раздел
Оригинальные статьи