Культура вины и ответственность врача при использовании систем поддержки принятия врачебных решений

 
Код статьиS023620070026423-2-1
DOI10.31857/S023620070026423-2
Тип публикации Статья
Статус публикации Опубликовано
Авторы
Аффилиация: Национальный исследовательский университет «Высшая школа экономики»
Адрес: Российская Федерация, 101000 Москва, ул. Мясницкая, д. 20
Название журналаЧеловек
ВыпускТом 34 Выпуск №3
Страницы9-23
Аннотация

Цель данной статьи заключается в обосновании необходимости пересмотра структуры моральной и уголовной ответственности врача в общественной системе, в которой ему навязывается культура вины, то есть единоличная персональная ответственность за любую медицинскую ошибку, совершенную в том числе с участием системы поддержки принятия врачебных решений. От патерналистской модели взаимоотношений «врач–пациент», начиная с 1970 годов совершен переход к модели совместного ответственного поведения, в которой каждой стороне вменяется в обязанность знание и понимание природы выносимых клинических решений, что должно быть подкреплено в случае включения в процедуры диагностики и лечения технологий искусственного интеллекта особой формой информированного согласия как для пациента, так и для врача. При этом фактически отсутствует четкая регламентация процесса сообщения и работы с информацией, и персональная ответственность высшего менеджмента за формирование системы медицинского обеспечения. В силу принципиальной непрозрачности работы постоянно развивающихся технологий искусственного интеллекта, окончательное решение должно оставаться за врачом. Однако обоснование его ответственности в актуальных технологических условиях требует нового общественного договора внутри профессиональной среды относительно условий внедрения систем поддержки принятия врачебных решений в широкую медицинскую практику.

Ключевые словаискусственный интеллект, доверие, медицинская ошибка, ответственность врача, система поддержки принятия врачебных решений, культура вины, автономия
Получено28.06.2023
Дата публикации28.06.2023
Кол-во символов27663
Цитировать  
100 руб.
При оформлении подписки на статью или выпуск пользователь получает возможность скачать PDF, оценить публикацию и связаться с автором. Для оформления подписки требуется авторизация.

Оператором распространения коммерческих препринтов является ООО «Интеграция: ОН»

Всего подписок: 0, всего просмотров: 136

Оценка читателей: голосов 0

1. American College of Physicians. Ethics manual (4th ed.). Annals of Internal Medicine. 1998. N 128. P. 576–594.

2. Barocas S., Selbst A., and Raghavan M. The hidden assumptions behind counterfactual explanations and principal reasons. Proceedings of the 2020 International Conference on Fairness, Accountability, and Transparency. 2020. P. 80–89.

3. Bleher H., Braun M. Diffused responsibility: attributions of responsibility in the use of AI-driven clinical decision support systems. AI Ethics. 2022. N 2. P. 747–761.

4. Braun M., Hummel P., Beck S., et al. Primer on an ethics of AI-based decision support systems in the clinic. Journal of Medical Ethics. 2021. N 47. P. e3.

5. Chollet F. On the measure of intelligence, 2019, available at: https://arxiv.org/abs/1911.01547

6. Coeckelbergh M. Artificial intelligence, responsibility Attribution, and a relational Justification of explainability. Sci Eng Ethics. 2020. N 26. P. 2051–2068.

7. Dellermann D., Calma A., Lipusch N., Weber T., Weigel S., and Ebel P. The future of human-ai collaboration: a taxonomy of design knowledge for hybrid intelligence systems. Hawaii international Conference on System Sciences (HICSS). Hawaii, USA, 2019.

8. Di Nucci E. Should we be afraid of medical AI? J Med Ethics. 2019. N 45. P. 556–558.

9. Feenberg A. Critical theory of technology: An overview. Information technology in librarianship: New critical approaches. 2005. Vol. 1. Iss. 1. P. 47–64.

10. Feenberg A. Technosystem: the social life of reason. Harvard University Press, 2017.

11. Floridi L., Cowls J. A unified framework of five principles for AI in society. Machine Learning and the City: Applications in Architecture and Urban Design. May 2022. N 2. P. 535–545.

12. Ford E., Edelman N., Somers L., et al. (2021). Barriers and facilitators to the adoption of electronic clinical decision support systems: a qualitative interview study with UK general practitioners. BMC Med Inform Decis Mak. 2021. P. 21.

13. Funer F. The deception of certainty: how non-interpretable machine learning outcomes challenge the epistemic authority of physicians. A deliberative-relational approach. Med Health Care Philos. 2022. N 25.: P. 167–78.

14. Funer F., Liedtke W., Tinnemeyer S., et al. J Med Ethics, 2022.

15. Grote T., Berens P. On the ethics of algorithmic decision-making in healthcare. J Med Ethics. 2020. N 46. P. 205–211.

16. Hu X.-B. A methodological framework of human-machine Co-evolutionary intelligence for decision-making Support of ATM. Integrated Communications Navigation and Surveillance Conference (ICNS). 2020. P. 5C3-1–5C3-8.

17. Jonas H. The Imperative of Responsibility: In Search of an Ethics for the Technological Age. Chicago: University of Chicago Press, 1985.

18. Krijger J. Enter the metrics: critical theory and organizational operationalization of AI ethics. Ai & society. 2021. P. 1–11.

19. Krinkin K., Shichkina Y. and Ignatyev A. Co-evolutionary hybrid intelligence is a key concept for the world intellectualization. Kybernetes.2022. Vol. ahead-of-print. N ahead-of-print.

20. Langanke M., Liedtke W., Buyx A. Patients’ responsibility for their health. In: Schramme T., Edwards S., eds. Handbook of the Philosophy of Medicine. Cham; Heidelberg; New York; Dordrecht; London: Springer, 2016. P. 619–640.

21. Lepri B., Oliver N., and Pentland A. Ethical machines: the human-centric use of artificial intelligence. Science. 2021. Vol. 24, N. 3. P. 102–249.

22. Leslie D. Understanding Artificial Intelligence Ethics and Safety: A Guide for the Responsible Design and Implementation of AI Systems in the Public Sector. The Alan Turing Institute, 2019.

23. Makary M.A., Daniel M. Medical error — the third leading cause of death in the US BMJ. 2016. P. 353.

24. Nebeker C., Torous J., Bartlett E. RJ. Building the case for actionable ethics in digital health research supported by artificial intelligence. BMC Med. 2019. N 17. P. 137.

25. Reason J. T. Human error. Cambridge University Press, 1990.

26. Van Cauwenberge D, Van Biesen W, Decruyenaere J, et al. Many roads lead to Rome and the artificial intelligence only shows me one road: an interview study on physician attitudes regarding the implementation of computerised clinical decision support systems. BMC Med Ethics. 2022. P. 23.

27. Waterman A.D., Garbutt J., Hazel E., Dunagan W.C., Levinson W., Fraser V.J., & Gallagher T.H. The emotional impact of medical errors on practicing physicians in the United States and Canada. Joint Commission journal on quality and patient safety. 2007. N 33(8). P. 467–476.

28. Werner M.H. Verantwortung. In: Grunwald A., Hillerbrand R., eds. Handbuch Technikethik. Stuttgart: J.B. Metzler, 2021. P. 44–48.

Система Orphus

Загрузка...
Вверх