Этическая экспертиза в сфере здравоохранения с применением ии: методология дизайна ценностей

 
Код статьиS023620070026109-6-1
DOI10.31857/S023620070026109-6
Тип публикации Статья
Статус публикации Опубликовано
Авторы
Аффилиация: Национальный исследовательский университет «Высшая школа экономики»
Адрес: Российская Федерация, 105066 Москва, ул. Старая Басманная, д. 21/4
Название журналаЧеловек
ВыпускТом 34 Выпуск №3
Страницы129-145
Аннотация

По мере того, как наш мир становится все более зависим от данных, алгоритмы чаще и чаще используются для принятия обоснованных решений в различных областях, начиная от финансов и заканчивая управлением персоналом. Сфера здравоохранения не является исключением, и искусственные интеллектуальные системы получают все большее распространение в этой области. В то время как ИИ может помочь нам принимать более обоснованные и эффективные решения, он также служит источником множества моральных и этических проблем. Одним из самых глобальных является вопрос доверия. Когда машина заменяет человека в сфере здравоохранения, пациентам и медицинским работникам может стать трудно доверять тому процессу и результатам лечения, которые предлагает ИИ. Кроме того, механизм «черного ящика» в системах искусственного интеллекта ставит вопрос: кто несет ответственность за принятые решения, и кто должен за них отвечать в случае ошибки? К этим вопросам добавляется проблема эмоциональной фрустрации — разрыв контакта «человек–человек» рискует ввести пациентов и медицинских работников в состояние эмоционального разочарования от неспособности вести живую коммуникацию с роботизированным механизмом и, как следствие, привести к падению эффективности лечения и комплаентности. Несмотря на увеличение внимания к этим проблемам в последние годы, технические решения этих сложных моральных и этических вопросов часто разрабатываются без учета социального контекста и мнения агентов, которых затрагивает технология. Кроме того, призывы к более этичному и социально ответственному ИИ часто фокусируются на основных правовых принципах, таких, как «прозрачность» и «ответственность» и не учитывают намного более проблематичную область человеческих ценностей. Для решения этой проблемы в статье предлагается рассмотреть "ценностно-чувствительный" подход к разработке ИИ, который может помочь перевести основные права и ценности человека в контекстно-чувствительные требования к алгоритмам искусственного интеллекта. Этот подход может помочь создать маршрут от человеческих ценностей к ясным и понятным требованиям для дизайна ИИ. Помимо представления ключевых требований к алгоритмам этико-чувствительного ИИ, предлагается посмотреть, какие философские истоки имеют те ценности, о которых мы говорим сегодня в рамках обсуждения этичного искусственного интеллекта: честность, добросовестность, ответственность, эмпатия, долг перед жизнью. Автор предлагает рассмотреть их сквозь призму этики добродетели и деонтологии.

Ключевые словабиоэтика, искусственный интеллект, дизайн ценностей, шесть принципов ИИ, проблема «черного ящика», ценностные сценарии, ценностно-чувствительный подход, совместное проектирование, дорожная карта, этичный ИИ.
Получено28.06.2023
Дата публикации28.06.2023
Кол-во символов30805
Цитировать  
100 руб.
При оформлении подписки на статью или выпуск пользователь получает возможность скачать PDF, оценить публикацию и связаться с автором. Для оформления подписки требуется авторизация.

Оператором распространения коммерческих препринтов является ООО «Интеграция: ОН»

Всего подписок: 0, всего просмотров: 158

Оценка читателей: голосов 0

1. Aizenberg E., Van den Hoven J. Designing for human rights in AI. Big Data & Society. 2020. Vol. 7, Iss. 2. P.1–30. DOI: 10.1177/2053951720949566

2. Azenkot S., Prasain S., Borning A., et al. Enhancing independence and safety for blind and deaf-blind public transit riders. Proceedings of the 2011 annual conference on Human factors in computing systems CHI ’11. New York, NY, 2011. P. 3247–3256.

3. Davis J., Nathan L.P. Value Sensitive Design: Applications, Adaptations, and Critiques. Handbook of Ethics, Values, and Technological Design. Van den Hoven J., Vermaas P.E., Van de Poel I. (eds.). Dordrecht: Springer, 2015. P. 11–40.

4. Friedman B. Human Values and the Design of Computer Technology. Cambridge: Cambridge Univ. Press, 1997.

5. MacIntyre A. After Virtue: A Study in Moral Theory. Notre Dame, IN: Univ. of Notre Dame Press, 1981.

6. Charter of Fundamental Rights of the European Union. Official Journal of the European Union. 2012. Vol. 55. P. 391–407.

7. Santoni de Sio F., Van Wynsberghe A. When Should We Use Care Robots? The Nature- of-Activities Approach. Science and Engineering Ethics. 2016. Vol. 22, N 6. P. 1745–1760. DOI: 10.1007/s11948-015-9715-4

8. Van de Poel I. Translating Values into Design Requirements. Philosophy and Engineering: Reflections on Practice, 28 Principles and Process. Michelfelder D.P., McCarthy N., Goldberg D.E. (eds.). Dordrecht: Springer, 2013. P. 253–266.

9. Van der Velden M., Mörtberg C. Participatory Design and Design for Values. Handbook of Ethics, Values, and Technological Design, Van den Hoven J., Vermaas P.E., Van de Poel I. (eds.). Dordrecht: Springer, 2015. P. 41–66.

Система Orphus

Загрузка...
Вверх