«Mашина бога» Дж.Cавулеску как моральный агент и проблема ответственности

 
Код статьиS023620070026101-8-1
DOI10.31857/S023620070026101-8
Тип публикации Статья
Статус публикации Опубликовано
Авторы
Аффилиация: Санкт-Петербургский государственный университет
Адрес: Российская Федерация, 199034 Санкт-Петербург, Менделеевская линия, д. 5
Аффилиация: Санкт-Петербургский государственный университет
Адрес: Российская Федерация, 199034 Санкт-Петербург, Менделеевская линия, д. 5
Название журналаЧеловек
ВыпускТом 34 Выпуск №3
Страницы24-40
Аннотация

Данная статья посвящена проблематике моральной ответственности в связи с технологиями искусственного интеллекта. В последние годы искусственный интеллект активно развивается в сторону все большей автономности, что делает крайне актуальной философскую аналитику искусственной моральной агентности (moral agency). Актуальность работы также определяется все большим распространением искусственного интеллекта в профессиональных сферах, в том числе связанных с принятием ответственных управленческих, финансовых и т.п. решений. Основным объектом исследования в статье выступает умозрительный эксперимент — проект так называемой «Машины Бога» западного философа Дж. савулеску, который позволяет обратиться к такому важному аспекту, как возможность влияния искусственного интеллекта на развитие нравственного сознания человека, поскольку современные технологии, наряду с проектами биологического нравственного улучшения человека претендуют на способность создания искусственных моральных агентов. Авторы дают всесторонний анализ этого проекта, соотнося его с другими концепциями современной аналитической философии сознания, в том числе Г. Франкфурта. Теоретический фокус исследования направлен на концепты ответственности и свободы как ключевые в формулировке критериев морального агентства. При этом в статье рассмотрены особенности реализации критериев моральной агентности в отношении искусственного интеллекта. В статье оценивается состоятельность проекта Дж. Савулеску, в частности: насколько искусственный интеллект наподобие Машины Бога может рассматриваться как моральный агент, сможет ли человек при помощи такого искусственного посредника обрести характеристики нравственной, ответственной и свободной личности, и насколько такие проекты способствуют нравственному совершенствованию человечества. Указываются риски патерналистского вмешательства в развитие морали. Отдельно рассматривается феномен моральных дилемм в связи с проблематикой встраивания искусственного интеллекта в жизнь современного общества, а также логические аспекты принятия решения в условии моральных конфликтов. Формулируется вывод о ключевом значении категории ответственности для моделирования взаимоотношений человека и искусственного интеллекта в машинной этике.

Ключевые словаморальная ответственность, моральное агентство, искусственный интеллект, биологическое нравственное улучшение, свобода, моральные дилеммы, Дж. Савулеску, Г. Франкфурт
Источник финансированияПри поддержке гранта РНФ «Трансформации морального агентства: этико-философский анализ», № 22-28-00379.
Получено28.06.2023
Дата публикации28.06.2023
Кол-во символов30301
Цитировать  
100 руб.
При оформлении подписки на статью или выпуск пользователь получает возможность скачать PDF, оценить публикацию и связаться с автором. Для оформления подписки требуется авторизация.

Оператором распространения коммерческих препринтов является ООО «Интеграция: ОН»

Всего подписок: 0, всего просмотров: 176

Оценка читателей: голосов 0

1. Альчуррон К.Э., Герденфорс П., Макинсон Д. Логика теории изменения: функции ревизии и сокращения через частичное пересечение // «Нормативные системы» и другие работы по философии права и логике норм. СПб.: Издательский Дом СПбГУ, 2013. С. 318–343.

2. Гарвардт М.А., Перова Н.В. Универсализм и релятивизм морального агента биологического нравственного улучшения (на примере политической деятельности) // Дискурсы этики. 2022, № 1(13). С.69–84.

3. Ларионов И.Ю. Кто несет ответственность за применение оружия с искусственным интеллектом? // Интернет и современное общество: сборник тезисов докладов [Электронный ресурс]. Труды XXV Международной объединенной научной конференции «Интернет и современное общество» (IMS-2022), Санкт-Петербург, 23–24 июня 2022 г. СПб: Университет ИТМО, 2022. http://ojs.itmo.ru/index.php/IMS/issue/view/78,свободный.

4. Ларионов И.Ю., Марков Б.В. Морально-антропологические риски технологий биологического совершенствования человека // Дискурсы этики. 2022. № 4(16). C. 25–46.

5. Милль Дж. О свободе // Наука и жизнь. 1993. № 11. С.10–11.

6. Разин А.В. Этика искусственного интеллекта // Философия и общество. 2019. № 1. С. 57–73.

7. Сёрл Дж. Сознание, мозг и программы // Аналитическая философия: становление и развитие. М.: Дом интеллектуальной книги, Прогресс-Традиция, 1998.

8. Философия ответственности / под ред. Е.Н. Лисанюк, В.Ю. Перова. СПб.: Наука, 2014.

9. Франкфурт Г. Альтернативные возможности и моральная ответственность // Философия. Журнал Высшей школы экономики. 2017. Т. I, № 4. С.129–140.

10. Allen C., Varner G., Zinser J. Prolegomena to any future artificial moral agent. Journal of Experimental & Theoretical Artificial Intelligence. 2000. Vol.12, N 3. P. 251–261.

11. Anderson M., Anderson S.L. Machine Ethics: Creating an Ethical Intelligent Agent. AI Magazine. 2007. N 4(28). P.15–26.

12. Awad E., Dsouza S., Kim R. et al. The Moral Machine Experiment. 2018. Nature. Vol. 563. P. 59–64.

13. Dennett D. When HAL Kills, Who’s to Blame? Computer Ethics // Stork, David, HAL’s Legacy: 2001's Computer as Dream and Reality. MIT Press, 1998.

14. Floridi L., Sanders J. Artificial Evil and the Foundation of Computer Ethics. Ethics and Information Technology. 2001. N 3(1). P. 56–66.

15. Frankfurt H. Freedom of the Will and the Concept of a Person. The Journal of Philosophy. 1971. Vol. 68, N 1. P. 5–20.

16. Harris J. Moral Enhancement and Freedom. Bioethics. 2011. Vol. 25. P.102–111.

17. Himma K.E. Artificial Agency, Consciousness, and the Criteria for Moral Agency: What Properties must an Artificial Agent have to be a Moral Agent? Ethics and Information Technology. 2009. N. 11. P. 19–29.

18. Lara F. Why a Virtual Assistant for Moral Enhancement When We Could have a Socrates? Science and Engineering Ethics. 2021, N 42. P. 27.

19. Moral Dilemmas and Moral Theory / ed. Mason H.E. N.Y.: Oxford University Press, 1996.

20. Nadeau J.E. Only Androids Can Be Ethical // Thinking about Android Epistemology / eds. Ford K. and Glymour C. MIT Press, 2006. P. 241–248.

21. Savulescu J., Persson I. Moral Enhancement, Freedom and the God Machine. The Monist. 2012. N 95(3). P. 399–421.

22. Sullins J.P. When Is a Robot a Moral Agent. International Review of Information Ethics. 2006. Vol.6 (12). P. 23–30.

23. Thomson J.J. The Trolley Problem. The Yale Law Journal. 1985. Vol. 94, N 6. P.1395–1415.

24. Turing A. Computing Machinery and Intelligence // Mind. 1950, LIX (236). P. 433–460.

Система Orphus

Загрузка...
Вверх