Проявление эффекта кросс-модального соответствия при индуцированных эмоциональных состояниях

 
Код статьиS020595920023642-2-1
DOI10.31857/S020595920023642-2
Тип публикации Статья
Статус публикации Опубликовано
Авторы
Должность: Доцент кафедры общей психологии
Аффилиация: Санкт-Петербургский государственный университет
Адрес: Санкт-Петербург, Санкт-Петербург, Набережная адмирала Макарова, д. 6, Россия
Должность: Инженер-исследователь лаборатории поведенческой нейродинамики
Аффилиация: Санкт-Петербургский государственный университет
Адрес: Российская Федерация, Санкт-Петербург
Должность: магистрант
Аффилиация: Факультет психологии Санкт-Петербургского государственного университета
Адрес: Санкт-Петербург, Набережная адмирала Макарова, д. 6, Россия
Должность: Инженер-исследователь лаборатории поведенческой нейродинамики
Аффилиация: Санкт-Петербургский государственный университет
Адрес: Университетская наб., д. 7–9
Должность: главный научный сотрудник лаборатории поведенческой нейродинамики
Аффилиация:
Санкт-Петербургский государственный университет
Центр функционально-интегративной нейронауки
Адрес: Российская Федерация, Санкт-Петербург
Название журналаПсихологический журнал
ВыпускТом 44 № 1
Страницы30-42
Аннотация

Ранее было показано, что эффект кросс-модального соответствия возникает не только при совместной обработке простых разномодальных сенсорных стимулов, но и при их одновременном предъявлении вместе со словами, обладающими эмоциональной валентностью и пространственными коннотациями (ассоциированными с верхней или нижней частью вертикально ориентированного пространства). Целью настоящего исследования стала проверка гипотезы о возможных изменениях величины эффекта кросс-модального соответствия, возникающего при совместной обработке сенсорных и вербальных стимулов под воздействием индуцированных эмоциональных состояний разной валентности. В исследовании участвовали 36 добровольцев (26 жен., 18–34 г.), которые сперва просматривали видеозаписи, вызывающие положительное, отрицательное или нейтральное эмоциональное состояние, а затем выполняли задание: им предъявлялись звуки разной высоты (1000 и 2000 Гц) и слова, различающиеся по эмоциональной валентности и ассоциированные с различными частями пространственного поля. Необходимо было идентифицировать высоту (низкая/высокая) предъявленного звука. Для анализа использовались двухфакторный смешанный ANOVA с последующими попарными сравнениями (t-критерий Стьюдента для зависимых выборок), которые проводились не только по средним значениям времени реакции, но и по оцененным параметрам экс-Гауссовских распределений. Результаты показали, что эффект аудиовизуального соответствия проявился в ускорении ответов респондентов на предъявление конгруэнтных стимулов по сравнению с неконгруэнтными (t(35) = -3.20, p = .005, dz = -0.53, 95% CI [-0.89, -0.18]), но выраженного влияния валентности индуцированного эмоционального состояния на величину эффекта аудиовизуального соответствия выявлено не было (F(4, 68) = 0.49, p = .744, = .001). Это может объясняться устойчивостью эффекта кросс-модального соответствия к эмоциональным влияниям, спецификой использованных задач и ограничениями дизайна исследования.

Ключевые словаКросс-модальное соответствие, мультисенсорная интеграция, эмоциональные состояния, сенсорные стимулы, вербальные стимулы, эмоциональная семантика, воплощенное познание (embodied cognition)
Источник финансированияИсследование выполнено за счет гранта Российского научного фонда “Роль эмоциональной регуляции в мультисенсорной интеграции вербальной и невербальной информации: психологические и психофизиологические аспекты”, проект № 22-28-01020, https://rscf.ru/project/22-28-01020/. Авторы благодарят В. В. Тимохова за помощь в создании экспериментальной парадигмы исследования.
Дата публикации26.02.2023
Кол-во символов29639
Цитировать  
100 руб.
При оформлении подписки на статью или выпуск пользователь получает возможность скачать PDF, оценить публикацию и связаться с автором. Для оформления подписки требуется авторизация.

Оператором распространения коммерческих препринтов является ООО «Интеграция: ОН»

Всего подписок: 1, всего просмотров: 203

Оценка читателей: голосов 0

1. Ананьев Б.Г. Теория ощущений. Л.: Изд-во Ленингр. ун-та, 1961.

2. Андрющенко Е.А., и др. На повышенных тонах: роль пространственного познания в кросс-модальном взаимодействии эмоциональной семантики и аудиального восприятия // Психология. Журнал Высшей школы экономики, 2022 (в печати).

3. Кравков С.В. Взаимодействие органов чувств. М.: Изд-во Академии наук СССР, 1948.

4. Панкратова А.А., Люсин Д.В. Видеоролики для индукции эмоций в лабораторных условиях: нормативные данные и кросс-культурный анализ // Экспериментальная психология. 2018. Т. 11. № 2. С. 5–15.

5. Armitage J., Eerola T. Cross-modal Transfer of Valence or Arousal from Music to Word Targets in Affective Priming? // Auditory Perception & Cognition. 2022. V. 5. № 3-4. P. 192–210.

6. Berger A., Kiefer M. Comparison of different response time outlier exclusion methods: a simulation study // Frontiers in Psychology. 2021. V. 12. Article 2194.

7. Blanca M. J., et al. Effect of variance ratio on ANOVA robustness: Might 1.5 be the limit? // Behavior Research Methods. 2018. V. 50. № 3. P. 937–962.

8. Brunetti R., et al. Are crossmodal correspondences relative or absolute? Sequential effects on speeded classification // Attention, Perception, & Psychophysics. 2018. V. 80. № 2. P. 527–534.

9. Cohen J. Statistical power analysis for the behavioral sciences (2nd ed.). Erlbaum. 1988.

10. Dolscheid S., et al. Space-pitch associations differ in their susceptibility to language // Cognition. 2020. V. 196. Article 104073.

11. Ernst M.O. Learning to integrate arbitrary signals from vision and touch // Journal of Vision. 2007. V. 7. № 5:7. P. 1–14.

12. Estrada C., Young M., Isen A.M. Positive affect influences creative problem solving and reported source of practice satisfaction in physicians // Motivation and Emotion. 1994. V. 18. P. 285–299.

13. Evans K.K., Treisman A. Natural cross-modal mappings between visual and auditory features // Journal of Vision. 2010. V. 10. № 1: 6. P. 1–12.

14. Fernandez-Prieto I., Spence C., Pons F., Navarra J. Does language influence the vertical representation of auditory pitch and loudness? // i-Perception. 2017. V. 8. № 3. P. 1–11.

15. Fredrickson B.L., Branigan C. Positive emotions broaden the scope of attention and thought‐action repertoires // Cognition & Emotion. 2005. V. 19. № 3. P. 313–332.

16. Gallace A., Spence C. Multisensory synesthetic interactions in the speeded classification of visual size // Perception & Psychophysics. 2006. V. 68. № 7. P. 1191–1203.

17. Gu S.L.H., Gau S.S.F., Tzang S.W., Hsu W.Y. The ex-Gaussian distribution of reaction times in adolescents with attention-deficit/hyperactivity disorder // Research in Developmental Disabilities. 2013. V. 34. № 11. P. 3709–3719.

18. Haverkamp N., Beauducel A. Violation of the sphericity assumption and its effect on type-I error rates in repeated measures ANOVA and multi-level linear models (MLM) // Frontiers in Psychology. 2017. V. 8. Article. 1841.

19. Hein G., et al. Object familiarity and semantic congruency modulate responses in cortical audiovisual integration areas // The Journal of Neuroscience. 2007. V. 27. P. 7881–7887.

20. Isen A.M., Daubman K.A., Nowicki G.P. Positive affect facilitates creative problem solving // Journal of Personality and Social Psychology. 1987. V. 52. № 6. P. 1122–1131.

21. Janyan A., et al. Look and ye shall hear: Selective auditory attention modulates the audiovisual correspondence effect // i-Perception. 2022. V. 13. № 3. P. 1–10.

22. Jonas C., Spiller M. J., Hibbard P. Summation of visual attributes in auditory–visual crossmodal correspondences // Psychonomic Bulletin & Review. 2017. V. 24. № 4. P. 1104–1112.

23. Luce R.D. Response times: Their role in inferring elementary mental organization. New York, NY: Oxford University Press. 1991.

24. Makovac E., Gerbino W. Sound–shape congruency affects the multisensory response enhancement // Visual Cognition. 2010. V. 18. P. 133–137.

25. Molholm S., Ritter W., Javitt D.C., Foxe J.J. Multisensory visual–auditory object recognition in humans: A high-density electrical mapping study // Cerebral Cortex. 2004. V. 14. P. 452–465.

26. Nasby W., Yando R. Selective encoding and retrieval of affectively valent information: Two cognitive consequences of children's mood states // Journal of Personality and Social Psychology. 1982. V. 43. P. 1244–1253.

27. Olejnik S., Algina J. Generalized eta and omega squared statistics: measures of effect size for some common research designs // Psychological Methods. 2003. V. 8. № 4. P. 434–447.

28. Parise C., Spence C. Synesthetic congruency modulates the temporal ventriloquism effect // Neuroscience Letters. 2008. V. 442. P. 257–261.

29. Parise C.V., Spence C. ‘When birds of a feather flock together’: synesthetic correspondences modulate audiovisual integration in non-synesthetes // PloS One. 2009. V. 4. № 5. Article e5664.

30. Patching G.R., Quinlan P.T. Garner and congruence effects in the speeded classification of bimodal signals // Journal of Experimental Psychology: Human Perception and Performance. 2002. V. 28. P. 755–775.

31. Puigcerver L., Rodríguez-Cuadrado S., Gómez-Tapia V., Navarra J. Vertical mapping of auditory loudness: loud is high, but quiet is not always low // Psicológica Journal. 2019. V. 40. № 2. P. 85–104.

32. Scherer L.D., Larsen R.J. Cross-modal evaluative priming: Emotional sounds influence the processing of emotion words // Emotion. 2011. V. 11. № 1. P. 203–208.

33. Spence C. Crossmodal correspondences: A tutorial review // Attention, Perception, & Psychophysics. 2011. V. 73. № 4. P. 971–995.

34. Steinhauser M., Hübner R. Distinguishing response conflict and task conflict in the Stroop task: evidence from ex-Gaussian distribution analysis // Journal of Experimental Psychology: Human Perception and Performance. 2009. V. 35. № 5. P. 1398–1412.

35. Suchkova E., Lyusin D. The Influence of Natural and Induced Emotional States on the Recognition of Emotional Facial Expressions (November 6, 2020). Higher School of Economics Research Paper No. WP BRP 121/PSY/2020. SSRN: https://ssrn.com/abstract=3732065 (дата обращения: 03.07.2022).

36. van Atteveldt N., Formisano E., Goebel R., Blomert L. Integration of letters and speech sounds in the human brain // Neuron. 2004. V. 43. P. 271–282.

37. Vatakis A., Spence C. Crossmodal binding: Evaluating the “unity assumption” using audiovisual speech stimuli // Perception & Psychophysics. 2007. V. 69. P. 744–756.

Система Orphus

Загрузка...
Вверх