ebook img

Improving the measurement of emotion recognition ability PDF

268 Pages·2017·10.46 MB·English
by  
Save to my drive
Quick download
Download
Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.

Preview Improving the measurement of emotion recognition ability

(cid:84)(cid:104)(cid:101)(cid:115)(cid:105)(cid:115) (cid:73)(cid:109)(cid:112)(cid:114)(cid:111)(cid:118)(cid:105)(cid:110)(cid:103)(cid:32)(cid:116)(cid:104)(cid:101)(cid:32)(cid:109)(cid:101)(cid:97)(cid:115)(cid:117)(cid:114)(cid:101)(cid:109)(cid:101)(cid:110)(cid:116)(cid:32)(cid:111)(cid:102)(cid:32)(cid:101)(cid:109)(cid:111)(cid:116)(cid:105)(cid:111)(cid:110)(cid:32)(cid:114)(cid:101)(cid:99)(cid:111)(cid:103)(cid:110)(cid:105)(cid:116)(cid:105)(cid:111)(cid:110)(cid:32)(cid:97)(cid:98)(cid:105)(cid:108)(cid:105)(cid:116)(cid:121) (cid:83)(cid:67)(cid:72)(cid:76)(cid:69)(cid:71)(cid:69)(cid:76)(cid:44)(cid:32)(cid:75)(cid:97)(cid:116)(cid:106)(cid:97) Abstract (cid:84)(cid:104)(cid:101) (cid:97)(cid:98)(cid:105)(cid:108)(cid:105)(cid:116)(cid:121) (cid:116)(cid:111) (cid:114)(cid:101)(cid:99)(cid:111)(cid:103)(cid:110)(cid:105)(cid:122)(cid:101) (cid:111)(cid:116)(cid:104)(cid:101)(cid:114) (cid:112)(cid:101)(cid:111)(cid:112)(cid:108)(cid:101)(cid:39)(cid:115) (cid:101)(cid:109)(cid:111)(cid:116)(cid:105)(cid:111)(cid:110)(cid:115) (cid:102)(cid:114)(cid:111)(cid:109) (cid:116)(cid:104)(cid:101)(cid:105)(cid:114) (cid:102)(cid:97)(cid:99)(cid:101)(cid:44) (cid:118)(cid:111)(cid:105)(cid:99)(cid:101)(cid:44) (cid:97)(cid:110)(cid:100) (cid:98)(cid:111)(cid:100)(cid:121) (cid:40)(cid:101)(cid:109)(cid:111)(cid:116)(cid:105)(cid:111)(cid:110) (cid:114)(cid:101)(cid:99)(cid:111)(cid:103)(cid:110)(cid:105)(cid:116)(cid:105)(cid:111)(cid:110) (cid:97)(cid:98)(cid:105)(cid:108)(cid:105)(cid:116)(cid:121)(cid:44) (cid:69)(cid:82)(cid:65)(cid:41) (cid:105)(cid:115) (cid:99)(cid:114)(cid:117)(cid:99)(cid:105)(cid:97)(cid:108) (cid:116)(cid:111) (cid:115)(cid:117)(cid:99)(cid:99)(cid:101)(cid:115)(cid:115)(cid:102)(cid:117)(cid:108) (cid:102)(cid:117)(cid:110)(cid:99)(cid:116)(cid:105)(cid:111)(cid:110)(cid:105)(cid:110)(cid:103) (cid:105)(cid:110) (cid:112)(cid:114)(cid:105)(cid:118)(cid:97)(cid:116)(cid:101) (cid:97)(cid:110)(cid:100) (cid:112)(cid:114)(cid:111)(cid:102)(cid:101)(cid:115)(cid:115)(cid:105)(cid:111)(cid:110)(cid:97)(cid:108) (cid:108)(cid:105)(cid:102)(cid:101)(cid:46) (cid:72)(cid:111)(cid:119)(cid:101)(cid:118)(cid:101)(cid:114)(cid:44) (cid:99)(cid:117)(cid:114)(cid:114)(cid:101)(cid:110)(cid:116)(cid:108)(cid:121) (cid:97)(cid:118)(cid:97)(cid:105)(cid:108)(cid:97)(cid:98)(cid:108)(cid:101) (cid:116)(cid:101)(cid:115)(cid:116)(cid:115) (cid:116)(cid:111) (cid:109)(cid:101)(cid:97)(cid:115)(cid:117)(cid:114)(cid:101) (cid:116)(cid:104)(cid:105)(cid:115) (cid:97)(cid:98)(cid:105)(cid:108)(cid:105)(cid:116)(cid:121) (cid:97)(cid:114)(cid:101) (cid:111)(cid:102) (cid:108)(cid:105)(cid:109)(cid:105)(cid:116)(cid:101)(cid:100) (cid:101)(cid:99)(cid:111)(cid:108)(cid:111)(cid:103)(cid:105)(cid:99)(cid:97)(cid:108) (cid:118)(cid:97)(cid:108)(cid:105)(cid:100)(cid:105)(cid:116)(cid:121) (cid:97)(cid:110)(cid:100) (cid:116)(cid:104)(cid:101)(cid:105)(cid:114) (cid:112)(cid:115)(cid:121)(cid:99)(cid:104)(cid:111)(cid:109)(cid:101)(cid:116)(cid:114)(cid:105)(cid:99) (cid:113)(cid:117)(cid:97)(cid:108)(cid:105)(cid:116)(cid:121) (cid:105)(cid:115) (cid:117)(cid:110)(cid:99)(cid:108)(cid:101)(cid:97)(cid:114)(cid:46) (cid:73)(cid:110) (cid:116)(cid:104)(cid:105)(cid:115) (cid:116)(cid:104)(cid:101)(cid:115)(cid:105)(cid:115)(cid:44) (cid:73) (cid:99)(cid:111)(cid:110)(cid:116)(cid:114)(cid:105)(cid:98)(cid:117)(cid:116)(cid:101)(cid:100) (cid:116)(cid:111) (cid:116)(cid:104)(cid:101) (cid:102)(cid:105)(cid:101)(cid:108)(cid:100) (cid:111)(cid:102) (cid:69)(cid:82)(cid:65) (cid:98)(cid:121) (cid:100)(cid:101)(cid:118)(cid:101)(cid:108)(cid:111)(cid:112)(cid:105)(cid:110)(cid:103) (cid:97)(cid:110)(cid:100) (cid:118)(cid:97)(cid:108)(cid:105)(cid:100)(cid:97)(cid:116)(cid:105)(cid:110)(cid:103) (cid:97) (cid:110)(cid:101)(cid:119) (cid:116)(cid:101)(cid:115)(cid:116) (cid:98)(cid:97)(cid:115)(cid:101)(cid:100) (cid:111)(cid:110) (cid:115)(cid:104)(cid:111)(cid:114)(cid:116) (cid:118)(cid:105)(cid:100)(cid:101)(cid:111)(cid:115) (cid:119)(cid:105)(cid:116)(cid:104) (cid:115)(cid:111)(cid:117)(cid:110)(cid:100) (cid:114)(cid:101)(cid:112)(cid:114)(cid:101)(cid:115)(cid:101)(cid:110)(cid:116)(cid:105)(cid:110)(cid:103) (cid:97) (cid:108)(cid:97)(cid:114)(cid:103)(cid:101) (cid:110)(cid:117)(cid:109)(cid:98)(cid:101)(cid:114) (cid:111)(cid:102) (cid:101)(cid:109)(cid:111)(cid:116)(cid:105)(cid:111)(cid:110)(cid:115) (cid:40)(cid:71)(cid:101)(cid:110)(cid:101)(cid:118)(cid:97) (cid:69)(cid:109)(cid:111)(cid:116)(cid:105)(cid:111)(cid:110) (cid:82)(cid:101)(cid:99)(cid:111)(cid:103)(cid:110)(cid:105)(cid:116)(cid:105)(cid:111)(cid:110) (cid:84)(cid:101)(cid:115)(cid:116)(cid:44) (cid:71)(cid:69)(cid:82)(cid:84)(cid:41)(cid:46) (cid:82)(cid:101)(cid:115)(cid:117)(cid:108)(cid:116)(cid:115) (cid:115)(cid:117)(cid:112)(cid:112)(cid:111)(cid:114)(cid:116)(cid:101)(cid:100) (cid:116)(cid:104)(cid:101) (cid:115)(cid:97)(cid:116)(cid:105)(cid:115)(cid:102)(cid:97)(cid:99)(cid:116)(cid:111)(cid:114)(cid:121) (cid:112)(cid:115)(cid:121)(cid:99)(cid:104)(cid:111)(cid:109)(cid:101)(cid:116)(cid:114)(cid:105)(cid:99) (cid:113)(cid:117)(cid:97)(cid:108)(cid:105)(cid:116)(cid:121)(cid:44) (cid:99)(cid:111)(cid:110)(cid:115)(cid:116)(cid:114)(cid:117)(cid:99)(cid:116) (cid:97)(cid:110)(cid:100) (cid:112)(cid:114)(cid:101)(cid:100)(cid:105)(cid:99)(cid:116)(cid:105)(cid:118)(cid:101) (cid:118)(cid:97)(cid:108)(cid:105)(cid:100)(cid:105)(cid:116)(cid:121) (cid:111)(cid:102) (cid:116)(cid:104)(cid:101) (cid:71)(cid:69)(cid:82)(cid:84)(cid:46) (cid:83)(cid:112)(cid:101)(cid:99)(cid:105)(cid:102)(cid:105)(cid:99)(cid:97)(cid:108)(cid:108)(cid:121)(cid:44) (cid:116)(cid:104)(cid:101) (cid:71)(cid:69)(cid:82)(cid:84) (cid:119)(cid:97)(cid:115) (cid:97) (cid:109)(cid:111)(cid:114)(cid:101) (cid:99)(cid:111)(cid:110)(cid:115)(cid:105)(cid:115)(cid:116)(cid:101)(cid:110)(cid:116) (cid:112)(cid:114)(cid:101)(cid:100)(cid:105)(cid:99)(cid:116)(cid:111)(cid:114) (cid:111)(cid:102) (cid:112)(cid:97)(cid:114)(cid:116)(cid:105)(cid:99)(cid:105)(cid:112)(cid:97)(cid:110)(cid:116)(cid:115)(cid:39) (cid:112)(cid:101)(cid:114)(cid:102)(cid:111)(cid:114)(cid:109)(cid:97)(cid:110)(cid:99)(cid:101) (cid:105)(cid:110) (cid:100)(cid:121)(cid:97)(cid:100)(cid:105)(cid:99) (cid:110)(cid:101)(cid:103)(cid:111)(cid:116)(cid:105)(cid:97)(cid:116)(cid:105)(cid:111)(cid:110) (cid:116)(cid:104)(cid:97)(cid:110) (cid:115)(cid:116)(cid:97)(cid:110)(cid:100)(cid:97)(cid:114)(cid:100) (cid:109)(cid:101)(cid:97)(cid:115)(cid:117)(cid:114)(cid:101)(cid:115) (cid:111)(cid:102) (cid:101)(cid:109)(cid:111)(cid:116)(cid:105)(cid:111)(cid:110)(cid:97)(cid:108) (cid:97)(cid:110)(cid:100) (cid:99)(cid:111)(cid:103)(cid:110)(cid:105)(cid:116)(cid:105)(cid:118)(cid:101) (cid:105)(cid:110)(cid:116)(cid:101)(cid:108)(cid:108)(cid:105)(cid:103)(cid:101)(cid:110)(cid:99)(cid:101)(cid:46) (cid:77)(cid:111)(cid:114)(cid:101)(cid:111)(cid:118)(cid:101)(cid:114)(cid:44) (cid:73) (cid:115)(cid:104)(cid:111)(cid:119)(cid:101)(cid:100) (cid:116)(cid:104)(cid:97)(cid:116) (cid:69)(cid:82)(cid:65) (cid:105)(cid:115) (cid:97)(cid:110) (cid:101)(cid:115)(cid:115)(cid:101)(cid:110)(cid:116)(cid:105)(cid:97)(cid:108)(cid:108)(cid:121) (cid:117)(cid:110)(cid:105)(cid:100)(cid:105)(cid:109)(cid:101)(cid:110)(cid:115)(cid:105)(cid:111)(cid:110)(cid:97)(cid:108) (cid:97)(cid:98)(cid:105)(cid:108)(cid:105)(cid:116)(cid:121) (cid:97)(cid:99)(cid:114)(cid:111)(cid:115)(cid:115) (cid:101)(cid:109)(cid:111)(cid:116)(cid:105)(cid:111)(cid:110)(cid:115) (cid:97)(cid:110)(cid:100) (cid:109)(cid:111)(cid:100)(cid:97)(cid:108)(cid:105)(cid:116)(cid:105)(cid:101)(cid:115)(cid:44) (cid:97)(cid:110)(cid:100) (cid:116)(cid:104)(cid:97)(cid:116) (cid:105)(cid:116) (cid:105)(cid:115) (cid:109)(cid:101)(cid:97)(cid:110)(cid:105)(cid:110)(cid:103)(cid:102)(cid:117)(cid:108)(cid:108)(cid:121) (cid:114)(cid:101)(cid:108)(cid:97)(cid:116)(cid:101)(cid:100) (cid:116)(cid:111) (cid:97) (cid:119)(cid:105)(cid:100)(cid:101) (cid:114)(cid:97)(cid:110)(cid:103)(cid:101) (cid:111)(cid:102) (cid:111)(cid:116)(cid:104)(cid:101)(cid:114) (cid:99)(cid:111)(cid:110)(cid:115)(cid:116)(cid:117)(cid:99)(cid:116)(cid:115) (cid:114)(cid:101)(cid:108)(cid:97)(cid:116)(cid:101)(cid:100) (cid:116)(cid:111) (cid:115)(cid:111)(cid:99)(cid:105)(cid:97)(cid:108) (cid:97)(cid:110)(cid:100) (cid:101)(cid:109)(cid:111)(cid:116)(cid:105)(cid:111)(cid:110)(cid:97)(cid:108) (cid:101)(cid:102)(cid:102)(cid:101)(cid:99)(cid:116)(cid:105)(cid:118)(cid:101)(cid:110)(cid:101)(cid:115)(cid:115)(cid:46) (cid:82)(cid:101)(cid:102)(cid:101)(cid:114)(cid:101)(cid:110)(cid:99)(cid:101) (cid:83)(cid:67)(cid:72)(cid:76)(cid:69)(cid:71)(cid:69)(cid:76)(cid:44)(cid:32)(cid:75)(cid:97)(cid:116)(cid:106)(cid:97)(cid:46)(cid:32)(cid:73)(cid:109)(cid:112)(cid:114)(cid:111)(cid:118)(cid:105)(cid:110)(cid:103)(cid:32)(cid:116)(cid:104)(cid:101)(cid:32)(cid:109)(cid:101)(cid:97)(cid:115)(cid:117)(cid:114)(cid:101)(cid:109)(cid:101)(cid:110)(cid:116)(cid:32)(cid:111)(cid:102)(cid:32)(cid:101)(cid:109)(cid:111)(cid:116)(cid:105)(cid:111)(cid:110)(cid:32)(cid:114)(cid:101)(cid:99)(cid:111)(cid:103)(cid:110)(cid:105)(cid:116)(cid:105)(cid:111)(cid:110)(cid:32)(cid:97)(cid:98)(cid:105)(cid:108)(cid:105)(cid:116)(cid:121)(cid:46)(cid:32)(cid:84)(cid:104)(cid:232)(cid:115)(cid:101) (cid:100)(cid:101)(cid:32)(cid:100)(cid:111)(cid:99)(cid:116)(cid:111)(cid:114)(cid:97)(cid:116)(cid:32)(cid:58)(cid:32)(cid:85)(cid:110)(cid:105)(cid:118)(cid:46)(cid:32)(cid:71)(cid:101)(cid:110)(cid:232)(cid:118)(cid:101)(cid:44)(cid:32)(cid:50)(cid:48)(cid:49)(cid:51)(cid:44)(cid:32)(cid:110)(cid:111)(cid:46)(cid:32)(cid:70)(cid:80)(cid:83)(cid:69)(cid:32)(cid:53)(cid:51)(cid:55) (cid:85)(cid:82)(cid:78)(cid:32)(cid:58)(cid:32)(cid:117)(cid:114)(cid:110)(cid:58)(cid:110)(cid:98)(cid:110)(cid:58)(cid:99)(cid:104)(cid:58)(cid:117)(cid:110)(cid:105)(cid:103)(cid:101)(cid:45)(cid:50)(cid:56)(cid:53)(cid:52)(cid:54)(cid:57) (cid:68)(cid:79)(cid:73)(cid:32)(cid:58)(cid:32)(cid:49)(cid:48)(cid:46)(cid:49)(cid:51)(cid:48)(cid:57)(cid:55)(cid:47)(cid:97)(cid:114)(cid:99)(cid:104)(cid:105)(cid:118)(cid:101)(cid:45)(cid:111)(cid:117)(cid:118)(cid:101)(cid:114)(cid:116)(cid:101)(cid:47)(cid:117)(cid:110)(cid:105)(cid:103)(cid:101)(cid:58)(cid:50)(cid:56)(cid:53)(cid:52)(cid:54) (cid:65)(cid:118)(cid:97)(cid:105)(cid:108)(cid:97)(cid:98)(cid:108)(cid:101)(cid:32)(cid:97)(cid:116)(cid:58) (cid:104)(cid:116)(cid:116)(cid:112)(cid:58)(cid:47)(cid:47)(cid:97)(cid:114)(cid:99)(cid:104)(cid:105)(cid:118)(cid:101)(cid:45)(cid:111)(cid:117)(cid:118)(cid:101)(cid:114)(cid:116)(cid:101)(cid:46)(cid:117)(cid:110)(cid:105)(cid:103)(cid:101)(cid:46)(cid:99)(cid:104)(cid:47)(cid:117)(cid:110)(cid:105)(cid:103)(cid:101)(cid:58)(cid:50)(cid:56)(cid:53)(cid:52)(cid:54) (cid:68)(cid:105)(cid:115)(cid:99)(cid:108)(cid:97)(cid:105)(cid:109)(cid:101)(cid:114)(cid:58)(cid:32)(cid:108)(cid:97)(cid:121)(cid:111)(cid:117)(cid:116)(cid:32)(cid:111)(cid:102)(cid:32)(cid:116)(cid:104)(cid:105)(cid:115)(cid:32)(cid:100)(cid:111)(cid:99)(cid:117)(cid:109)(cid:101)(cid:110)(cid:116)(cid:32)(cid:109)(cid:97)(cid:121)(cid:32)(cid:100)(cid:105)(cid:102)(cid:102)(cid:101)(cid:114)(cid:32)(cid:102)(cid:114)(cid:111)(cid:109)(cid:32)(cid:116)(cid:104)(cid:101)(cid:32)(cid:112)(cid:117)(cid:98)(cid:108)(cid:105)(cid:115)(cid:104)(cid:101)(cid:100)(cid:32)(cid:118)(cid:101)(cid:114)(cid:115)(cid:105)(cid:111)(cid:110)(cid:46) (cid:32)(cid:49)(cid:32)(cid:47)(cid:32)(cid:49) Section de Psychologie Sous la direction de Prof. Klaus R. Scherer et Prof. Didier Grandjean IMPROVING THE MEASUREMENT OF EMOTION RECOGNITION ABILITY THÈSE présentée à la Faculté de Psychologie et des Sciences de l’Education de l’Université de Genève pour obtenir le grade de Docteur en Psychologie par Katja SCHLEGEL de Leipzig, Allemagne Numéro d’étudiant : 09-302-845 Thèse No 537 GENEVE, mai 2013 Abstract The ability to recognize other people’s emotions from their face, voice, and body is crucial to successful functioning in private and professional life. Research on individual differences in emotion recognition ability has had a long tradition in psychology and sparked renewed interest as a basic component of the popular emotional intelligence construct. However, currently available tests to measure this ability are of limited ecological validity, as they mostly use stimuli from a single modality (usually the face) and include only a small number of emotions. In addition, only little research focused on the psychometric properties of such tests, such as internal consistency, dimensional structure, and construct validity. In this thesis, I contributed to the field of emotion recognition ability by a) clarifying the dimensional structure of this ability, b) investigating the role of this ability in the nomological network of constructs related to social and emotional effectiveness, and c) developing and validating a new test based on short videos with sound representing a large number of emotions (Geneva Emotion Recognition Test, GERT1). Results showed that a) accurate recognition of all emotions across different modalities is largely determined by a single underlying ability, b) emotion recognition ability is related to various measures of interpersonal sensitivity, and c) the GERT is a promising new test to measure this ability. Two studies supported the satisfactory psychometric quality, construct and predictive validity of the GERT. Specifically, the GERT was a more consistent predictor of participants’ performance in dyadic negotiation than standard measures of emotional and cognitive intelligence. 1 A short demo version of the GERT is available here: https://cms2.unige.ch/cisa/webExperiments/bin- release/WebExperiments.html?sid=4&lang=eng&token=random# II Acknowledgements This thesis would not have been possible without the support of many people. First, I want to thank the two directors of my thesis, Prof. Klaus Scherer and Prof. Didier Grandjean, for having given me the opportunity to work on this fascinating topic in the Swiss Center for Affective Sciences. Thank you for the stimulating discussions, for believing in my progress, and for encouraging me to trust my own skills and just go for it. I would also like to thank the two external members of my jury, Prof. Marianne Schmid Mast and Prof. Michael Eid for their genuine interest in my work, their support during earlier stages of the thesis, and their valuable feedback which I truly appreciate. A big thank you also goes to Judy Hall, Andreas Frey, Georg Hosoya, Dave Kenny, and Johnny Fontaine for their comments and tips that each took me another step towards improving this work. Finally, I am still indebted to Gabriel Nagy, the supervisor of my master thesis in Berlin, for patiently teaching me the basics of Item Response Theory, without which I would not have been able to write this thesis. I am particularly grateful to all my colleagues and friends in Geneva who accompanied me during my thesis and made my stay at the CISA a great experience. Thank you Konni, Jacobien, Vera, Sona, Ines, Marc, Marcello, Irene, Chiara, Cristina, Leonie, Corrado, Sascha, Heidrun, Wiebke, Julie, Valérie, Eduardo, Matthieu, Sophie, Seba, Géraldine, Alison, Aline, Ben, Tommaso, Nele, Eva, Tobias, Daniela, Olivier, and the whole CISA crowd for all the memorable and fun moments since 2009. I hope that many more of these moments are still to come! Special thanks go to my colleagues from the NEMO (Negotiation and EMOtion) study; Marc, Jacobien, Vera, Leonie, Ben, and Géraldine; without whom the last chapter of this thesis would not have existed. When this mammoth project will be finished one day, I will still keep the good and fun memories of you guys! Finally, I also want to thank Marcello for giving me the opportunity to stay in the CISA for one more year – and I hope this will not be the end of our collaboration. Finally, I want to thank my family in Berlin, Switzerland, Russia, and the Ukraine for encouraging me to take this challenge in Geneva, for believing in me, and for loving and supporting me here and over the distance. III Résumé en français Introduction La perception des signaux verbaux et non verbaux d'autres personnes et les attributions que nous en faisons sont des mécanismes fondamentaux dans l'interaction humaine. Entendre la voix d'une personne, voir son apparence, l'expression de son visage et les mouvements de son corps, nous permet de déduire beaucoup d’informations sur celle-ci. En effet, nous faisons des jugements sur son caractère, ses intérêts, sa véracité, son intelligence et son état émotionnel. En général, les êtres humains sont assez exacts dans leurs jugements sur la personnalité, l'intelligence ou les émotions d'autres personnes (pour un résumé, cf. Schlegel & Wallbott, 2013). Comme McArthur et Baron (1983) l'ont souligné, les jugements précis guident des comportements socialement fonctionnels et favorisent la réalisation des objectifs individuels, servant ainsi une fonction adaptative (cf. Gibson, 1986). Un bon exemple est le jugement des émotions, qui peut être bénéfique à la fois pour un fonctionnement social réussi et pour une meilleure adaptation aux changements environnementaux. Par exemple, la psychologie évolutionniste a suggéré que la reconnaissance précise de certaines émotions, comme la peur, à travers des expressions du visage ou de la voix d'autrui, peut être importante pour la survie, puisqu’elle signale un danger (Cosmides & Tooby, 2000). En ce qui concerne l'interaction sociale, la reconnaissance des émotions permet d'anticiper les actions de l'autre personne, d’adapter ses propres actions et, par conséquent, rend les interactions plus réussies et détendues (Hampson, Van Anders, et Mullin, 2006). Bien que ce point de vue s'applique généralement à tous les êtres humains en bonne santé, il a également été noté que certaines personnes distinguent plus précisément les émotions des autres, ce qui les rend plus efficaces dans leurs interactions sociales (Bernieri, 2001; O'Sullivan & Ekman, 2008). Dans la présente thèse, j'étudie comment ces différences individuelles dans la capacité de IV juger ou de reconnaître les émotions (ci-après, CRE) peuvent être mesurées avec un test standardisé. Dans le passé, plusieurs chercheurs ont développé des tests pour mesurer la CRE. Dans ces tests, typiquement, des expressions émotionnelles (tels que des images de visages ou des enregistrements vocaux) sont présentés aux participants qui doivent choisir, à partir d'une liste d'émotions, quelle émotion a été exprimée dans chaque représentation. La CRE est généralement calculée comme la proportion de représentations correctement identifiés. Bien que ces tests aient été utilisés avec succès dans différentes domaines, y compris la psychologie sociale (p. ex., la prédiction de l'efficacité sociale), psychologie organisationnelle (p. ex., le recrutement et la prédiction de la performance au travail), ou la psychologie clinique (p. ex., la caractérisation des déficiences fonctionnelles dans divers groupes cliniques), ils ont aussi certaines limites. En particulier, la plupart d’entre eux se limitent à une seule modalité de présentation (habituellement le visage) et comprennent seulement un petit nombre d'émotions (surtout des émotions négatives). Comme les indices non verbaux dans la vie réelle sont souvent transmises de façon multimodale et dynamique, plusieurs chercheurs ont mis en doute la validité écologique des stimuli statiques et unimodales dans les tests de CRE (McArthur & Baron, 1983; Isaacowitz & Stanley, 2011). En outre, des tests de CRE ont tendance à avoir une fiabilité basse et leur structure dimensionnelle n'a pas été étudiée de manière suffisamment approfondie (Hall, 2001). Étant donné que la mesure de la CRE ne suit pas une tradition psychométrique stricte, comme par exemple l'intelligence cognitive, des approches psychométriques modernes, comme la théorie des réponses aux items, n'ont pas encore été appliquées pour évaluer et améliorer la qualité des tests existants. L'objectif principal de la présente thèse est donc de développer et de valider un nouveau test pour mesurer la CRE qui, premièrement, comprend des stimuli dynamiques et multimodales représentant un grand nombre d'émotions positives et négatives pour augmenter la validité écologique, et, secondement, prend en compte des standards psychométriques modernes, en V particulier la théorie des réponses aux items. Le deuxième objectif de cette thèse est de contribuer à une meilleure compréhension de la CRE en abordant quelques lacunes relevées par la littérature existante. Plus précisément, mon travail consiste à déterminer si la CRE est une capacité unidimensionnelle ou si la reconnaissance des émotions et les différentes modalités les représentant nécessitent des compétences distinctes. Par ailleurs, je lie empiriquement la CRE à une variété d'autres construits qui mesurent l'efficacité sociale et affective en analysant leur réseau nomologique basée sur un large échantillon de questionnaires et de tests. Enfin, la validité prédictive de la CRE par rapport à la performance objective dans une interaction interpersonnelle sera également évaluée. Cette étude est aussi une des premières qui examine la relation entre la CRE et le comportement réel d’une personne. Ces objectifs sont abordés en cinq chapitres empiriques, dont chacun est résumé ci-dessous. Chapitre 3: Constructs of social and emotional effectiveness: Different labels, same content? Pendant de nombreuses décennies, les chercheurs ont tenté d'identifier les individus qui sont particulièrement doués dans l’interaction avec les autres personnes dans la vie privée et professionnelle. Une variété de construits ou concepts visant le fonctionnement interpersonnel ont ainsi été développées, telles que l'empathie, les compétences sociales, la sensibilité interpersonnelle, et plus récemment, les compétences « politiques » et l'intelligence émotionnelle. Bien que la comparaison des instruments respectifs pour mesurer ces construits révèle des ressemblances importantes dans le contenu des items, ils ont rarement été étudiés ensemble. Il est donc difficile de savoir si les construits derrière les différentes étiquettes sont réellement distinctes ou se chevauchent. Dans le cadre de cette thèse, je me suis particulièrement intéressée par le réseau nomologique autour de la CRE qui a été discuté par plusieurs chercheurs (Hall, 2001; Bernieri, 2001). La CRE est impliqué dans des construits plus vastes tels que la sensibilité interpersonnelle, l'intelligence émotionnelle, les compétences sociales et l'empathie. Ici, mon but était de clarifier VI dans quelle mesure ces construits liées théoriquement seraient liés de manière empirique, si des dimensions sous-jacentes communes existent, et comment ces dimensions sont liées aux « Big Five » de personnalité. À cette fin, j'ai soumis, à un échantillon de 152 étudiants, six tests et questionnaires ayant un total de 32 sous-échelles. Les résultats ont révélé que les 32 échelles ont été répartis sur quatre dimensions que je dénommé Expressivité, Sensibilité, Aptitudes émotionnelles, et Autocontrôle. La Sensibilité était significativement liée positivement à la CRE, soutenant sa validité de construit. Les quatre dimensions étaient également significativement liées aux « Big Five ». Cette étude a contribué à la connexion des lignes distinctes de la recherche sur des concepts similaires, ce qui peut orienter le choix d'un chercheur pour un instrument ou construit en clarifiant les similitudes entre eux. L’étude a également contribué au débat actuel autour des différentes approches de l'intelligence émotionnelle (des modèles « trait » versus « ability »). Certains chercheurs insistent sur le fait que l’approche « trait » (p. ex., Petrides & Furnham, 2000) confond trop l'intelligence émotionnelle avec des construits de la personnalité existantes (Mayer, Salovey et Caruso, 2008; Daus & Ashkanasy, 2005; Mayer, Salovey et Caruso, 2004). Mes résultats ont en effet montré que les différentes échelles d'un questionnaire sur l'intelligence émotionnelle « trait » largement utilisé ont une forte saturation sur les mêmes dimensions que les questionnaires plus anciens qui portent des étiquettes différentes comme « compétence sociale », « empathie » etc. Il est donc possible que l’intelligence émotionnelle « trait » ne soit pas un concept distinct. Chapitre 4: Emotion recognition: Unidimensional ability or a set of modality- and emotion- specific skills? À ce jour, les chercheurs ont largement omis la question théorique et empirique de savoir si la CRE peut être considérée comme une capacité unitaire unique ou un ensemble de compétences distinctes. Dans la présente thèse, j'ai été particulièrement intéressée par la question si la CRE contient des capacités qui sont liées uniquement à une émotion ou à une modalité spécifique ou si la CRE est une capacité unidimensionnelle impliqué dans la reconnaissance de toutes les émotions et VII modalités. Pour tester la dimensionnalité de la CRE, j'ai demandé à un échantillon d'étudiants d'identifier l'émotion exprimée dans chacune des 120 stimuli dans lesquels différents acteurs expriment dix émotions qui ont été présentées, soit sous forme d'une image fixe, soit sous forme d’un enregistrement audio, vidéo ou audio-vidéo (étude 1) . Étant donné qu'une théorie explicite qui pourrait guider l’analyse et la comparaison des différents modèles dimensionnels manquait, j'ai choisi une combinaison d'analyses factorielles confirmatoires et exploratoires pour identifier la structure dimensionnelle des réponses des individus. Les résultats ont montré que la CRE peut être conceptualisée comme une capacité unique qui est impliquée dans la reconnaissance précise des expressions de toutes les émotions et modalités. En outre, dans cette vaste dimension générale, j'ai trouvé des sous-facettes plus spécifiques impliquées dans la reconnaissance des émotions très similaires (p. ex., l'irritation et la colère). J'ai largement confirmé cette structure dans un deuxième échantillon (étude 2) avec des personnes d’âge et de profession différents, pour une série distincte de stimuli audio-vidéo contenant encore plus d'émotions. Comme cette série de stimuli a également été utilisée pour le développement du nouveau test de la CRE (voir chapitre suivant), mes résultats impliquent que le modèle « Rasch » de la théorie des réponses aux items serait approprié pour les procédures de l’étalonnage plus tard. Cette recherche a contribué au domaine de la reconnaissance des émotions en fournissant la première analyse systématique de la structure dimensionnelle des différences individuelles à travers les émotions et les modalités. Étant donné que les deux études indépendantes avec des stimuli et participants différents ont été effectués dans le cadre de cette thèse et ont mené au même résultat, on peut supposer que la CRE est essentiellement unidimensionnelle. Chapitre 5: Introducing the Geneva Emotion Recognition Test: An example of Rasch-based test development. Les tests existants pour mesurer la capacité de reconnaître les expressions émotionnelles des autres focalisent principalement sur une seule modalité (habituellement le visage) et comprennent VIII seulement un petit nombre d'émotions, limitant leur validité écologique. En outre, leur fiabilité est souvent insatisfaisante et la structure factorielle est rarement documentée. L'objectif de ce chapitre était de décrire le développement d’un nouveau test de la CRE (« Genève Emotion Recognition Test », GERT) qui a) contient des expressions émotionnelles dynamiques et multimodales (des courtes vidéos avec son), b) couvre un grand nombre d’émotions, et c) est basé sur les principes psychométriques modernes (théorie des réponses aux items). Dans cette étude, nous avons demandé à 295 participants germanophones de regarder 108 expressions émotionnelles produites par des acteurs et de choisir, pour chaque expression, laquelle des 14 émotions possibles était exprimée par l'acteur. Nous avons ensuite appliqué le modèle de Rasch pour sélectionner 83 expressions comme des items pour le GERT. Les résultats montrent que le modèle Rasch s’applique au GERT et que ce test a une précision de mesure acceptable. Conformément aux études précédentes, nous avons constaté une diminution de la CRE avec l'âge croissant des participants et une meilleure CRE pour les femmes en comparaison aux hommes. Ces résultats fournissent une première preuve de la validité du construit du GERT. Pour conclure, le GERT est un instrument plein de promesse pour mesurer la CRE d'une façon plus écologiquement valide et complète que les tests précédents. Chapitre 6: Psychometric properties of the Geneva Emotion Recognition Test: Replication and construct validation Dans cette étude, nous avons a) reproduit les propriétés psychométriques du GERT selon le modèle de Rasch dans un échantillon de 131 étudiants francophones, et b) examiné la validité du construit en investiguant les corrélations avec d’autres tests de la CRE, l’intelligence émotionnelle, l'intelligence cognitive, et les dimensions « Big Five » de la personnalité. Le modèle de Rasch correspond bien à nos données. La précision de mesure et la difficulté du test étaient comparables aux résultats précédents. L’étude a également soutenu la validité du construit du GERT. Conformément à nos prédictions, nous avons trouvé des corrélations positives avec les autres tests de la CRE, l'intelligence émotionnelle et, dans une moindre mesure, l'intelligence cognitive et IX

Description:
the measurement of emotion recognition ability. Thèse de doctorat : Univ. dyadic negotiation than standard measures of emotional and cognitive
See more

The list of books you might like

Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.