JMIR J医疗互联网服务 医学互联网研究杂志 1438 - 8871 冈瑟Eysenbach 卡塔尔世界杯8强波胆分析JMIR出版公司,多伦多,加拿大 v14i5e136 23047935 10.2196 / jmir.2196 原始论文 Umeå大学面部表情数据库:验证研究 Eysenbach 冈瑟 布莱克威尔 西蒙 伯杰 托马斯。 Enock 菲尔。 萨缪尔森 汉娜 MSc 1 Jarnvik 卡尔 MSc 1 Henningsson 汉娜 MSc 1 安德森 Josefin MSc 1 Carlbring 硕士,博士 1
心理学系 Umeå大学 知识产权 于默奥,SE90187 瑞典 46 907867833 46 700400399 per@carlbring.se
1 心理学系 Umeå大学 于默奥 瑞典 Sep-Oct 2012 09 10 2012 14 5 e136 01 06 2012 19 06 2012 20. 06 2012 27 08 2012 ©Hanna Samuelsson, Karl Jarnvik, Hanna Henningsson, Josefin Andersson, Per Carlbring。最初发表于《医疗互联网研究杂志》(//www.mybigtv.com), 2012年10月9日。 2012

这是一篇开放获取的文章,根据创作共用署名许可(http://creativecommons.org/licenses/by/2.0/)的条款发布,允许在任何媒介上无限制地使用、分发和复制,前提是正确引用最初发表在《医学互联网研究杂志》上的原创作品。必须包括完整的书目信息,//www.mybigtv.com/上的原始出版物的链接,以及此版权和许可信息。

背景

描述了一组面部刺激,称为Umeå大学面部表情数据库。模特由30名女性和30名男性组成,年龄17-67岁(男= 30.19,标准差= 10.66)。每个模型展示七种不同的面部表情(愤怒、惊讶、高兴、悲伤、中立、害怕和厌恶)。大多数模特是瑞典人,但也包括中欧、阿拉伯和亚洲血统的模特。

客观的

创建并验证一个新的面部表情数据库,可用于科学实验。

方法

这些图片以随机的顺序一次呈现一张,526名志愿者对平均125张图片进行了验证,他们用李克特式的7个10分制量表对每种情绪进行了评分,从“完全不同意”到“完全同意”。

结果

聚合结果被正确分类的比例被认为较高(M = 88%)。

结论

研究结果为这组面部表情的有效性提供了实证支持。这套仪器可供科学界免费使用。

表达式 刺激组 情感 多民族的 有效性 可靠性
简介

有大量已发表的关于面部感知、面部处理和面部表情的研究,这些研究使用了情绪的面部表情图像[ 1].情绪的面部表情图像经常用于情绪研究,并越来越多地用于神经科学[ 2].最近,它们的应用已经扩展到焦虑和抑郁的治疗,使用一种改进的点探测任务[ 3.].本文介绍了Umeå大学面部表情数据库,该数据库对研究人员免费开放。我们提供了关于数据库的信息,以及基于互联网的验证研究的结果。

人脸是日常生活中不可分割的一部分。面部肌肉支持多种表情和功能。 4].这些表情在与他人互动时传达情感,是情感体验的重要组成部分。 5].情绪和面部表情之间的联系是面部表情及其解释研究兴趣的主要驱动力[ 1].

Ekman和Friesen在1976年发表了他们开创性的面部影响图片(PFA),成为研究中最常用的集合[ 2],极大地提高了我们对面部表情的普遍性的理解[ 6].然而在今天,这套面部表情具有局限性,例如图像数量较少,并且在质量和模型范围方面被认为相当过时,这对其生态有效性产生了不利影响[ 2 7].这个集合和其他一些当前可用的集合不包含表示不同种族的模型(KDEF,参见[ 2 8];( 9])。

研究表明,如果评估情绪表达的人与表达者具有相同的种族、国家和地区背景,那么对情绪的理解和感知就会更加准确。这可能是因为不同种族的人在表达上有不同的细微差别。然而,当不同文化群体在一起的时间越长,群体内优势就会降低。 10].对情绪面部表情的评价也受到对其他种族人的刻板印象的影响[ 11].

NimStim面部表情集[ 1]、日本人和高加索人的面部表情[ 12],以及蒙特利尔面部表情测试(MSFDE) [ 13]包括不同种族的模型,但包含的图像总数少于145张(JACFEE, MSFDE) [ 2].它们缺乏不同年龄组的代表性,而且不可能在基于互联网的实验中使用它们,即使有密码保护(NimStim) [ 1].

该项目试图解决在之前的面部表情和验证研究中发现的问题。创建Umeå大学面部表情数据库的目的是为基于互联网的研究创建一个数据库,其中包含大量不同年龄、种族和性别的图像。

这个数据库有几个优点。首先,它包含了大量的彩色图像——总共424张,由60个模型(2720x4080像素)组成。这些模型所表达的情绪表情最为一致,包括愤怒、惊讶、快乐、悲伤、恐惧和厌恶。 14也是一个中性表达。包含大量图像的数据库是可取的,因为研究往往需要大量的刺激材料,以避免习惯化的影响[ 2].其次,模型代表了不同的年龄群体、种族和性别,这使得数据库在这些变量方面具有良好的生态效度。第三,数据库有密码保护,可以在互联网上进行科学实验。

这项验证研究的目的是检查图像中描绘的面部表情在多大程度上被正确地解释为预期的情绪。它是通过互联网进行的,目的是招募年龄、性别和种族尽可能广泛的参与者。然而,瑞典法律不允许个人族裔登记。然而,在没有这一限制的国家,研究人员在检查照片后可以自由地报告个人种族。

模型和评分者的性别都可能影响面部表情的评价[ 15- 19].评分者的年龄对面部表情的正确识别也起着重要作用[ 20. 21].验证性研究通常只包括大学生[ 2 7 8 12].为了接触到更多样化的人群,我们招募了高等教育内外的参与者。

每张图片都由参与者进行评估。在验证研究中使用了微妙的答案选项,以降低影响对特定表达的反应的风险。采用固定响应选项的响应量表可能存在问题,因为不同的响应量表格式可能会影响所获得的结果[ 22].预先确定的情绪标签可以被视为影响参与者对特定表达的反应的上下文变量[ 22 23].因此,在这项验证研究中,参与者可以选择对几种不同的情绪表达进行评级。

我们假设基于互联网的验证研究将提供足够的数据来支持Umeå大学面部表情数据库的有效性。

方法 参与者

数据收集自526名参与者。平均年龄37.7岁(18 ~ 73岁,SD =13.0)。70%(369/526)为女性,30%(157/526)为男性。参与者是通过瑞典当地报纸传播有关研究的信息来招募的。所有志愿者都被允许参加这项研究,没有任何经济补偿或报酬。

刺激

刺激是来自Umeå大学面部表情数据库的424张面部图像。共有60名受试者作为业余模特参与(30名女性,30名男性;17-67岁;M = 30.19, SD = 10.66)。这些模特大多是瑞典人,但中欧、阿拉伯和亚洲血统的模特也包括在内。在拍摄过程中,模特们被要求展示七种不同的面部表情(愤怒、惊讶、高兴、悲伤、中立、害怕和厌恶)。关于如何做出面部表情的说明是基于Ekman [ 24]和埃克曼和弗里森[ 6]并在会议前和会议期间向模特们展示。在拍摄前,模特们被鼓励练习面部表情,在拍摄期间,模特们被指导做出他们认为合适的表情,看面部表情的图片(POFA) [ 25并运动某些肌肉群。模特被要求不化妆。拍摄地点是Umeå大学。模特们会收到未经压缩的高质量个人照片作为参与的补偿。他们还签署了一项法律协议,允许这些图像用于研究和教育。

图像选择

这些照片拍摄了8000多张照片。从每个模型中选取每个表情的最佳图像进行实证验证。然而,有四种情况下无法做出明确的决定,因此这些图像被添加到验证阶段,总共有424张。

验证过程

验证过程是在互联网上进行的。在访问这些图片之前,潜在的参与者必须注册他/她的年龄、性别和电子邮件地址。确认电子邮件,包括唯一的登录链接,被发送到注册的电子邮件地址,以确保所有参与者都注册了有效的电子邮件地址。参与者被要求独自坐在一个安静、私密的环境中,根据自己的意见进行评估。参与者可以按照自己的节奏对图片进行评估,并可以自由地评估尽可能多的图片。他们被允许在任何时候停止评估,并在2011年10月的两周内自由返回并在另一个时间继续评估。图像随机呈现给每个参与者。然而,424张图片中的每一张都只展示了一次。526名参与者开始了验证过程,在424张面孔中平均给125.5分(SD=137.4)。

424张图片(320x480像素,彩色)中的每一张都是单独呈现的,每张图片上方都有文字“这个人似乎是……”如 图1,每张图片下方都有“愤怒”、“惊讶”、“高兴”、“悲伤”、“中性”、“害怕”和“厌恶”选项,以及李克特式的10分制量表,从“完全不同意”到“完全同意”。参与者可以具体说明他们在多大程度上同意或不同意所列的一种或多种情绪。

数据分析程序

我们使用二值逻辑模型(通过广义线性方程指定),并且假设所有模型的方差-协方差是块对角的,但在个体定义的块内是独立的,这意味着我们假设一张图像的评分不影响该个体对下一张随机图像的评分。

七个结果变量被定义为每一个“真实”情绪的1/0。独立因素是评分者和模特的性别和年龄,以及7种情绪的评分得分。我们研究了每个结果与11个独立因素之间的校正相关性。我们提出了估计的比值比及其95% Wald置信区间(ci)及其显著性(见附录表1-7) 附录1).所有测试都是双面的。结果被认为是显著的 P< . 05。所有分析均使用SPSS,版本20 (SPSS, Inc.,芝加哥,伊利诺伊州)进行。

如果给与真实情绪相对应的情绪打最高分,我们就认为图像被正确分类了。例如,如果情绪“悲伤”得到7分,其他情绪在0到6分之间,那么悲伤将被算作反应。在计算命中率时,该反应将与预期的情绪进行比较。此外,为了获得解释可靠性的衡量标准,我们还计算了与真实情绪不相对应的情绪得分之和,以及被评级的情绪数量。

表1描述了评分者对模特试图在以下列中表现某种特定情绪的所有图像给出的分数:1,“正确感知的百分比”,即模特表现出的情绪被评为高于所有其他情绪的频率;2,“Number of unexpected emotions scores(0 - 6)”,有多少个意外情绪得分大于0;第三,“给予非预期情绪的总分(0 - 9)”,给予与真实情绪不相符的情绪的总分。

结果 有效性

对每张图像进行有效性测量(正确解释的比例)。这424张图片的数据分别在互联网数据库中显示。然而,每种情感的正确解释比例显示在 表1.聚合结果总和的总体值被认为较高(平均=88%)。7个表情中有5个表情的平均正确率超过90%,而恐惧和悲伤情绪的平均正确率分别为73%和78%。对其他情绪的评分被认为是低的(平均0.13-0.65)。对情绪的评分与预期的不同(快乐的平均评分为0.38分,恐惧的平均评分为3.15分)。

表2,除了少数例外(例如,恐惧的面部表情被认为是惊讶),对所表达情绪的错误感知水平一直很低。

基于web的验证的屏幕截图。

总结正确感知的图像比例,意外情绪得分的数量和意外情绪的总分。

情感表达 的数量图片 正确感知比例(%) 意外情绪的数量(6) 意外情绪的总分(0-9)
的意思是一个 最小值b 马克斯c 的意思是一个 最小值b 马克斯c 的意思是一个 最小值b 马克斯c
愤怒(n = 9581) 61 94 72 One hundred. 0.25 0.07 0.73 0.87 0.12 2.57
惊喜(n = 9357) 60 94 76 99 0.33 0.14 0.66 1.25 0.42 3.26
幸福(n = 9721) 62 98 85 One hundred. 0.13 0.05 0.44 0.38 0.08 1.65
悲伤(n = 9393) 61 78 25 98 0.54 0.14 1.23 2.41 0.45 6.55
中性(n = 9406) 60 91 56 99 0.38 0.14 0.94 1.21 0.36 4.21
恐惧(n = 9211) 60 73 39 95 0.65 0.33 1.08 3.15 1.43 6.32
厌恶(n = 9325) 60 90 60 One hundred. 0.36 0.10 0.86 1.42 0.22 4.23
总(n = 65994) 424 88 25 One hundred. 0.38 0.05 1.23 1.52 0.08 6.55

注:将与真实情绪相对应的情绪给予最高分,则认为图像分类正确。

一个正确感知的平均比例(n= 9211-9721)。

b正确感知比例最低的图像的值。

c正确感知比例最高的图像的值。

表达情绪和评分者反应的图像混淆矩阵(仅显示7-9分)。

情感表达 评分者反应(7-9)(%)
愤怒 惊喜 幸福 悲伤 中性 恐惧 厌恶
愤怒 74.6一个 0.4 0.2 0.9 0.5 0.8 0.9
惊喜 0.2 81.7一个 1.0 0.2 0.5 3.7 0.3
幸福 0.2 0.3 92.5一个 0.3 0.5 0.2 0.2
悲伤 1.1 1.0 0.4 55.6一个 5.9 3.9 2.3
中性 1.0 0.8 0.4 1.7 81.6一个 0.6 0.1
恐惧 2.6 14.2 0.6 0.9 0.5 55.5一个 1.7
厌恶 2.2 0.9 0.3 2.5 0.2 0.8 71.8一个

一个目的的情感。

优势比

优势比(列于 附录1),即评分9和0之间的关系很高。幸福感的比值比最高(OR=1945.6, P <。0001),最低的是恐惧(OR=72.0, P <。0001)。

与四个背景变量(模型年龄、模型性别、评分者年龄和评分者性别)相关的最值得注意的结果在附录中列出 附录1,在惊讶和愤怒的表情中。年龄≥46岁的女性面部模特(OR=0.4, P<.05)和26-45岁(OR=0.8, P <.05)与愤怒表达的相关性显著低于参照组,但与惊讶表达的相关性显著高于参照组(OR=1.8, OR=1.1, P <. 05)。

与男性面部模型相比,女性面部模型更频繁地与三种预期表情显著相关。这些是愤怒的表达(OR=1.2, P<.05),意外(OR=1.2, P<.05)和中性(OR=1.9, P< . 05)。在快乐、恐惧和厌恶的表达上没有统计学上的显著差异。男性模特表达悲伤的频率高于女性模特(OR=0.6, P< . 05)。

讨论 主要结果

本研究的目的是提出一个面部表情数据库和基于互联网的验证研究的结果。该数据库包含了424张不同年龄、种族和性别的模特的彩色照片,表达了各种不同的情绪。该数据库可免费用于在线和离线的科学实验。

数据库的有效性是基于评分者在识别所呈现图像中的表情时的准确性。分数普遍很高。该数据库被正确解释的总体平均比例为88%。NimStim的对应值为79% [ 1面部表情的比例为88% [ 25],其中卡罗林斯卡定向情绪脸的平均偏见命中率为72% [ 2].

无论是在模型中还是在验证参与者中,结果都没有显示出任何与年龄或性别相关的一致优势。当单独研究七个表达时,有显著差异,但四个背景变量之间的强和弱关联有所不同。Hall和Matsumoto发现,当使用多个量表时,女性的解释比男性更正确。 26].这些结果在我们的研究中没有得到重复,除了女性在识别中性情绪方面比男性更好,而在识别厌恶方面比男性更差。

以往研究的结果[ 27年龄和性别影响的研究表明,如果图像仅由20-30岁的女性验证,则可以获得更高的识别分数。然而,我们的数据并没有显示性别群体或年龄群体之间有任何一致的显著差异,而且之前的结果在本研究人群中没有重复。唯一的显著差异是年龄≥46岁的评分者在识别厌恶时表现得更好,在识别愤怒时表现得更差,26-45岁的评分者在识别快乐时表现得更差。年长的评分者正确识别愤怒的能力较低,这与Ebner等人的研究结果一致。 9].

我们的研究结果表明,年龄≥46岁的人表现出愤怒、恐惧和悲伤的面部表情,比年龄≤25岁的年轻人表现出的面部表情更不可靠。与年龄≤25岁的年轻人相比,年龄在26-45岁的参与者表现出愤怒、中立和厌恶的面部表情的可靠性更低。这与Ebner等人的发现是一致的[ 9他们发现,愤怒、厌恶、快乐、中性和悲伤的表情在老年人的脸上比在年轻人或中年人的脸上更不准确。厌恶、中性和悲伤的中年面孔比表现出同样情绪的年轻面孔更不准确。

验证研究是基于互联网的。来自不同年龄组的大量参与者对图像进行了评估,这使得本研究的评分人群比以往的研究更具异质性[ 2 7 8 12].每张图像的评分数量都高于之前的研究[ 1 2 8].虽然这种类型的验证有优点,但我们无法控制评分者如何遵守任务,或者他们是否以有害的方式进行验证。

由于具有固定响应选项的响应规模可能存在问题,Russell [ 22]建议进行更多的多尺度定量评级研究。这些被认为是更中性的,因为它们不会偏向于单一的表达。因此,我们选择了从“完全不同意”到“完全同意”的李克特式十度量表。参与者可以选择对一个或多个反应量表达成一致。让参与者有机会在连续体上对每张图像进行评级,并为每张图像选择几种情绪进行评级,这提供了关于每张图像的重要信息,能够评估它与其他情绪相比描绘预期情绪的可靠性。

有些表情比其他表情更容易识别。在验证性研究中,快乐的面部表情通常比消极的面部表情更容易被识别。 1 2 25 28 29].在这项验证性研究中,快乐是正确识别比例最高的面部表情,与其他情绪的关联最低。这些结果与之前的发现相一致,即快乐是最可靠的面部表情,而且最不容易与其他面部表情混淆。 12].

悲伤和恐惧的正确识别比例最低,这也与之前的研究一致[ 2 12].这些表达也在很大程度上与其他表达相混淆。特别是,评级者通常认为恐惧中有惊喜的成分。这种困惑可能是由于这两种面部表情的相似之处,都是睁大眼睛。对于未经训练的模型来说,可能很难做出区分这些表情所必需的面部动作。在解释的基础上也可能有一定程度的混乱,因为当恐惧被体验时,它通常是在惊讶之前出现的。 24].

创造面部表情的方法会影响他们的解读。目前已有的数据库是通过两种不同的方式来指导照片拍摄模型来生成的。一种是指导模型在做面部表情的同时运动特定的肌肉群[ 8 25],另一个是指导他们做出他们认为合适的情绪表达[ 1].

要求模型移动特定的肌肉群的一个好处是,它创建了统一的表情。缺点是可能会影响生态效度[ 22].自然产生的面部表情被认为更真实,但同一表情内的变化可能更大。 22],可作为科学实验的背景变量[ 1].当模型遵循有关运动或模仿图片的肌肉的指示时,与模型在他们认为合适的情况下做出表情或诱导自发表情的研究相比,更大比例的表情被正确识别出来[ 10].

由于我们希望模型能够做出真实的表情,并且在相同的情感表达中仍然保持一致性,所以给模型的指令是以前研究中使用的指令的组合。Umeå大学面部表情数据库中的模型被指示做出他们认为合适的表情,观察面部表情的图片,并活动特定的肌肉群。

限制

然而,这个数据库也有一些缺点。首先,由于验证研究是基于互联网的,因此很难控制参与者回答和其他上下文变量的真实性,例如,参与者是否严格遵循说明。但是,对姓名、年龄、性别和电子邮件地址等个人信息的要求应该降低了无效答案的风险。此外,相对较大的参与者数量(n=526)会减少故意错误回答的影响。没有报酬也意味着提供错误回答没有经济回报。

其次,模型可能已经验证了自己的图像,这可能会夸大数据库中正确识别的比例。然而,与每张图像的大量评级相比,可能验证了自己图像的模特数量很少。

第三,可能存在对反应量表含义的主观解释。0到9之间的刻度步骤可以被解释为强度、真实性或纯度的衡量标准。然而,让参与者有机会对连续的每张图像和几个表情进行评分,提供了关于每张图像的重要信息。有价值的信息可以在网上找到,这些信息包括每张图片在多大程度上被评定为不同的表情,以及每张图片正确识别的比例。

第四个限制是使用强制选择量表来计算正确识别的比例。得分最高的回答量表即为被调查者的回答。由于没有包含“以上都不是”选项,这可能会导致正确识别的比例比包含该选项时更高。

第五个缺点是,研究团队中没有人在拍摄照片时指导模特,而选择用于验证的图像是根据面部动作编码系统(FACS)进行认证的[ 30.].FACS是根据产生面部动作的肌肉对面部动作进行分类的指南。但这也不是完全令人满意的,因为使用流式细胞仪创建图像导致了美国面部表情的“方言”[ 10].当图像与未经训练的参与者一起使用时,不使用FACS可以被视为一个优势。

最后,并不是所有的参与者都遵守了不化妆的指示,这可能会对图像的解释产生偏见。然而,生成的图像可能更接近于现实生活中看到的面部表情。

结论

创建Umeå大学面部表情数据库的目的是为科学界提供一个在线科学实验数据库。该数据库包含大量当代的图片,展示了不同年龄、种族和性别的模特。与之前的验证研究相比,基于互联网的有效性研究为每张图像获得了更多的评级,与许多现有的数据库相比,它具有更高的正确识别比例。然而,Umeå大学面部表情数据库的有效性需要通过类似或不同设计的进一步验证研究来检验。最后,我们邀请科学界帮助扩大数据库,允许包括更多的模型,以提供更有代表性的人群样本。显然,任何添加的人脸都需要首先进行验证,以确保高标准。

多媒体附件1

补充表1-7。与图像相关的因素。

该研究由瑞典社会研究理事会和瑞典工作生活研究理事会资助(2009-0222)。资助者在研究设计、数据收集和分析、发表决定或手稿准备中没有任何作用。亚历山大Alasjö感谢优秀的网络编程和Hans Pettersson的统计帮助。

没有宣布。

托特纳姆热刺 N 田中 JW 利昂 交流 T 护士 兔子 助教 马库斯 DJ Westerlund 一个 凯西 BJ 纳尔逊 C NimStim面部表情组:未经训练的研究参与者的判断 精神病学Res 2009 08 15 168 3. 242 9 10.1016 / j.psychres.2008.05.006 19564050 s0165 - 1781 (08) 00148 - 0 Goeleven E De Raedt R Leyman l Verschuere B 卡罗林斯卡定向情绪面孔:验证研究 认知与情感 2008 22 6 1094 1118 10.1080 / 02699930701626582 Hakamata Y Lissek 年代 cbm Y 布里顿 JC 狐狸 NA Leibenluft E 恩斯特 DS 注意偏差矫正治疗:对建立焦虑新疗法的荟萃分析 生物精神病学杂志 2010 12 1 68 11 982 90 10.1016 / j.biopsych.2010.07.021 20887977 s0006 - 3223 (10) 00766 - 3 PMC3296778 内桑森 戴斯。莱纳姆: 羞耻与骄傲:情感、性和自我的诞生 1992 纽约 诺顿 Dimberg U 面部肌电图和情绪体验 心理生理学杂志 1988 2 4 277 282 埃克曼 P 弗瑞森 大众 揭开面具。从面部表情识别情绪的指南 2003 剑桥,麻 Malor书 特蕾西 莱托 知更鸟 RW Schriber 类风湿性关节炎 开发一套经过facs验证的基本和自我意识的情绪表达 情感 2009 08 9 4 554 9 10.1037 / a0015766 19653779 2009-11528-015 朗格尔 O Dotsch R Bijlstra G Wigboldus DHJ 范Knippenberg 一个 Radboud Faces数据库的表示和验证 认知与情感 2010 24 8 1377 1388 10.1080 / 02699930903485076 it 数控 Riediger Lindenberger U FACES-一个关于年轻、中年和老年女性和男性面部表情的数据库:发展和验证 行为测定方法 2010 02 42 1 351 62 10.3758 / BRM.42.1.351 20160315 42/1/351 Elfenbein 阿姆巴迪 N 情感识别的普遍性与文化特异性:一项元分析 Psychol牛 2002 03 128 2 203 35 11931516 Hugenberg K Bodenhausen 全球之声 面对偏见 心理科学 2003 14 6 640 643 10.1046 / j.0956-7976.2003.psci_1478.x 贝赫尔 松本 D 埃克曼 P Matsumoto和Ekman的日本和高加索人的情绪面部表情(JACFEE):可靠性数据和跨国差异 非语言行为杂志 1997 21 1 3. 21 10.1023 /: 1024902500935 博普雷 毫克 赫斯 U 加拿大少数民族的跨文化情感识别 跨文化心理学杂志 2005 36 3. 355 370 埃克曼 P 有基本的情感吗? Psychol牧师 1992 07 99 3. 550 3. 1344638 C 菲利普斯 注释:面部表情识别从童年到青春期的发展:行为和神经学的观点 儿童精神病学杂志 2004 10 45 7 1185 98 10.1111 / j.1469-7610.2004.00316.x 15335339 JCPP316 麦克卢尔 海尔哥哥 一项关于婴儿、儿童和青少年面部表情处理的性别差异及其发展的元分析综述 Psychol牛 2000 05 126 3. 424 53 10825784 植物 EA 克林 KC 史密斯 GL 性别和社会角色对面部表情解读的影响 性别角色 2004 51 3. 187 196 10.1023 / b: sers.0000037762.10349.13 守夜 JM 情感表达中性别差异的社会关系框架 行为脑科学 2009 10 32 5 375 90;讨论391年 10.1017 / S0140525X09991075 19825246 S0140525X09991075 威廉姆斯 LM Mathersul D 帕尔默 DM 电流的 钢筋混凝土 电流的 再保险 戈登 E 面部情绪的外显识别和内隐识别:一、年龄对男性和女性10年的影响 临床经验神经精神病 2009 04 31 3. 257 77 10.1080 / 13803390802255635 18720177 901726529 Brosgole l 维斯曼 J 跨越时代的情绪识别 神经科学 1995 06 82 3 - 4 169 89 7558648 Ruffman T 亨利 JD 利文斯通 V 菲利普斯 情绪识别和衰老的元分析综述:对衰老神经心理学模型的影响 神经科学生物行为学 2008 32 4 863 81 10.1016 / j.neubiorev.2008.01.001 18276008 s0149 - 7634 (08) 00010 - 9 罗素 晶澳 从面部表情中是否有普遍的情感识别?跨文化研究综述 Psychol牛 1994 01 115 1 102 41 8202574 巴雷特 低频 Mesquita B Gendron 情感知觉中的情境 心理科学的最新发展方向 2011 20. 5 286 290 埃克曼 P 情绪表露:识别面部表情和情绪,改善沟通和情感生活 2007 纽约 圣马丁狮鹫 埃克曼 P 弗瑞森 西弗吉尼亚州 面部表情的图片 幻灯片 1976 帕洛阿尔托,加州 咨询心理学家出版社 大厅 晶澳 松本 D 从面部表情判断多种情绪的性别差异 情感 2004 06 4 2 201 6 10.1037 / 1528 - 3542.4.2.201 15222856 2004-15096-010 Riediger Voelkle MC it 数控 Lindenberger U 除了“快乐、愤怒或悲伤”?:装腔作势者年龄和评分者年龄对多维情绪知觉的影响 Cogn条件 2011 09 25 6 968 82 10.1080 / 02699931.2010.540812 21432636 934344494 Elfenbein 阿姆巴迪 N 当熟悉产生准确性时:文化暴露和面部情绪识别 J Pers Soc Psychol 2003 08 85 2 276 90 12916570 电流的 钢筋混凝土 莎拉 R Hagendoorn Marom O Hughett P 梅西 l 特纳 T Bajcsy R 波斯纳 一个 电流的 再保险 一种用于神经认知研究的获取三维面部表情的方法及其标准化 神经科学方法 2002 04 15 115 2 137 43 11992665 S0165027002000067 埃克曼 P 弗瑞森 西弗吉尼亚州 海格 JC 面部动作编码系统-光盘手册 2002 盐湖城,德克萨斯 网络信息研究公司的研究中心
Baidu
map