首页 理论教育 包含表情的面孔如何影响我们的印象?

包含表情的面孔如何影响我们的印象?

时间:2024-01-19 理论教育 版权反馈
【摘要】:在表情研究领域,有一套叫作FACS的面部动作编码系统用于分析面部肌肉运动从而描述表情。Calder(考尔德)和同事就利用“合成面孔效应”,一张面孔的上下部分由两张包含不同情绪的面孔组成,检测面孔是不是整体识别的:观察参与实验的志愿者能不能搞清楚上下部分是什么情绪。很明显,害怕的表情中眼睛的形状和对比度不同不光是面孔上的一部分足以激发判断情绪的神经系统活跃,简单几道曲线也可以让我们真切地感觉到开心或者悲伤。

包含表情的面孔如何影响我们的印象?

在表情研究领域,有一套叫作FACS的面部动作编码系统用于分析面部肌肉运动从而描述表情。比如在这个系统内,最为标准(切记这个只是他们发现的标准动作,很多别的组合也能够传递笑容,但是不见得会像这一个被广泛准确地判断)的“开心/愉快”表情应该是脸颊上升(眼角肌肉的体现)以及嘴角上升(脸颊一条肌肉提升)。在美剧《别对我说谎》中的专家Lightman博士(你没看错,就是Ekman教授参与的,拍的就是他心中的自己吧)能依靠这一套编码系统分辨别人的表情。不过我们的大脑既不是Lightman博士那样的“专家”的大脑,也不会这一套基于生理和解剖学的技术,依然能够很准确地判断别人的表情情绪,这是为什么呢?倘若肌肉是表情的因,大脑更倾向于从表情的果去推测表情,然后理解情绪。表情在我们眼里,最初应该是线条、颜色、明暗这样初级的信息,之后才被整体识别成为一组面部特征,最后才能被当作表情被特别的模块处理。

红色高亮区域就是笑容所涉及的肌肉

就和判断面孔所代表的身份一样,大脑在“理解”表情传递的情绪之前先分析了面孔所传递的“地理信息”。我们可以这样理解,在最终“裁决”情绪的神经系统之前,大脑先要把看到的面孔通过视觉处理系统“翻译”为“裁判们”理解的“语句”。所以说这个系统还是挺复杂的。我们先谈一谈“翻译”的过程。

画自画像对于不擅长绘画的朋友肯定是困难的:比如我在足球游戏中对虚拟角色“捏脸”的过程,即通过调整数据刻画让游戏中的面孔的过程,都做不好,何谈画出自己的相貌(身份)?不过如果让你画一张笑脸,我相信多数人毫无问题。这就和现在我们用的网络表情一样,几条线段(比如:D以及^-^都能够传递笑容)方可传递出表情和情绪。倘若你还熟悉前面几章的内容,会不会觉得情绪信息只需要局部信息就足够?其实不是,这个例子恰恰反映表情情绪(相比身份)的多层次与复杂性。

我们先复习一下整体识别与局部识别的区别。整体识别强调我们在判断时把所有的局部融合成一个抽象的整体,然后不拘泥于细节地判断,而局部识别强调我们根据某些细节来判断。倘若几条线段便可以让我们产生对于面孔情绪的判断,我们可以说面孔情绪的判断层次不高,因为线条算是最基础的视觉信息;我们也可以说局部信息可以影响我们对于面孔表情的判断。在做判断之前,我们先看看前人的研究成果。

“合成面孔效应”是面孔整体识别的试金石,倘若要了解表情涉及整体还是局部识别便可以利用这个效应。Calder(考尔德)和同事就利用“合成面孔效应”,一张面孔的上下部分由两张包含不同情绪的面孔组成,检测面孔是不是整体识别的:观察参与实验的志愿者能不能搞清楚上下部分是什么情绪。他们发现相比连在一起的图片,判断分开的图片(无论上下部分)更快也更准确:因为一旦两张面孔部分连接在一起就会激活整体识别,所以上下半张脸的局部识别会被压抑;但是一旦面孔不是连接在一起就能破坏整体识别,因此判断半张面孔受到更少影响。但是当Calder教授把图片倒置过来之后,由于倒置面孔效应也能干扰整体识别,因而连接与分开的“合成面孔”差距被缩减了很多。因此在两种判断整体效应的“试金石”下,针对面孔表情的识别过程是整体识别的说法被强有力地支持。我们可以说人们判断面孔情绪时,会倾向于合并所有的信息,化作一个整体来判断。脑成像的数据也表明大脑挺喜欢通过表情上低空间频率部分判断“害怕”的情绪;而低空间频率信息即是整体识别的关键要素。不过判断情绪就完全依靠整体识别并且利用低空间频率信息吗?

相对面孔的身份部分(身份判断有时候也会依赖局部信息),面孔的情绪部分实在复杂。这里就有一个好例子:尽管先天性面孔失认症患者能够判断他人表情中的情绪,但是由于梭状回面孔区的失调(涉及整体识别),有些面孔失认症患者在整体识别能力上非常弱。虽然能够识别情绪,但不是利用整体识别,因而先天性面孔失认症患者的表情情绪更依靠局部信息补偿。在正常人身上,有时候局部信息也足够支持情绪判断。Smith(史密斯)与同事们也用“气泡脸技术”发觉基本表情情绪的判断分别依赖于不同的局部:比如“高兴”的表情依赖于嘴唇传递,但是“害怕”的表情依靠眼睛传递。(www.xing528.com)

这一些面孔部分是传递这几种表情情绪的必要区域。图片来自Smithet al.,2005

再回忆下戴着眼罩的侠客佐罗,遮住眼睛部分便能让人不好辨认身份,但是余下的嘴还是能传递一部分表情。当然,由于(这本书前半部分提到过的)整体识别以及眼睛、眉毛在情绪中的作用,被遮盖情况下表情识别会慢不少也难不少,但还是可以判断。局部识别也是判断情绪中很重要的部分。大家想一想,有时候表情不适合摆出来,但是局部的变化足以传递情绪:领导说错话之后,台下的你们肯定不敢笑出声,互相看一下睁大的眼睛和高耸的眉毛就能互相传递你们复杂的情感。对于局部识别,有几组科学家做出了巧妙的研究。眼睛可以传情达意,最重要的一点就是巩膜(眼白)与瞳孔黑白对比。Whalen(惠伦)与同事就利用这点做了一个核磁共振实验:那么我们只看眼白部分能不能也体会到情绪呢?他们选取了“高兴”与“害怕”两种情绪,它们由于眼部活动不同,露出来的巩膜大小差距最显著。他们发现尽管图片只被呈现17毫秒,人们脑中的杏仁核(参与害怕体验的一个脑区)会被接近四倍地激活。也就是说大脑可以通过一小部分的重要信息判断出面孔所传递的情绪。其实整体识别也源自局部的信息,尤其是整体信息缺失时我们的大脑的一些部分(杏仁核)可以利用有限的信息做出准确判断。

很明显,害怕的表情中眼睛的形状和对比度不同

不光是面孔上的一部分足以激发判断情绪的神经系统活跃,简单几道曲线也可以让我们真切地感觉到开心或者悲伤。之前我提到过“适应后效”的研究,这种研究方法可以像脑成像一样,从行为上探究神经系统的工作原理。它本是我们大脑用来最大化适应环境的一套被动手段,现在被科学家用来研究大脑。“适应后效”的原理可以用下面一个(不恰当的)例子来理解:大脑接收到一波刺激之后,相对应的区域神经会“疲倦”,因此它们立即判断同样的刺激时,会因为神经活跃性降低以及引发的复杂处理模式变化而产生改变:吃了一粒糖之后,同样的糖不见得会那么甜;当我们看多了笑容,面无表情的面孔会看起来有点不开心。徐红教授和她的同事就用适应后效探讨了下局部信息对于“高兴”和“悲伤”的影响。众所周知,开心时我们嘴角向上弯,悲伤时嘴角向下弯;那这一个低层次的曲线会不会影响我们的情绪判断呢?结果竟然是可以,看了凹的曲线,之后的面孔看起来都不甚开心,看到了凸的曲线,面孔看起来会显得开心一些。这个实验不光突出局部识别对于面孔的影响,甚至强调了跨层次的影响:曲线最为直接地表现了初级视觉皮层的信息比较低级,面孔作为复杂抽象的数据,依靠大量系统便显得比较高级。其实我认为,曲线产生了低层次的适应后效,让嘴角看起来不那么弯,因而在整体识别之时感觉起来不弯的嘴角改变了情绪判断,也就彰显后效。所以说整体识别还是情绪判断的重点,但是局部识别参与很多;同时由于情绪的处理横跨视觉信息的多个层次,所以也有多层次性。看起来简单的面孔,在判断表情情绪时却不简单:在我们心中,每张面孔上的情绪都是立体的饱满的,是横跨空间分辨率的,也就是横跨了线到面甚至立体图形的维度

尽管用手遮住嘴巴也可能让人判断出来你的身份,而且用手遮盖你的嘴巴也不能完全遮盖住你的笑容。所以下次倘若你的领导说错话了,你还是忍住别笑比较好,遮不住啊(整体信息和局部信息都足以判断情绪)。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈