首页 百科知识 识别个人与群体表情轻松看脸

识别个人与群体表情轻松看脸

时间:2024-01-19 百科知识 版权反馈
【摘要】:不过在我们讨论的穷举法情况下,每张面孔都应该被充分分析。综上所述,假如使用穷举法,台下哪怕只有四个人都需要你一整秒时间才能将其分析完,不过我们演讲的时候台下可能至少有十个人,甚至对高校教师而言一百人都是稀松平常。这一个过程和数学统计十分相近,又被称为统计平均、统计识别。

识别个人与群体表情轻松看脸

倘若你正为台下听众做演讲(报表、上课,甚至是规划行程),除了流畅地传达你的观点,还需要弄明白他们是否理解你的话语。了解他们有没有听明白你想表达的道理最简单的方法就是观察他们的表情:假如台下听众都露出会心的微笑,那么他们应该是理解了;假如台下的听众依然有不解甚至困惑的神色,你就应该把复杂的部分重新解释一遍。脑内对于一群人的面孔判断就和一张面孔情绪判断一般简单和轻松,所以我们是怎么做到判断一群人的情绪的呢?这个领域正是我在研究的领域,我们先看一看最符合直觉的一种解释:理解一群人的情绪即是通过一张一张面孔“穷举”判断。此方法乍一听挺有道理,我们的大脑使用这个方法吗?

倘若我们的大脑用的是穷举法,那么它就应该具有在极短时间内完整分析所见全部面孔的能力,否则穷举法不是大脑运用的手段。所以问题的关键就是大脑有没有能力在短时间内逐一分析接触到的信息。这里我们提到的短时间往往指一秒钟内分析数十张(约数)面孔,毕竟我们可以在一瞥之内搞清楚台下学生的大致情绪。

研究记忆以及研究视觉的专家在这个问题上最具有发言权,各个实验室内的学者在这两个领域的研究都指向一个共同的结论:大脑对于绝大多数视觉信息做不到又快又准,更不要说异常快了。我们先看短时记忆的限制,处理信息都需要短时记忆(工作记忆)这一类似于内存条的部分。按照Cowan教授的观点,我们短期记忆的模块是4,也就是我们能最快同时处理4组信息。倘若待处理信息的量大于短期记忆容量,我们自然而然会忘记一些东西,这就会导致感觉的偏差。我们再看处理系统的限制。有科学家发现大脑可以在极短时间内判断一组图片中的一两张图片的含义。不过在我们讨论的穷举法情况下,每张面孔都应该被充分分析。事实上对于面孔,脑神经产生一定反应(大约一秒看80张面孔的情况下)不是问题,但是活跃程度会随着速度衰减,高速条件下实际判断的准确性并不能满足准确判断每张面孔。在处理的角度上,大脑判断面孔这样复杂的图片存在反应极限,大约一秒钟也就能准确分析四五张面孔的信息:处理面孔的颞叶皮层会随着处理量的增加而更加活跃,但是一旦超过极限,它们就没办法更加活跃;就好比在正常情况下,吃得越多长得越胖,但如果吃的食物超过了消化极限,有可能非但不会长胖,还会拉肚子。综上所述,假如使用穷举法,台下哪怕只有四个人都需要你一整秒时间才能将其分析完,不过我们演讲的时候台下可能至少有十个人,甚至对高校教师而言一百人都是稀松平常。事实上,我们仅需一瞥便能搞清楚台下所有人的表情情绪,我们并不需要过多投入或者特别的记忆方法:我们可以边讲边观察台下人的情绪,这一切自动流畅,似乎完全不受大脑限制干扰。因此我们其实以其他的方法处理了超过大脑限制的信息,也就是说我们并不是用穷举法这样简单的方式分析一大组面孔的情绪,我们的大脑到底用了什么样的“技巧”呢?

让我们把思绪先从面孔研究上稍稍移开,来想象一下生活中常见的一幅画面:森林中的一条石子路。喜欢爬山、旅游,甚至摄影读者肯定看到不少次茂密森林中的石子路,甚至现在能够感觉到清新空气。但是,如果让你描述这一片场景的时候,你能具体道出有多少棵树,地上有多少粒石子吗?或者你在一片花海之前,你能说出这一片紫罗兰到底有多少朵花,抑或你看到一匹可爱的斑马,你能告诉我们这匹斑马到底有多少条纹吗?在世界上,对于我们而言有着许许多多冗杂的信息,这些信息在进行整体判断时并不重要。比如看到树林我们会反应出“树林”的概念,而不是细细数一数多少棵树再和“官方定义”比较一下。所以说,千变万化的信息远超我们的大脑极限,但是我们从来不用穷举就能搞清楚面前的情况,这说明我们的大脑可以用一种化繁为简的手段提取关键的信息。

我们大脑很擅长在生活中抓重点,用重点来了解周围的大多数冗杂的信息。这种整体判断方法在心理学领域被称为统计性平均(statistical average),也叫统计性处理:我们的大脑可以把生活中所见的事物进行一次平均,把重复的东西抽象总结在一起,从而抓住要点。就好比看到树林,你就感觉到是一堆树,而不是“左边一棵树,右边还有一棵树”。将相同的东西总结在一起可以极大程度地解放我们的大脑。事实上,电脑软件对于图片、文档,甚至电影的压缩也是同样的原理:原始图片文件包含所有信息,但是体积庞大,电脑跑起来慢;压缩后的jpg文件也能传递几乎一样的信息,但是体积小巧,把冗杂的信息“折叠”在一起。科学家把我们脑海中的这个过程命名为Ensemble processing,大致翻译就是全效加工过程(与统计性平均名字都可以互相替代):这个过程描述我们大脑对于看到的物体自动化进行总结和统计性平均,从而把信息按照最合理的方式分配,让我们可以更好更快地处理大量冗杂的信息。这一个过程和数学统计十分相近,又被称为统计平均、统计识别。全效加工过程既发生在识别线条与方向上,也能发生在颜色和大小上,更能发生在面孔之上。只要轻松一瞥,我们就可以“抽”出一群人的大致身份(这个旅行团是韩国来的还是巴西来的),一群人面孔朝向(他们在看右边还是左边的塑像),还有大致的情绪(他们观看的电影片段是浪漫喜剧还是恐怖惊悚片)。

早期在全效分析上的研究主要基于低级别的刺激,比如线条和颜色。说到研究面孔就要提到Whitney(惠特尼)和Haberman(哈伯曼)两位视觉研究的专家。在2007年,他们发现无论是呈现4张面孔还是16张面孔(显示时间不足一秒,远超大脑穷举的极限),实验参与者都可以轻松且准确地判断出这一组面孔到底有什么情绪,看起来是男的多还是女的多。为了排除穷举法的可能性,他们还特意让参与者判断两张图片哪一张曾在图片组中出现。尽管对于整体特点的判断都很准确,参与者却被分辨图片有没有出现过难住。这说明,我们在进行整体判断的时候应该是采取全效加工过程,把所有内容进行了压缩和平均,所以在我们脑中这些面孔自然而然被压缩成了一张零碎的画面,而不是一个一个处理,因为你根本记不住每一张看到的图片,肯定无从分析。我们对于面孔的平均既可以出现在一群同时呈现的面孔上(空间排布),也可以出现在一群按照时间顺序先后出现的面孔上(时间排布),更说明这种评价深藏于我们的处理系统内,是大脑“自带”的处理方法。当然,全效分析也有代价:因为抽取了整体的信息,所以单张图片的信息被“牺牲”。全效分析过程把一组图片“降维处理”:从一组面孔变成了单个的,但是反馈所有面孔情绪的抽象信息。减轻负担的一个原因就是大脑可能只分析抽象的中心信息,而不用穷究每一张图片的信息。(www.xing528.com)

科学家当然不满足于发现,更想搞清楚这样的全效判断和判断一张面孔有何区别:对比一组图片与直接平均之后的图片需不需要不同的分析手段和神经系统。我们对于一组图片平均情绪的感受,就和电脑直接制作的平均图片一般;所以说我们识别一组图片肯定是利用平均手段。而且我们处理一组图片和一张图片的判断方法有着相关性,说明完全有可能我们利用同一套大脑“设备”分析一群人的面孔与一个人的面孔;换句话说,这样的全效识别并不需要特殊硬件,而是本身硬件自带的另一套“软件”。最近,我在自己的试验中发现一组图片与单张平均图片都可以激发起相同的神经活跃,因此大脑“看待”一组图片与它们的平均图片是相同的:处理一组面孔的表情,归功于大脑内的统计加工。

大脑利用统计方法全效加工一组面孔时,对每一张面孔并不是简单的“一视同仁”。任何群体中都会有些不一样的人,倘若一个人在你演讲时打瞌睡所以面无表情,一旦你把他的表情也放入了平均会不会干扰到分析呢?这样的“数据”在统计中被称为异常值,应该被滤去,那我们的大脑在“统计”中会怎么看待“睡着的人”呢?不用担心,我们的大脑就和高端的统计软件一样自带了对于数据的修正功能:我们可以自动对异常值“另眼看待”。既然出现异常,就说明不能够反映真实情况,所以应该被滤去。Haberman与Whitney用巧妙的实验设计发现我们对于群体的判断不符合不滤去的模型,更符合滤去异常值的模型。换句话说,滤去异常值也是我们大脑全效加工的“自带工具”。

当我们瞥到一群人的时候,我们的大脑并没有被汹涌的信息冲垮,相反我们的大脑反倒“占大数据的便宜”。学过统计的朋友就知道,倘若样本(也就是我们观察到的群体)越大,它们就拥有越大可能性反映真实情况。回到一开始说的例子上,一个人对你演讲的反馈肯定会受到他自身情况的干扰:对你材料的熟悉程度、心情、个性,甚至有没有认真听。所以一个人的反馈并不具有充分的参考价值。但是听众越多,听众身上的干扰就越可能被平均抹去,因此如果能够掌握一群人的评价(比如情绪),就能更准确地反推出演讲需不需要改进。群众的眼睛是雪亮的,而我们的大脑也一样雪亮,可以自动地、无须安排地搞清楚群众们的情绪。全效分析是大脑超越自身极限的一个巧妙设计:不但减轻负担,还让我们的判断更加准确。

只需一瞥,你就能大致清楚面前人群面孔上的情绪,这一切都得归功于大脑的巧妙设计。所以在演讲时,一定要利用好这一自带程序。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈