多面孔情绪变异性的自动加工:来自视觉失匹配成分的证据
Automatic processing of variability in multiple facial expressions:Evidence from visual mismatch responses
摘要本研究通过反向oddball范式和视觉失匹配负波(vMMN),考察个体能否自动加工多面孔情绪变异性信息,以及这一过程是否受情绪类型的影响.研究采用中央注视点辨别任务,而4张情绪面孔在外周视野同时呈现且与任务无关.情绪变异性通过改变面孔的情绪强度进行操纵.实验1结果发现,当整体情绪为中性时,低情绪变异性面孔不会诱发vMMN,而高情绪变异性面孔诱发了早期和晚期的vMMN.实验2进一步区分了愤怒和高兴两种情绪类型,结果发现,当面孔整体情绪为高兴时,高、低情绪变异性面孔并未诱发显著的vMMN.而当面孔整体情绪为愤怒时,高、低情绪变异性面孔在晚期分别诱发了视觉失匹配正波(vMMP)和vMMN.实验3控制了全距和分布形式,发现低情绪变异性面孔未诱发vMMN,而高情绪变异性面孔在晚期诱发vMMP.此外,在三个实验的所有条件下,全脑均能在早期解码出标准与偏差刺激.实验2还额外发现,低情绪变异性面孔解码时间较高情绪变异性面孔更晚.综上,大脑可以自动加工多张面孔的情绪变异性信息,对相对较高的情绪变异性存在自动加工优势,并受情绪类型的影响.
更多相关知识
- 浏览2
- 被引0
- 下载1

相似文献
- 中文期刊
- 外文期刊
- 学位论文
- 会议论文


换一批



