1.问题的提出
对他人面部表情的认知,是儿童进行情绪认知的起点和重要的切入口。这种认知也是与他人进行社会交往的一个窗口。因此,要研究自闭症儿童,特别是处于心理发展初级水平的自闭症幼儿的情绪认知的特点,当以此作为研究的一个聚焦点。
自闭症儿童研究的开拓者Kanner在1943年就提出了自闭症儿童有“先天性的情绪接触障碍”之说[1]。研究者们为印证Kanner的理论而进行了一系列研究,所得出的结果中有一个重要论点,即认为自闭症儿童难以识别他人的面部表情,对他人的情绪等方面的意识特别薄弱[2]。Hobson还进一步提出了自闭症的“情绪认知障碍论”[3],由此引发了一批就自闭症儿童对他人的面部表情进行认知方面的研究。
这些研究主要集中于组间研究,即把自闭症儿童与身心年龄相近的正常和弱智或有广泛性发展障碍的儿童进行比较。
研究发现,自闭症儿童在对他人的面部表情认知上,与身心年龄相近的正常儿童甚至是弱智儿童之间都有显著差异。具体表现在弱智儿童大都能根据人的面部表情来进行分类,而自闭症儿童则大多数根据人所戴的帽子来分类,他们对人的不同面部表情几乎没有给予任何注意[4];5-16岁的自闭症儿童在对面部表情进行配对和判断表现愉快情绪的面部表情这两个实验课题中,成绩都明显劣于唐氏综合症儿童和正常儿童[5]。
但也有的组间研究表明,5-7岁自闭症儿童在给录象带的人物表情与照片人物的表情进行配对时,不管是动态的还是静态的实验条件,与正常儿童没有显著差异[6]。
除了组间对比研究之外,则是限定在自闭症儿童内部的组内研究。
这些研究发现,自闭症儿童视觉空间认知能力发展极不平衡,一般的视觉空间认知能力甚强,但对带有情绪表现的面部表情的视觉认知能力偏低[7],即使是年龄较大的高机能自闭症儿童,也很难通过对他人面部表情的认知来理解他人的内心期待和想法[8],对“喜”、“悲”等基本情绪大都能理解,而难以理解表现“惊讶”[9]、“困窘”的面部表情[10]。
上述研究虽然揭示了自闭症儿童对他人的面部表情认知上的某些特点,但但研究对象都是5岁以上年龄的自闭症儿童,其中有的还是接近成人的高机能型的自闭症,这便无从认识处于发展初期的自闭症幼儿的认知特点。依据组间比较的实验结果,研究者只发现了自闭症儿童他人的面部表情认知上的弱项,最多也只得出了与其他儿童没有显著差异的结论而没发现自闭症儿童有任何强项。
为弥补不足,笔者选取了平均心理年龄只有31个月、尚处于前语言阶段的自闭症幼儿作为研究对象,一方面将与他们心理年龄相近的弱智儿童和正常儿童作为对照组进行组间研究,与自闭症幼儿对他人的面部表情认知特点进行了比较研究。本研究在发现了自闭症幼儿可能运用了图形认知策略对他人进行表情认知的特点的基础上,通过改变实验条件进一步对自闭症幼儿面部表情认知上的特征进行组内研究[10]。希望通过自闭症幼儿认知要素的分析,深入了解自闭症幼儿对表现“喜怒悲惧”四种基本情绪的面部表情的认知特点;
- 探明不同的提示方法对自闭症幼儿在面部表情认知上所产生的影响;
- 解析自闭症幼儿对不同“他人”的面部表情认知上的差异所在;
- 找出自闭症幼儿在不同的材料和条件下对他人面部表情认知的行为关联;
- 发现自闭症幼儿对他人面部表情认知上的优势。
2.研究方法
2.1 研究对象
自闭症幼儿6名(实际年龄范围为54-60个月,平均实际年龄为56个月;心理年龄范围为19-40个月,平均心理年龄为23个月,都为男孩)。
2.2 实验设计
自变量:人物表情、人物类型,提示方法。
因变量:情绪判断的正答率;指认行为、注视行为和情绪表现发生率。
采用(组别3)×(人物表情4)×(人物类型2)×(提示方法2)的混合实验。
三个组分别为AU(自闭症幼儿)组、MR组(弱智幼儿)和T(正常幼儿)组;人物面部表情为喜、怒、悲、惧四种基本情绪;人物类型为卡通人物米老鼠和婴儿图片;提示方法为“语言提示”和“表情提示”。
2.3 实验程序
各实验采用了卡通人物米老鼠和婴儿表现“喜、怒、悲、惧” 基本情绪的面部表情的图片各四张,共有两套。一套是将这两组图片分别贴在A4尺寸的白纸上,之间的相隔距离大致相等。而另一套是同样的两组图片分成独立的8张。两套材料都正向地同时呈放在被试的面前。并以两种方法请研究对象完成实验课题。
(1)语言提示课题。
在“语言提示”条件中,依次呈现婴儿和卡通人物米老鼠的“喜怒悲惧”图片。对每一组图片的四种情绪的述说是随机的。在主试说完一个描述情绪用语之后,让被试指认相应的情绪图片。而因自闭症幼儿缺少用手指来指的行为,要求他们将相应的情绪图片拿给主试。
为了增强年幼的被试能对四种基本情绪有个大致了解,在““语言提示”条件”实验中,实验者都以简单的说明对4种基本情绪进行描述,以唤起被试自身对曾有过的相同情绪体验,在理解的基础上再施行课题。
(2)“表情提示”课题。
呈现实验材料的顺序同““语言提示”条件”。
主试在说出“××笑了,这里的××也笑了,我们给他找朋友”之后,让被试给每张图片配对。
2.4 数据的收集和处理
实验者对被试在两个课题中的正误反应,用笔进行记录,而另一名观察者用数码式摄象机(Canon,MV550I)进行了过程录像。
在实验中,均用数码式摄像机(Canon,MV550I)将全过程拍录下来。在拍摄过程中,因怕站得太近对被试产生干扰,所以都用22倍的焦距进行远距离拍摄。
将所拍摄的全部内容,输送到电脑中,通过多媒体编辑软件(Ulead Video Studio DV简体中文版),以每一个被试在实验中的表现为一个单元,进行渲染(编成一个片段),复制到CD-ROOM上。
用“豪杰解霸(XP超强版)”对实验内容进行秒读,然后根据编码表(coding sheet)进行编码分析。
2.5 编码(coding)与信度分析
本研究用微观分析法,对实验过程和结果以秒为单位进行编码分析。
将每5秒定为1个分析单位。编码分析总长度为150秒。
根据实验目的,由三个部分组成编码表(Coding Sheet):“指认行为”、“视觉行为”和“情绪表现”。
“指认行为”分为“不指”、“延迟指认”、“立即指认”三项;
“视觉行为”分为“不看”、“瞥一眼”、“注视”三项;
“情绪表现”分为“消极”、“中性”、“积极”三项。
按两种实验条件,分别对“指认行为”、“视觉行为”和“情绪表现”进行编码。
将正反应记为“1”,误反应记为“0”。
编码中的发生率按下列公式进行:
发生率=该行为的发生次数/分析对象时间(秒单位)
为分析评估信度,由笔者和两名受过Coding训练的大学生(不知实验目的)对整个实验场面进行独立编码。而后根据评分者之间的评分方差进行方差分析,求得评分信度系数。本研究的信度系数为0.88。