查看原文
其他

好文荐读|魏一璞:利用视觉情境范式揭示口语加工的时间进程

魏一璞 语言学心得 2024-02-19


好文荐读(第五十九期)利用视觉情境范式揭示口语加工的时间进程

好文荐读不定期更新,为大家带来最新的核心期刊亮眼论文,希望大家多多支持,也欢迎给我们留言推荐更多值得一荐的好文哦~




利用视觉情境范式揭示口语加工的时间进程


魏一璞

北京大学对外汉语教育学院

   

文章简介

文章来源:魏一璞. 利用视觉情境范式揭示口语加工的时间进程 [J]. 心理科学进展, 2023, 31 (11): 2050-2062.


摘要:视觉情境范式是一种通过追踪、测量人眼在视觉物体上的注视轨迹来研究实时口语加工的眼动实验范式。该范式运用于语言理解类研究的理论基础是眼动连接假设(如: 协同互动理论、基于目标的连接假设理论等), 这些连接假设在眼动轨迹与口语加工进程之间建立起了有意义的关联。使用视觉情境范式所获取的数据能够为口语加工提供精确的时间信息, 常用的数据分析方法包括: 时间兴趣区内注视比例均值分析、分叉点分析、生长曲线分析等。该范式为研究词汇语音识别、句法解歧、语义理解、语篇语用信息加工等问题提供了关键性证据。

关键词:视觉情境范式;眼动追踪;口语加工

基金项目: 教育部人文社会科学研究青年基金项目(21YJC740062)

感谢魏一璞老师授权推广,全文下载请点击文末“阅读原文”。


语言加工的时间进程问题一直是心理语言学领域的核心议题之一。探讨这一问题有三层重要意义: 首先, 不同层面的语言信息(语音、语义、句法、语篇、语用等)以及不同来源的信息(语言输入、视觉环境、世界知识等)在何时被认知系统加工处理对于语言理解模型的建构至关重要。例如, McRae等人(1998)的基于约束的语言加工模型(constraint-based model), 就是根据歧义句理解的时间进程证据提出的。其次, 研究影响语言理解的因素(如: 词频、语言水平、认知能力等)如何起作用也需要语言加工的时间进程信息, 如: Magnuson等人(2003)通过考察听者理解语音输入时锁定目标指代对象的时间, 提出了词频会影响词汇识别的论断。此外, 语言要素加工的时间线也可以作为反映语言理解能力的重要指标, 在儿童语言习得、二语加工以及老年人语言能力评估等方面发挥作用(Saryazdi&Chambers, 2021)。作为探究口语加工时间进程的重要工具, 视觉情境范式(visual world paradigm)可以提供精确的时间信息, 揭示各个层面口语加工的问题。

视觉情境范式是一种通过追踪、测量人眼在视觉环境中的注视轨迹研究实时口语理解加工的实验范式(Allopenna et al., 1998; Salverda&Tanenhaus, 2018)。随着上个世纪60年代末眼动追踪仪器与电脑接口的实现, 即时记录眼动轨迹以及自动处理眼动数据成为可能。70年代中期, 利用眼动技术进行的书面阅读研究已取得大量进展(综述见: Rayner, 1978)。与此同时, Cooper(1974)第一次尝试使用眼动追踪技术对口语理解进行测量。这项早期研究首次将听者对视觉物体的注视与语言加工建立了联系。1995年Tanenhaus等人在《科学》上发文, 阐释了如何利用眼动追踪技术揭示歧义句的加工过程, 视觉情境范式(由Allopenna et al., 1998定名)才开始大量被应用于口语加工研究, 成为心理语言学、认知心理学领域最重要的研究手段之一(邱丽景等, 2009; 林桐, 王娟, 2018)。

本文主要阐释了如何利用眼动视觉情境范式探究口语加工的时间进程。为了阐明这一问题, 本文将首先介绍眼动实验范式中的连接假设, 将视觉场景中的眼动轨迹与语言的理解过程建立起联系, 并且充分说明视觉情境范式在任务及数据上有哪些时间性的特点, 以及如何利用这些特点进行数据分析; 进而以口语加工的时间进程为主线, 综述近20多年来使用该范式的研究在语音、语义、句法、语篇与语用加工等方面的实证发现, 进一步说明这一高时间敏感性范式在口语加工时间进程研究中的贡献。


1 眼动轨迹与语言加工进程的连接假设


视觉情境范式眼动研究方法的理论基础是连接假设(linking hypotheses), 这类假设将眼动轨迹与口语理解的认知过程建立起了联系(Allopenna et al., 1998; Tanenhaus et al., 2000)。具体来说, 当听者处理口语信息时, 会将语言所描述的情景形成动态的心理表征(mental representation); 而理解者对心理表征中特定实体的关注会随着语言信息的输入而变化——相应地, 他们在视觉空间中的注视点也会随之移动(Altmann&Kamide, 2007)。这种注视的聚集和移动, 伴随着瞳孔位置的改变。通过眼动追踪手段, 瞳孔位置移动的轨迹可以被有效测量, 进而揭示口语加工的时间进程。过去20年间, 学界提出了诸多反映眼动与口语加工之间关系的具体连接假设理论, 用于阐释视觉注意如何被分配到指代物体之上(见综述Magnuson, 2019)。本文总结了其中比较有影响力的三种连接假设理论, 进一步阐明将视觉情境范式应用于口语加工研究的理论基础。这些连接假设虽未直接就具体语言元素加工的时间进程进行界定, 但其假设中包含了口语加工的若干阶段, 是探讨加工时间进程的前提基础。

Knoeferle和Crocker(2006, 2007)提出的协同互动理论(coordinated interplay account)将基于视觉情境的口语理解分为三个主要阶段: (1)在原有的语句结构中整合新输入的词, 形成新的语句理解, 并基于这一新信息和原有的语言信息、相关世界知识, 共同形成对后面语句的预测; (2)在包含之前视觉场景的工作记忆中, 搜寻词语所指代的物体或者是基于第一阶段信息可以预测到的物体; (3)将语言输入(名词、动词等)与视觉场景中的物体、动作对应, 基于视觉场景信息修正之前形成的语句理解, 并形成新的预测(Knoeferle&Crocker, 2006, 2007; Pyykkönen-Klauck&Crocker, 2016)。值得注意的是, 这三个进程虽然在协同互动理论中依次呈现, 但该理论并不排斥三个进程在加工时间上有交叠或者同时发生的可能性。协同互动理论凸显了视觉场景信息对于口语理解的重要性; 而且尽管当视觉场景消失后, 这些情景在工作记忆中会逐渐消退, 但关于情景的记忆仍然对后续句子加工具有显著的影响(Knoeferle&Crocker, 2007)。

Altmann和Mirković(2009)提出了另一种连接假设理论, 这一理论同样也认同语句加工受到语言信息(如: 实时语言输入、语境信息)和非语言信息(如: 视觉场景、世界知识)的共同影响。但不同于Knoeferle和Crocker(2006, 2007)的协同互动理论, Altmann和Mirković(2009)认为处理视觉场景信息与理解语言输入的过程在心理表征和处理时间上都是无法分割的——因为语言信息和非语言信息都存储在同一套系统中, 共同构成了对情景的动态表征。当听者接收到某一信息时, 关于客体的表征(包括与此客体相关的体验、知识等)会被激活。而随着听者不断接收不同来源的信息(语言输入、视觉场景、世界知识等), 关于客体的表征就会不断变化。当不同来源的信息出现重合时, 客体表征的激活就会加强。这一表征系统的不同状态体现在心智表征(mental representation)层面就是注意力的分配, 而注意力的分配影响了眼动轨迹。换言之, 伴随语句输入, 受试者对视觉物体的注视在时间上的变化轨迹, 是由包含语言信息、语境信息、视觉场景、世界知识等的一套共同表征系统所影响并驱动的。在该理论假设框架下, 不同来源的信息对口语加工会产生即时影响, 也会迅速反映在眼动轨迹上。

以上两种连接假设均基于语言理解视角, 将口语加工过程中的眼动注视变化看做是语言输入信息与视觉信息共同作用的结果。这两个假说都将语言加工看做是一项独立的任务, 与实验过程中的行为任务目标无关。然而, 此类基于语言理解视角的连接假设未涉及完成任务所需要的动作本身对语言指代加工的影响(Chambers et al., 2004), 同时也未考虑到在视觉搜寻中眼动本身就和行为任务的目标紧密相关——即受试者会更多地注视与自己行为目标相关的物体。为了更好地解释语言加工与眼动的关系, Salverda等人(2011)提出了基于目标的连接假设理论(goal-based linking hypothesis), 将“任务目标”这一新维度纳入眼动连接假设。不同于基于语言理解视角的连接假设, 基于目标的连接假设理论认为不仅语境、语言输入等可以对语言加工形成约束(constraint), 任务目标本身也可以作为约束——与执行任务目标直接相关的视觉物体, 会吸引更多眼动注视; 而与目标执行无关的物体则不会。该连接假设理论认为, 视觉情境下的口语加工过程首先包含了一项基础任务, 就是把语言输入信息与视觉场景中可供选择的物体对应, 而眼动注视服务于这一任务目标, 用于锁定可能的指代物体; 不符合可供性(affordance)的物体则很少被注视。例如, 在听到put the cube into the can这一指令时, 只有尺寸大小能放得下立方体(cube)的罐子(can)才会成为被注视的目标容器(Chambers et al., 2004)。Salverda等人(2011)认为, 额外的任务如点击物体、移动物体等, 共同构成了口语加工任务中的任务目标结构, 并且影响了眼动注视。例如, 当受试者带着判定句子正误任务听句子时, 会比无判定任务情况下听同样的句子展现出更早、更显著的预测性注视(Altmann&Kamide, 1999), 在时间进程上更快地锁定指代目标。基于目标的连接假设为细化、层级化语言加工过程中的任务目标结构提出了新的要求。

利用眼动视觉情境范式进行的口语加工研究以连接假设为基本前提, 根据利用视觉信息的情况, 可以分为两个主要研究方向。第一类研究将视觉场景作为呈现物体的布景, 心理表征中对特定指代对象的注意被投射在视觉场景中, 听者据此形成对指代物体的注视; 而其注视布景上的物体所形成的眼动轨迹, 揭示了不同的语言成分如何被实时加工(例如: Cooper, 1974; Cozijn et al., 2011; Kaiser, 2016)。第二类研究则将视觉信息也作为一种语境约束, 主要探索视觉环境中的信息(如: 候选物体个数、物体大小对比、所描绘的事件动作等)本身对语言加工产生的影响(例如: Chambers et al., 2002; Knoeferle et al., 2005; Tanenhaus et al., 1995)。这两类研究采用的任务类似, 但是在连接假设的理论层面, 第一类研究强调了理解视觉场景信息与理解口语输入信息这两个过程的共时性和不可分割性; 第二类研究则将视觉场景信息加工作为一个相对独立的过程, 强调视觉场景本身在口语加工过程中的作用。而眼动加工领域最新的趋势是开始关注任务目标对语言加工的潜在作用。尽管纳入了目标维度的连接假设已经完成了初步的理论建构, 但目前针对不同任务目标下加工效应对比的研究仍然是空白。


2 视觉情境范式的特点


2.1 范式与任务

典型的视觉情境范式实验通常包含以口语形式呈现的语言指令和以视觉刺激形式出现的物体(在真实世界中或者电脑屏幕上)。受试者在理解口语指令的同时, 在视觉物体上注视点的位置被眼动仪实时记录并用于后续分析(见图1)。视觉刺激图片一般会先于语言指令出现, 并有一定的预视时间; 语言指令以相对固定的播放速度呈现。前人研究中发现, 图片复杂度、预视时长、语言指令播放速度、任务指令类型(是否明确告知受试者需要预测目标物)等因素都会对眼动结果产生一定的影响(Huettig&Guerra, 2019; Ferreira et al., 2013)。

图 1 视觉情境范式实验呈现示例

视觉情境范式主要包括两种不同的实验任务: 一是主动任务(基于动作的实验任务), 即要求受试者对语言指令做出行为上的反应(如: 获取、挪动、点击物体; 见Hanna&Tanenhaus, 2004; Tanenhaus et al., 1995); 二是被动任务(听−看任务), 即受试者仅需要听语言指令、看图片或者情景, 不需要在行为上做出反应(Altmann&Kamide, 1999; Knoeferle et al., 2005)。关于两种任务的区别, Salverda等人(2011)指出在主动任务型视觉情境范式实验中, 获取、挪动、点击物体之前受试者会将大量的注视投向目标物体; 而被动任务型实验不存在这样的注视模式——此因素可能会导致两种实验任务下眼动模式的差异。PyykkönenKlauck和Crocker(2016)综述对比了采用两种任务类型的眼动实验结果, 认为主动任务中一些语言效应(如: 词频效应)在眼动指标上表现得更为敏感, 受试者能更快地锁定目标物体, 显示出更迅速实时的语言理解过程。而听句子看图的被动任务型视觉情境范式实验, 因不需要受试者完成额外任务, 相对而言具有更好的生态效度(Huettig et al., 2011a); 而且可以被用于检验哪些口语加工效应是在语言与视觉交互中普遍存在的, 哪些仅在特殊的实验任务下才存在(Huettig et al., 2011b)。 

视觉情境范式有两个主要的变体——拼词呈现范式(printed-word paradigm, Huettig&McQueen, 2007)与空屏呈现范式(blank screen paradigm, Altmann, 2004)。拼词呈现范式中, 视觉刺激图片被替换为出现在屏幕上的词语。受试者会听到与该词相关的语音输入, 同时其在每个字母上的眼动注视轨迹被记录下来用于分析。拼词呈现范式可以用于检验语音的识别过程、研究正字法信息如何被实时加工等问题。空屏呈现范式主要用于揭示短期记忆在实时语言加工中的作用。在视觉刺激图片呈现几秒后, 呈现空白屏幕(一般1秒), 然后播放语音指令。采用该范式的实验可以证明, 即使在视觉刺激图片中的物体消失之后, 受试者听到语言指令仍然会看向相关物体原来所在的位置(Knoeferle&Crocker, 2007)。空屏呈现范式为心智表征提供了依据: 心智表征形成后, 可以不依赖视觉刺激, 而暂时存储在短期记忆中, 参与后续的语言加工。

2.2 数据与变量


视觉情境范式实验数据分析中的常用因变量为注视和眼跳。其中最常用的注视指标是注视比例(fixation proportion), 即在指定时间窗口内落入某一兴趣区的注视点在所有试次中的比例。眼跳(saccade)数据常用的指标包括眼跳比例(即所有试次中看向目标兴趣区的眼跳比例)和眼跳反应时(即当目标词刺激出现后, 看向目标兴趣区所需要的眼跳时长)。数据中的自变量可以是实验设计的组内变量(如: 实验条件与控制条件、歧义句与非歧义句等), 也可以是组间变量(如: 不同语言背景组、年龄组等)。

视觉情境范式的优势在于所产出的数据具有高度的时间精确性, 现有的科研用眼动仪可以达到1000Hz的取样率, 即每一毫秒捕捉一次眼动位置, 可以提供准确的时间进程信息。以兴趣区注视比例这一数据指标为例, 研究者不仅可以跨组对比在某一时间窗口内不同条件组下注视比例的均值, 以确定口语加工中的某一效应; 更重要的是可以探究效应出现的时间(即注视比例在不同条件下开始产生显著区别的时间)以及效应随着时间发展而变化的曲线模式。

2.3 利用时间维度信息进行数据分析

时间上的精确性是视觉情境范式数据的最重要特点, 如何利用好时间维度信息是该范式数据分析的关键。根据利用时间信息的方式, 可将现有的数据分析方法归为三类: (1)指定时间兴趣区内注视比例均值对比; (2)效应出现、持续的时间进程分析; (3)效应随时间变化的曲线模式分析。为了更好地阐释三类方法的应用场景与分析逻辑, 本文选用了Allopenna等人(1998)研究中的实验物体示意图(图2)和注视比例数据图(图3)作为示例(该研究的详细讨论见第3.1节)。

第一类分析方法是分析视觉情境范式数据最常用、最直观的方法——将指定时间兴趣区内注视比例均值进行对比, 如: 对比从目标词beaker“烧杯”开始呈现到目标词结束的约375ms内听者对图2中几个物体的注视比例。这一分析方法将注视比例、时长或者眼跳指标作为因变量, 组内和组间变量作为自变量, 采用t-test、ANOVA、混合效应模型(linear mixed-effects model)等统计手段对比不同物体之间或者不同条件组之间注视比例的差别。相比于t-test和ANOVA, 混合效应模型是目前应用最广的分析方法, 它可以将受试者之间以及试次之间的差异作为随机变量纳入模型, 实现对效应更准确的模拟与测试(应用示例: Gardner et al., 2021; Grüter et al., 2020)。需要注意的是, 此类统计方法通常要求数据符合正态分布, 而注视比例的阈值范围在0到1之间, 一般需要事先进行对数(log)转换或者逻辑(logit)转换(Ito&Knoeferle, 2022)。分析指定时间兴趣区内注视比例均值是最简便的视觉情境范式数据分析方法, 适用于大部分实验设计。其主要劣势在于人为设定的时间窗口降低了数据的时间精度, 无法很好地捕捉注视比例随着时间变化的趋势; 补偿方法可以是将不同时间兴趣区作为自变量加入分析模型, 检验时间兴趣区这一变量本身是否显著影响注视比例。

图2 视觉情境范式实验视觉刺激示意图注:语音指令为: beaker“烧杯”。4个用于测量的物体分别为: 左−目标指代物体(referent) beaker“烧杯”、右−语音同群竞争项(cohort) beetle“甲虫”、上−韵律竞争项(rhyme) speaker“扬声器”、下−无关项(unrelated) carriage“婴儿车”。资料来源: Allopenna等人(1998), 已获使用许可。第二类方法是对效应出现、持续的时间进程进行分析。此类方法充分利用了视觉情境范式精确的时间进程信息, 可用于探究某一口语加工效应出现的确切时间。其中, 分叉点分析(divergent point analysis)将潜在效应出现的时间段再细分为若干小的时间窗口(如20ms), 在每一个小的时间窗口内对比检验两个条件组的注视比例是否存在显著区别, 从而找出两组注视比例曲线最早开始出现显著分叉的时间点。例如: 图3中目标指代物体beaker“烧杯”的注视比例曲线与语音同群竞争项beetle“甲虫”的注视比例曲线分叉点大约在400ms左右, 晚于目标指代物体与韵律竞争项speaker“扬声器”的注视比例分叉点, 而通过分叉点分析可以统计计算出不同曲线之间开始显著分叉的具体时间点。

图3 使用视觉情境范式的词汇识别任务所得数据示意图

注:横轴: 从目标词开始呈现后的1000ms时间轴; 纵轴: 注视比例。4条曲线分别代表看向目标指代物体(referent) beaker“烧杯”、语音同群竞争项(cohort) beetle“甲虫”、韵律竞争项(rhyme) speaker“扬声器”、无关项(unrelated) carriage“婴儿车”的注视比例。资料来源: Allopenna等人(1998), 已获使用许可。

简单的分叉点分析只能界定出效应开始的时间点(两个条件下变化曲线的分叉点), 并不能检验分叉点在时间上的变化区间, 也不能跨条件组比较两个分叉点是否存在统计学意义上的显著不同。而基于自助抽样检验(bootstrapping)的进阶分叉点分析法, 则可以为每一个分叉时间点提供置信区间, 从而实现跨条件组对比(Stone et al., 2021; 应用示例: Corps et al., 2021)。进阶的分叉点分析法可为对比研究不同群体语言实时加工的时间进程提供有效的分析工具, 例如, 一语者与二语者在语言加工的某一效应上(如: 预测加工)可能并不存在效应量上的差别, 但是两类被试者在效应开始的时间上可能存在差异(Kaan&Grüter, 2021), 采用这种分析方法就可以有效检验二语者预测加工开始的时间是否会显著地滞后于一语者。除了分叉点分析法, 基于频率簇的置换检验法(cluster-based permutation analysis; Barr et al., 2014)和自助抽样检验时间序列差别法(bootstrapped differences of timeseries; Seedorff et al., 2018), 均可以用于界定两个条件组数据出现显著差别的时间(详见眼动数据分析方法综述: Ito&Knoeferle, 2022)。但此类分析方法均无法对不同条件下效应随时间变化的趋势进行分析, 要回答此类问题需要借助第三类方法分析变化曲线。

第三类方法主要针对视觉情境范式中效应随时间变化的曲线模式进行分析。其中, 生长曲线分析法(growth-curve analysis)将不同条件组下关键兴趣区的注视比例随着时间变化的曲线进行模拟、分析, 检验不同条件组下注视比例曲线变化的模式是否有所不同, 进而检证效应是否随着时间发展有所变化(Mirman, 2014; Mirman et al., 2008)。不同于第一类分析法, 生长曲线分析法不仅包括了以时间作为变量的线性模型, 还可以在模型中加入时间变量的二次方、三次方, 以模拟注视比例随着时间出现曲线变化的模式1, 如在图3中对语音同群竞争项beetle“甲虫”的注视比例出现了呈抛物线状先升后降的趋势, 且斜率不同于韵律竞争项speaker“扬声器”, 这一模式就可以采用包含二次方时间变量的生长曲线模型进行分析。在口语加工过程中, 注视随着时间的变化趋势常常并非线性上升或者下降, 对变化曲线的模拟和对比能够更精确地分析语言理解的时间发展进程(应用示例: Henry et al., 2022; Koring et al., 2012; Wei et al., 2019)。需要注意的是, 生长曲线分析法存在数据自动相关性问题(autocorrelation), 即相邻的两个时间窗口在注视位置上存在高度相关性, 增加了出现统计学一型错误(假阳性)的几率(Huang&Snedeker, 2020), 因此常需要与第一类和第二类的分析方法相结合, 共同验证效应。广义加性混合模型(generalized additive mixed model)分析也可以用于对非线性的数据曲线进行模拟, 通过薄板样条插值(thin plate regression splines)更灵活地模拟变化曲线, 并且减少统计学上的自动相关性, 一定程度上弥补了生长曲线分析法的劣势(Porretta et al., 2018)。


3 视觉情境范式与口语加工的时间进程

学界早年关于语言加工时间进程的争论主要集中在加工即时性问题上。早期实验主要采用词汇再认、线索回忆、自定步速阅读等任务, 得到的证据倾向于支持延迟整合加工(如: Garnham et al., 1996; Stewart et al., 2000), 即语言使用者加工语言会延迟到句子末尾再进行整合(delayed-integration interpretation; Millis&Just, 1994)。然而, 随着眼动、脑电事件相关电位(ERP)等测量方法的推广, 精确测量阅读时间、脑电信号反应成为可能, 越来越多的证据支持语言加工的即时性, 即语言使用者会随着语言的输入即刻处理遇到的信息(incremental interpretation; Traxler et al., 1997; Cozijn et al., 2011; Koornneef&van Berkum, 2006)。对于视觉情境下的眼动测量, 尽管从接收到听觉语言信号刺激到做出眼动反应需要大约200ms(Matin et al., 1993; Saslow, 1967), 使用视觉情境范式的大量口语实验中仍发现了在测试词开始呈现后、下一词未开始之前眼动注视投向目标物的效应, 说明语言使用者对口语中信息的处理是即刻发生的(详见3.1~3.5小节)。

在即时性加工被广泛认可的基础之上, 近年来语言加工时间进程的讨论主要聚焦于语言使用者何时利用语境信息来理解语言。语言使用者可能在测试词出现的同时, 即时地结合测试词的语义与前文语境进行加工; 也可能在测试词出现之前、加工语境信息的过程中, 对测试词的语音、语义甚至所处的句法结构提前进行预测性加工(expectation-based account; Levy, 2008)。在对预测效应的检测上, 视觉情境范式相对于阅读范式、ERP测量等方法具有明显优势(Huettig&Guerra, 2019)。大部分采用后者的研究只能在测试词出现的位置捕捉到由测试词语义与语境信息一致性所产生的效应; 而视觉情境范式可以在关键词出现之前, 更早地检验到语境对受试者在视觉场景中注视方式的影响, 为口语的预测性加工提供了关键性证据。下文将重点分析视觉情境范式在语音、语义、句法、语篇与语用等不同层面如何回答语言加工的时间进程问题。需要说明的是, 不同层面的信息在口语加工中并非独立, 而是会相互影响(见综述: Kuperberg&Jaeger, 2016); 而本文出于利于分类总结的考虑, 将各个层面单列综述。

3.1 词汇识别与语音预测

视觉情境范式中, 听者听到一个词就会在视觉范畴内寻找指代的物体。基于这一特点, 视觉情境范式可以用来检验词汇的识别过程, 并且探究听者如何利用已有信息预测语音形式。Allopenna等人(1998)利用该范式检验了在口语词汇的语音识别过程中, 语音输入与词汇表征的匹配过程是否是渐进发生的。如果这个匹配过程在时间上是渐进的, 那么可以预测目标指代物体beaker“烧杯”的语音同群竞争项beetle“甲虫”, 会比beaker的韵律竞争项speaker“扬声器”有更强的干扰效应(见图2), 因为语音上beetle与beaker在词语的开头位置有重叠, 而speaker与beaker的重叠发生在后期。Allopenna等人的视觉情境范式眼动实验结果验证了这一假设: 注视目标物体“烧杯”的比例和注视“甲虫”的比例在语音加工的早期都出现了上升(见图3), 而对“扬声器”这一物体的注视比例则是在词加工的较晚时间才出现上升, 而且注视比例上升的幅度也相对比较小。视觉情境范式提供的眼动注视比例数据有效揭示了词汇识别中语音输入和词汇表征的匹配过程。

在语言使用者能否通过语境信息预测即将出现词语的语音信息这个问题上, 已有的ERP研究结果存在很大分歧, 并未能得到稳定可复制的语音预测效应(DeLong et al., 2005; Nieuwland et al., 2018), 而视觉情境范式为探讨语音预测问题提供了有力的证据。Ito等人(2018)采用视觉情境范式的眼动实验, 发现在高度可预测的语境下(例如: The tourists expected rain when the sun went behind the... ), 听者不仅会预测性地注视目标物体(cloud“云”), 还会更多地注视目标物体的语音竞争项(与cloud共享开头音节的clown“小丑”), 这一发现证实了语音形式预测的存在。更重要的是, 在视觉情境范式下这一预测效应在目标词出现前的500ms就已经出现, 充分证明语言加工中对语音形式的预测是主动的(proactive), 相比于一些其他范式仅在目标词位置发现整合效应的结果, 视觉情境范式为语言预测提供了更为直接的证据。此外, 视觉情境范式还为研究语音预测机制提供了实证依据: 语音预测与语义预测一样, 其背后机制都是基于关联——通过加工语境, 语言使用者在心理词汇中激活了相应的语义和语音形式, 从而对即将出现的词语形成预期(Kukona, 2020; 语音预测与语义预测对比见: Karimi et al., 2019)。值得注意的是, 使用西方语言的语音预测研究存在一个无法避免的问题, 即目标词(如cloud)与其语音竞争项(如clown)不仅在语音上有重合, 在正字法信息上也存在交叠。Li等人(2022)使用语音与正字法信息相对分离的汉语, 通过视觉情境范式实验, 也发现了类似的语音形式预测, 验证了语音预测的普遍性。

3.2 句法加工的解歧过程

视觉情境范式对于句法加工时间进程研究的贡献主要在两个方面。首先, 该范式可以用于分析歧义句的解歧过程, 如花园路径句(garden-path sentences)。Tanenhaus等人(1995)首次采用视觉情境范式探究了存在结构歧义的英文句子加工过程, 以及视觉场景对句子解歧的影响。如Put the apple on the towel in the box在in the box出现前存在结构歧义: on the towel既可以是动作put的方向, 又可以是the apple的地点限定语。采用视觉情境范式眼动追踪的实验方法, Tanenhaus等人发现在视觉场景中只有一个苹果的时候, 听者会更倾向于把on the towel解读为动作的方向(眼动注视从苹果直接移向毛巾); 而当视觉场景中有两个苹果时, 听者则更倾向于将其解读为the apple的地点限定语而非动作方向(在锁定毛巾上的苹果之后直接看向真正的目标地点——the box箱子)。

其次, 视觉情境范式为句法加工中不同层面信息何时被加工这一问题提供了新的证据。早期的双阶段理论(two-stage account)认为在句子理解过程中, 句法结构分析要先于其他非结构性信息(包括词汇语义、世界知识、语篇等)的加工(initial syntactic analysis, Frazier, 1987); 基于约束的语言加工理论(constraint-based account)则认为句子加工涉及到多个层面信息的共同限制(Trueswell et al., 1994), 这些限制会在句子加工的早期就对句法结构分析产生影响。视觉情境范式实验研究支持了后者的假说。如: Snedeker和Trueswell(2004)研究了具有歧义的介词短语结构(Choose the cow with the stick vs Tickle the pig with the fan)。With the stick/fan既可以是宾语的限定成分, 又可以是完成动作所借助的工具。他们发现, 视觉场景中的信息(物体的个数)、动词的偏向(偏向限定语解读的动词choose“选择”vs偏向动作工具解读的动词tickle“挠”)都会在句子加工的早期对歧义句的句法结构的分析产生影响, 体现在物体个数、动词偏向不同的情况下, 听者会看向不同的目标对象。此外, Chambers等人(2002, 2004)的研究还发现, 与视觉场景中物体形态、大小、特质相关的世界知识信息也会影响句法结构的分析, 并且这些影响都发生在句子加工的最开始阶段, 驳斥了句法结构分析为先的理论性假设。

3.3 语义的预测性加工

视觉情境范式对语义加工研究的一大贡献是, 揭示了语义加工不仅是即时的, 在很多情况下甚至是具有预测性的(Altmann&Kamide, 1999; Kamide et al., 2003; 理论综述见: Pickering&Gambi, 2018)。Altmann和Kamide(1999)最早使用视觉情境范式, 研究了动词−论元整合的时间进程: 与无关动词move“移动”相比, 听者在听到the boy will eat…的动词eat“吃”时, 会更早地注视到视觉场景中的蛋糕这一物体上。这说明动词的语义信息(即eat“吃”需要搭配可以吃的论元)会帮助听者预测论元的指代对象。Kamide等人(2003)的后续研究总结了语义加工的主要特征: (1)动词与主语的组合共同促进了语义预测, 例如主语the man“男人”与动词ride“骑”的组合会预测高可能性宾语motorbike“摩托车”; (2)除了动词之外, 附着于论元的格标记也会激活预测加工, 如在动词后置的日语中, 听者在动词还未出现之前也可以通过格标记提前预测即将出现的论元指代对象。

使用视觉情境范式对语义加工的研究不仅限于动词−论元结构。Chow和Chen(2020)使用该范式研究了汉语量词信息与语境中世界知识的整合加工, 发现汉语使用者可以根据语境中的世界知识, 在加工的早期对将要出现的名词形成预期, 而这种预期会受到量词的影响, 在加工后期进一步修正。此外, Grüter等人(2020)对一语者和二语者量词加工的研究发现, 一语者与二语者都对量词包含的语法搭配信息敏感, 并且会利用该信息进行预测性加工。但是, 二语者在加工中会更加依赖语义信息(如: 量词“条”会搭配长条状物体), 表现为当视觉场景中出现不符合量词语法搭配、但符合长条状语义的干扰物时, 二语者会更多地注视干扰物。

3.4 语篇层面的实时加工

视觉情境范式可以用于探究语篇理解的两个重要议题——指代关系与连接关系。首先, 视觉情境范式下的眼动追踪可以有效检验代词与先行词之间指代关系的建立过程。一般认为, 当听者听到与前文语篇有共同指代关系的代词、并注视某相关物体时, 可以说明此物体被认为是潜在的目标指代物(Runner et al., 2003)。基于这一机制, 研究者利用视觉情境范式探讨了诸多指代关系加工中的时间进程问题。例如, Arnold等人(2000)最早发现性别线索和指代对象被提及的顺序都对指代消解有即时性影响: 听者可以在加工早期利用不同性的语言标记形式(如: 英语单数第三人称he或者she)锁定指代的目标; 同时, 句中第一位提及的人物(如: SVO语序句子中的主语)会更容易被解读为指代对象。在针对隐含因果对代词消解影响的研究中, Pyykkönen和Järvikivi(2010)发现, 隐含因果效应在动词之后就已经显现, 听者听到动词后会更多地注视动词所偏向的指代对象, 如: 在John frightened Bill because…中, 动词frighten“惊吓”更偏向第一个人物, 所以当听者听到frightened时, 会更多地注视John; 而在John feared Bill because…中, 动词feared“害怕”则更偏向第二个人物, 当动词出现时, 听者更多注视Bill。这一发现证明了指代加工是即时发生的, 甚至具有预测性, 而非延迟整合(另见: Cozijn et al., 2011)。

视觉情境范式也为连接关系在实时语言理解中的建立提供了丰富的实证证据。Wei等人(2019)采用视觉情境范式探究了主观因果关系(论点−论据)和客观因果关系(原因−结果)的加工以及汉语连词在其中的作用。研究发现, 相较于客观因果关系连词“因而”, 当听者听到标记主观因果关系的连词“可见”时, 相对于客观因果关系连词“因而”, 他们会更多地注视视觉场景中的说话人。这表明主观与客观因果关系的加工可能在确认、追踪说话人的过程上有所不同, 而且追踪说话人的过程是随着主观因果连词的输入而即时发生的, 实验证据证明了语篇加工的即时性。Mak等人(2017)通过在视觉场景中提供两个备选的指代对象, 并追踪听者对两个指代对象的注视轨迹, 探究俄语的两个连词在连接关系建立中的作用。研究发现, 连词i“而且”(用于标记延续关系, 连词前后两个从句的主语一致)和连词a“而且/但是”(用于标记转变关系, 前后两个从句是不同的主语)可以帮助单语儿童和双语儿童提前预测第二个从句的主语是否转变, 印证了在口语语篇理解中存在的预测性加工现象。

3.5 语用信息提取与加工的时间进程

语用隐含义(pragmatic implicature)何时被加工、这一过程是否先于语义分析是语用学领域关注的重要议题。字面义先行假设(literal-first hypothesis; Huang&Snedeker, 2009, 2011)认为对等级含义词字面语义(如some“一些”的语义解读应为: 一些−同时可以是全部)的加工先于该词的语用隐含义(一些−但并非全部); Levinson(2000)认为语用隐含义是默认自动加工的; 基于约束的加工理论则认为语用隐含义是否优先激活取决于是否具有充足的语境支持(Degen&Tanenhaus, 2015, 2016)。

视觉情境范式是对比语义和语用信息加工时间线的重要实验手段。Huang和Snedeker(2011)的视觉情境范式眼动实验发现, 听者在加工some“一些”时会先注视与some语义解读(一些−同时可以是全部)相符的对象, 而利用some“一些”的语用隐含义(一些−但并非全部)来消除歧义、排除all“全部”的指代对象这一过程要晚于some的语义加工(约晚800ms)。Degen和Tanenhaus(2016)的研究则发现, 语用隐含义加工延迟的现象仅仅出现在当数字词也作为指令出现的情况下; 而当数字词不存在时, some的语用隐含义加工并不会晚于字面语义含义的加工。Gardner等人(2021)改进了Huang和Snedeker(2011)实验中的视觉物体个数使其更加符合some的概念, 他们发现当有足够的语境支持时, 语用隐含义的加工是迅速即时的, 即听者可以运用some的语用隐含义快速锁定目标对象。此外, 语言使用者对语用信息的加工还很大程度受到说话人可信度的影响——面对可信度高的说话人, 受试者可以较早地利用等级形容词的语用含义锁定目标物体, 而面对可信度低的说话人, 则未出现早期的语用加工效应(Gardner et al., 2021)。



4 视觉情境范式的主要贡献、局限性与研究展望


眼动视觉情境范式为研究语言理解提供了两项重要信息: 一是视觉维度的注视指标; 二是精确的时间测量。前者为心理语言学、认知心理学等领域的实验设计提供了丰富的可能性; 而精确的时间测量, 为语音、词汇、句法、语义、语篇、语用等各个层面的口语加工提供了准确的时间进程信息, 极大地拓展了语言理解的相关理论。两者结合, 可以有效反映在接收到口语信息输入时, 听者在视觉场景中的注视位置如何随着时间变化, 进而为语言理解中的一项重要议题——口语加工的时间进程提供了直接证据。视觉情境范式的实验研究通过分析高时间敏感性的眼动测量数据, 发现语言各个层面的加工都呈现出即时性甚至预测性的特点, 这与一些早期研究中语言延时整合的发现不同, 说明语言加工时间进程的研究结果与所采用的方法密不可分。此外, 视觉情境范式主要依赖听力任务, 并不需要受试者具有完整的识字阅读能力, 可以用来考察低龄儿童、二语学习者、特殊语言障碍人群的语言加工过程(研究示例见: Canseco-Gonzalez et al., 2010; McMurray et al., 2010; Weber&Cutler, 2004)。

视觉情境范式的主要局限性之一在于无法提供加工时长的数据, 因此不能解答语言理解加工困难的相关问题(Salverda&Tanenhaus, 2018)。而且视觉情境范式实验只能在视觉空间中呈现数目有限的静态物体, 这也与日常语言理解的复杂视觉环境有所区别。真实的语言理解环境可能包括更多的物体以及动态的动作、事件等, 这也导致了该范式获得的结果在可推广性上有一定局限(Huettig et al., 2011a)。此外, 在只呈现有限数目物体的实验环境下, 听者可能会提前对语言输入形成一定的预期, 并策略性地注视某些物体, 因此眼动注视轨迹可能并不完全反映语言加工的过程(Henderson&Ferreira, 2004)。对于这点质疑, Dahan和Tanenhaus(2004)根据其在词汇识别上的研究提出了不同意见, 他们发现词频对词汇识别的影响效应并不会受到视觉空间中是否存在竞争项以及竞争项数目的影响, 由此推断在视觉空间中提供有限数目的物体这一设置并不会影响视觉情境范式的有效性。

 视觉情境范式的眼动研究仍有很大的发展空间。首先, 尽管连接假设理论中所提出的关于视觉信息和语言信息的理解过程假设已经被大量实证结果所证实, 任务目标对语言加工的重要作用仍然有待进一步探究。对比不同任务目标下, 语言的加工过程如何随着时间发展, 将是未来视觉情境范式眼动研究的方向之一。近年来, 眼动研究也开始使用三维虚拟现实(VR)技术, 这一技术创新可以高度还原自然的语言交流场景, 同时保持对实验设置的精确控制。一些利用VR技术的视觉情境范式眼动实验, 成功复现了语言加工中的一些经典结果, 如预测性语言加工(Eichert et al., 2018; Heyselaar et al., 2020)。这类技术改进不仅提高了视觉情境范式的生态效度, 还可以用于检验在接近真实语言使用环境时, 影响语言加工过程的诸多因素。理论和技术的创新都为更准确有效地收集解读眼动数据、探索语言加工提供了新的契机与更多的可能性。



作者简介







魏一璞

    魏一璞,北京大学对外汉语教育学院助理教授,荷兰乌特勒支大学语言学博士。研究方向为语篇认知与实验语用学,运用心理语言学研究方法,探究一语和二语使用者的语篇加工预测和语用能力的发展。出版学术专著Causal connectives andperspective markers in Chinese;在Discourse Processes, ActaPsychologica, Dialogue & Discourse等国际期刊上发表论文多篇。

本文来源:《心理科学进展》

点击文末“阅读原文”可跳转下载




推  荐




语言学人|李如龙:关于方言、汉语、汉字的特征思考

2023-12-01

好文荐读|肖自辉、方舒雅:海外汉语方言研究的回顾与展望

2023-12-01

刊讯|CSSCI 来源集刊《文献语言学》2023年第16辑

2023-12-01

在对话交流中,如何运用emoji来表情达意?——来自形式语义学的证据

2023-11-30

今日一词|对话构式语法 Dialogic Construction Grammar

2023-11-30

博士招生|四川外国语大学2024年博士招生(语言学)

2023-11-30

学术会议|第18届中国当代语言学国际研讨会

2023-11-29

好文荐读|陆俭明:国际中文教育必须重视和加强汉语书面语教学

2023-11-29

博士招生|北京外国语大学2024年博士招生(语言学)

2023-11-29

学术会议|第七届汉语语言与话语国际研讨会

2023-11-28

博士招生|四川大学2024年博士招生(语言学)

2023-11-28

刊讯|《海外华文教育》2022年第6期+2023年第1期

2023-11-28


欢迎加入
“语言学心得交流分享群”“语言学考博/考研/保研交流群”


请添加“心得君”入群务必备注“学校/单位+研究方向/专业”


今日小编:Eliza  

审     核:心得小蔓

转载&合作请联系

"心得君"

微信:xindejun_yyxxd

点击“阅读原文”可跳转下载

继续滑动看下一个

好文荐读|魏一璞:利用视觉情境范式揭示口语加工的时间进程

向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存