所谓参数的条件估计,就是在某些参数已经确定的条件下,估计模型中的未知参数。在认知诊断评价理论模型中,参数的条件估计有两种情形:一种是在被试属性掌握模式等参数已经确定的条件下,估计模型中的项目参数;另一种情形就是,在项目参数已经确定的条件下,估计被试属性掌握模式等参数。
项目参数的条件估计方法主要有两种:一种就是基于已经确定的被试参数条件,利用样本作答反应数据,直接求取基于项目反应函数的似然函数极大值点对应的项目参数,称为经典条件估计;另一种是基于边际分布的极大似然估计方法,称为边际极大似然估计(marginal maximum likelihood estimation,MMLE)。本节只介绍边际极大似然估计及其EM算法。
一、边际分布
边际极大似然估计仍然是在极大似然估计方法的架构之下估计项目参数,但是在提供被试参数作为已知信息时,结合了贝叶斯统计思想。边际极大似然估计是以边际分布(marginal distribution)为基础的。因此,我们首先需要明白边际分布的概念。首先看一下表7-1。
表7-1 边际分布示意表
表7-1包含了两个离散型变量:变量ξ和变量η。pij为两个变量的联合分布列,而联合分布列的右侧一列,即pi·是由第i行pij对j相加得到,它表示变量ξ的分布列,相应地,在联合分布列的低端一行,即p·j是由第j列pij对i相加得到,它表示变量η的分布列。通过这种表示方式,变量ξ和η各自的分布列就在联合分布列(ξ,η)的边上,因而,人们就形象地称变量ξ和η各自的分布列是联合分布列(ξ,η)的边际分布。
由以上可以知道,如果已经知道二维变量的联合分布列,那么,单个分量的边际分布列也就可以根据联合分布列得到。当然,已知所有单个变量的分布列,却并不能唯一确定两个变量的联合分布列,这一点,从表7-1中也是容易直观地看出来的。
现在回到项目参数的估计问题上来。假设已获得n个被试在m个项目上的测验作答得分矩阵U,共包括r种不同的被试作答反应模式(response pattern,由于有些作答反应模式可能重复出现,因此r不一定等于n),记第1种作答反应模式为ul(l=1,2,…,r)。那么,对于属性掌握模式为αv(v=1,2,…,2K;K为测验属性个数)的被试,其得到作答反应模式为ul(作答反应模式个数不一定等于属性掌握模式个数,因为有些属性掌握模式对应的作答反应模式可能没有实际出现)的概率为:
如果借鉴贝叶斯统计思想,把得到作答反应模式ul的被试属性掌握模式αv看作来自一个已知分布的随机变量,而不是某个固定的常数。这时,由于随机变量可以取各种不同的值,当然,根据该随机变量的已知分布,各种取值的概率是不一样的(均匀分布除外),而且各种取值对于得到某个具体的作答模式ul的概率也是不一样的。假设该已知分布的密度函数为g(αv),这也就是属性掌握模式αv的先验分布,于是,就可以得到来自随机变量的某个属性掌握模式αv在作答反应模式ul上的概率函数为:
进一步地,可以得到关于某作答反应模式ul的边际概率函数(unconditional or marginal probability)如下:
然而,由于属性掌握模式αv的概率分布是离散的,因此,根据αv的先验分布g(αv)对所有可能的属性掌握模式的条件似然函数进行加权累加,这相当于基于单维连续变量的条件似然函数的积分过程。于是式(7-10)重写为:
其实,即使是连续变量的积分,在计算机实现的过程中,也总是会转换为加权累加的形式。比如,对项目反应理论中的连续变量——被试能力水平进行积分时,在计算机实际实现过程中,无穷积分一般就会采用基于有限积点(quadrature points)和相应积点系数(coefficients)或权重(weight)的高斯-厄米特(Gauss-Hermite)数值积分算法进行近似估计。对于正态密度函数,经验上一般会在某个合理范围内,采集40个积点,包括20个正积点、20个负积点,对积分进行近似计算。于是,式(7-10)总是可以转换成如式(7-12)所示的用高斯-厄米特数值积分算法进行的近似估计:
其中,Xk为在连续变量上选择的代表性积点,在此例中代替具体的θ取值,q为积点个数,A(Xk)为积点对应的系数或权重,且有:
其实,从几何解释的角度,定积分就是求概率函数曲线在某个区间内与横轴所围成的区域面积,如图7-2所示。
图7-2 函数的定积分解析图
对于连续型随机变量来说,其概率函数曲线也是连续的,这时,概率函数曲线在某个区间内与横轴所围成的区域面积的求取,就可以通过以下方式得到:首先,把这个区间分成有限个更小的区间;然后,求取这些小区间的面积,并累加后得到整个面积的值。如果这些小区间的间距足够小,那么,这个区间横轴的中值就可以作为该区间的代表值(积点),这个区间的面积就可以作为这个代表值的权重(积点系数)。这个区间的面积经常可以通过查相关变量的函数分布表来得到,从而用这些积点和积点系数代替积分过程进行运算。
二、边际极大似然估计及其EM算法
有了以上这些认识基础之后,我们就可以开始对边际极大似然估计进行具体的介绍。接下来的内容将分成两个部分:首先,介绍边际极大似然估计及其EM算法的提出;其次,结合认知诊断评价理论中的DINA模型,解释边际极大似然估计及其EM算法在DINA模型项目参数估计中的应用。
按照被试参数作为已知条件的呈现模式,可以把估计项目参数的方法分为两种:①把被试看作来自某个已知分布总体的代表性随机样本,于是可以通过基于对该已知分布进行积分的方式来估计项目参数;②把被试看作一个未知分布的随意(arbitrary,注意不是随机)样本,按照联合极大似然估计的方式同时估计被试参数和项目参数。在这两种方法中,第二种方法在实际应用中可能存在很大问题。在参数估计中,项目参数被认为是结构参数(structural parameter),根据某个测试规划命制好的测验一般不会随意改动,其结构和参数是相对固定的,可以当作稳定参照的工具,测验的项目数量一般也是固定的且规模较小。而被试参数被认为是讨厌参数(nuisance parameter),如果被试是一个随意样本,那么,每增加一个被试就会增加一个随意参数,导致项目参数无法获得稳定的一致性估计,这就违反了项目反应理论参数不变性的特性。基于第一种方法的极大似然估计,称为边际极大似然估计,它能够保证关于项目参数的一致性估计,因此成为现在参数估计中应用较广的方法之一。
要实现参数的边际极大似然估计,首先需要构建基于边际分布的似然函数。
鲍克和列波曼首次使用基于边际分布的极大似然估计方法,来估计双参数正态肩型模型(normal ogive model)的项目参数。在对被试作答数据进行分析时,主要关注被试在所有题目上的整体作答反应模式(response pattern),以及在各种作答反应模式上的被试分布状态,或者叫作答模式分布,认为相同作答模式的被试的能力水平也是相同的,不同的作答模式的被试的能力水平也是不同的,被试能力与作答模式之间理论上应该是对应关系。从样本的角度看,这种方法关注在每种作答模式上有多少个被试,以及整个被试作答模式的分布状态。当然,作为具体计算时的项目反应模型仍然是基于单个项目的。作为二值记分题目类型,每个题目的作答结果只有两种可能:对(得1分)和错(得0分)。这样,被试在M个题目上的所有作答模式一共就有2M种可能。但是,对于某批被试在某次具体测验上的作答结果来说,最终的样本得分矩阵可能出现以下情形:有些作答模式根本没有出现,而有些作答模式则出现许多次。在建构基于作答模式的似然函数时,应该要注意这种情形的存在。
在测验作答得分矩阵U的基础上,可以获得被试作答模式样本分布状态。假设某种作答模式的观察次数为rl(l=1,2,…,r),相应地,该作答模式的实际样本观察比例为P(ul)=rl/N。就像前面在分析某个作答反应模式ul的被试时,将αv看作一个已知分布的随机变量一样,现在从另外一个角度来分析整个测验的作答得分模式。假设把全部N个作答被试看作他们所代表总体的一个随机样本,那么,期望落于某种具体作答模式的被试比例就应该是P(ul)=E[p(ul)],即观察比例的期望,这个期望比例其实来自前面已经讲到的关于作答模式ul的边际分布,即式(7-10)。实际作答样本中相应模式的期望作答被试次数就应该是:
在以上分析的基础上,可以对当前得分矩阵建立如下式子:
这个式子表示的就是基于边际分布的联合似然函数。式(7-10)中,被试参数信息已经通过其已知概率分布函数加权累加的形式作为已知条件给出,因此,这个式子中的未知参数就只有项目参数了。
建立了如式(7-15)所示的似然函数后,接下来的工作就是找到能够使似然函数值达到极大值点所对应的项目参数估计值。这个问题的解决同样可以转化为求解似然函数对未知参数的一阶导并令其为0的方程根问题,而这个问题又同样可以通过牛顿-拉夫逊迭代的方法加以解决,当参数的迭代校正值小于某个预先设定的估计误差时,得到的参数估计值就是能够使似然函数值达到最大的项目参数的最终估计值。具体的解决过程可以阅读我们在下面即将要介绍的鲍克和阿特金基于该方法的参数估计改进实现方案。
鲍克和列波曼首次使用基于边际分布的极大似然估计方法,来估计双参数正态肩型模型的项目参数。他们假设样本被试来自服从正态分布的总体,不过,他们在应用中只分析了5个项目。鲍克和列波曼指出,参数的边际极大似然估计方法本身虽然有很大的优势,但他们所提出的参数的极大似然估计实现方案,却很难在实际项目分析工作中得到广泛的应用。按照他们所提供的参数估计解决方案,在每次测验分析中,题目数量不能超过10道或12道,因为在鲍克和列波曼的项目参数估计迭代方案中,需要构建一个3M×3M(M为测验题目量)的信息矩阵(二阶导矩阵),并对它求逆,而矩阵中的每个元素又包含2M(所有可能的作答模式数)次累加和计算过程。因此,题目量过多将造成矩阵过大、矩阵运算困难的问题。但是,最多12道题的题目量在心理与教育的实际测验中是很少见的。所以他们认为提出边际极大似然估计方法,主要是为了进行理论研究探索,以及在同等条件下与其他方法进行比较。不过后来,对该方法进行了改进,使其能够灵活地适应于各种实际数据分析情境。
鲍克和阿特金对鲍克和列波曼方法的改进主要体现在三个方面。首先,假设被试之间、题目之间以及被试与题目之间均服从局部和相互独立原则,这样就解决了参数估计中矩阵过大的问题,因为在局部独立原则成立条件下,可以逐个项目地进行参数估计,而每个项目的参数估计过程涉及的矩阵运算即使在IRT三参数模型下也只有3×3个元素。这样,这种方法就可以运用于大批量项目分析的情形了。
鲍克和阿特金方案的第二个改进,主要就是基于他们关于被试、题目之间独立性的假设基础上,针对似然函数式子本身的具体处理技术。鲍克和列波曼所建立的似然函数关于项目参数的一阶导函数及其方程式子形式统一如下式所示:
式子对积分项用高斯-厄米特数值积分进行了近似处理。式子中,ξi代表项目参数,可以用项目反应模型中涉及的不同项目参数分别代替;Φi(xk)为项目反应函数,在这里专门指的是IRT正态肩型曲线函数;zi(xk)=ai(xk-bi)为正态肩型曲线函数式中的一项(这一项中的ai、bi分别表示IRT模型项目区分度参数和难度参数),xk为选择的数值积分积点,A(xk)为相应的积点系数或积点权重,式子中,
Ll(xk)为当能力取值为xk时,作答模式l的联合概率。
鲍克和阿特金在对以上式子进行处理时,首先假设所有的被试根据作答反应模式被合理地分成了若干组,各组内被试完全同质,各组之间相互独立,且各组的能力水平记为xk。在这个假设基础上,不同项目的难度和区分度参数就可以分开来独立估计。于是,进一步可以得到对数似然函数关于项目难度参数和区分度参数的一阶导函数式子,令其等于0所得方程分别如下所示:
参数的信息矩阵为:
其中,
对比式(7-18)、式(7-19)与式(7-16),同时把式(7-16)的A(xk)项乘入式子的分子项,于是便得到以下两个相互对应的式子:
鲍克和阿特金方案的第三个方面的改进,是在以上式子的基础上,提出了具体实现项目参数估计的一个新的算法,即EM算法。依据这个算法,每个项目参数一次小循环的估计过程包括了以下两个步骤。
M步:也就是似然函数极大化过程。利用E步算出的值,根据上面提供的一阶导式子和信息矩阵,用牛顿-拉夫逊迭代算法,估计项目参数。当然,如果一阶导方程可以直接解出未知参数的值,那就不需要经历麻烦的迭代步骤。
当然,在每个EM步外面还有一个大循环过程,就是要使两次相邻迭代的所有项目参数所计算的似然函数值之间差异足够小。
从上面可以看出,鲍克和阿特金关于项目参数估计的EM算法,是在两个不同假设条件下的一阶导式子之间的对应关系基础上提出来的。另外,在处理指数概率模型族的参数的极大似然估计过程中,当参数的估计出现缺失信息时,有人提出了不完整数据处理的EM算法。鲍克和阿特金基于这个缺失数据处理原理的角度,也提出了与我们上面讲到的相同的EM参数估计步骤。
在认知诊断评价理论中,被试在测验项目上的作答被分成不同的作答反应模式,每种作答反应模式对应一种属性掌握模式,所有相同作答反应模式的被试的属性掌握模式也是相同的。同时假定被试之间的作答是局部独立的,项目之间的作答也是局部独立的。
三、边际极大似然估计示例
接下来,结合认知诊断评价理论中的DINA模型,并依据了德拉托尔(de la Torre,2009)的推导结果,解释边际极大似然估计及其EM算法在DINA模型项目参数估计中的应用。
DINA模型是一个比较节俭的模型,模型中的被试参数为属性掌握模式,项目参数包括猜测参数和失误参数。
首先,将DINA模型的项目反应函数重新表示为:
然后,建立作答矩阵的边际似然函数:
式子中,L(uj)为被试j作答反应模式的边际似然函数,g(αv)为属性掌握模式αv的先验分布。由于αv是离散变量,因此边际概率积分运算变为累加运算。将上式转化为对数似然函数形式:
接下来就是,找到使对数似然函数达到极大值点的项目参数估计值βiη。于是求对数似然函数对未知项目参数的一阶导函数:
对于DINA模型来说,虽然每个被试的属性掌握模式可能不同,但在某个具体项目上,所有被试的属性掌握模式可以分为两种:掌握了项目要求的所有属性(记为η=1);未掌握项目要求的所有属性(记为η=0)。相应地,项目反应函数的取值情形也只有两种:当被试掌握了项目要求的所有属性时,Pi(αv)=1-si;当被试未掌握项目要求的所有属性时,Pi(αv)=gi。因此,式(7-27)可以进一步表示为:
当式(7-28)一阶导函数中是对项目参数g求导时,式子右边第二项就等于0。于是,求极大化似然函数logL(U)的项目参数gi值,就是计算出让如下一阶导方程式子成立的gi估计值:
经化简移项后,可得:
同样地,当式(7-28)一阶导函数中是对项目参数s求导时,式子右边第一项就等于0。于是,求极大化似然函数logL(U)的项目参数si值,就是计算出让如下一阶导方程式子成立的si估计值。
经化简移项后,可得:
边际极大似然估计的关键是根据作答反应模式构建边际似然函数。而EM算法的关键是构建两个人工参数R和N。