查看原文
其他

ACM MM 2021|基于对抗训练的知识追踪增强方法

arxiv:

https://arxiv.org/abs/2108.04430

code: https://github.com/xiaopengguo/ATK8

1

导读

本文是对发表于多媒体领域国际顶级会议 ACM MM 2021的论文(Oral) “Enhancing Knowledge Tracing via Adversarial Training(基于对抗训练的知识追踪增强方法)”的解读。

该论文由北大王选所孙俊课题组完成,针对当前基于深度神经网络的知识追踪模型潜在的过拟合风险,提出了基于对抗训练的知识追踪增强方法。

实验证明,与当前主流方法相比,该论文所提方法在四个公共测评数据集上均取得了最高的AUC得分,显示了所提方法的优越性。此外,利用该论文所提方法还可对学生做题过程中的知识点掌握度进行可视化展示,帮助学生直观地了解自身存在的薄弱知识点,具有良好应用前景。

2

背景介绍


教育一直是社会热点话题。得益于数字多媒体技术的迅速发展,智慧教育也受到了越来越多的关注。

其中,知识追踪被认为是一项核心任务,其目的是对学生做题过程中的知识点掌握度进行追踪。具体来说,知识追踪通过学生历史做题记录来预测其做对下一道题目的概率,并将预测概率视为学生对相应知识点的掌握度。在此基础上,通过时序化预测对学生知识点掌握度进行动态追踪。图1为学生练习过程示意图。学生练习了前四道题目,其中答对第一、第二和第四道题目,答错第三道题目。利用知识追踪,可通过学生前四道题目回答情况来预测其答对第五道题目的概率,进而评估该学生对相应知识点的掌握度。

该技术不仅可帮助学生更好地了解自身知识点掌握情况,也可为后续的个性化题目推荐任务提供决策支持。



图1 学生练习示意图

3

相关工作

作为智慧教育领域重要课题,知识追踪受到了研究者的持续关注。在早期工作中,研究者主要沿着概率模型技术路线开展研究。该技术路线假设学生学习过程遵循马尔科夫过程,并通过观察学生学习表现来对其知识点掌握度进行估计。基于贝叶斯的知识追踪方法(Bayesian Knowledge Tracing, BKT)是其中代表性方法之一。该方法将学生知识点掌握度形式化为一组二元变量,并利用隐马尔可夫模型来更新知识点掌握度,取得了良好追踪效果。后续工作在BKT基础上进行了拓展,通过融入更多先验信息,如题目难度、猜对概率等来进一步提升效果。虽然这些工作取得了良好效果,但仍存在两大缺陷。首先,这些方法的前提假设往往过于简单,一定程度上不符合现实学习规律,如“学习过程中不存在遗忘”。此外,这些方法大多依赖于手工特征建模方式,未考虑更多潜在建模因素,进一步限制了算法性能。

得益于深度神经网络(Deep Neural Networks, DNN)良好的表征能力,近年来越来越多的研究者聚焦于利用DNN来建模知识追踪任务,并做出了一些有益探索。大体来讲,这些方法往往基于循环神经网络和注意力机制,代表性方法有深度知识追踪方法(Deep Knowledge Tracing, DKT)、基于自注意力机制的知识追踪方法(Self-Attentive Knowledge Tracing, SAKT)、基于上下文注意力机制的知识追踪方法(Context-Aware Attentive Knowledge Tracing, AKT)等。较之传统基于手工特征建模的方法,这些基于DNN以数据驱动方式建模的知识追踪方法取得了更好的性能。然而,本文实验性地发现这些方法依然存在过拟合风险,尤其是在小规模数据集上。举例来说,我们在小规模数据集Statics2011上训练一个DKT模型,训练集和验证集损失曲线如图2所示。从中可以直观地看出,随着训练集损失的不断下降,验证集损失先下降后上升,模型可能在训练集上面临过拟合风险,其在验证集上的泛化性能可能相对有限。为追求更好的追踪效果,模型的泛化性能需要被进一步提升。考虑到对抗训练是一种有效的正则化方式,本文聚焦于如何利用对抗训练来提升基于DNN的知识追踪模型的泛化能力,进而达到更好的追踪效果。



图2 在数据集Statics2011上训练DKT模型的训练集损失曲线(a)和验证集损失曲线(b)

4

模型概览

本文针对当前基于DNN的知识追踪方法存在的过拟合风险,提出基于对抗训练的知识追踪增强方法。为此,首先介绍用于建模知识追踪任务的整体框架;然后,介绍如何生成对抗样本。在此基础上,我们联合原始样本与对抗样本进行协同训练来提升模型泛化能力,从而获取更好性能。

4.1

整体框架




图3 所提方法整体框架示意图

如图3所示,所提方法整体框架由三部分构成,分别为:

1. Interaction Projection

2. Attentive-LSTM

3. Response Prediction。

1. Interaction Projection

该部分的作用是将原始知识点与学生答题记录分别映射为不同嵌入(embedding)表示,并进一步对这两种embedding表示进行拼接来得到完整的表征学生答题情况的embedding表示。

2. Attentive-LSTM

该部分由两个模块构成,分别为知识点隐状态建模 (Knowledge Hidden State modelling, KHS Modelling)模块与知识点隐状态注意力机制(Knowledge Hidden State attention, KHS Attention)模块。

其中,KHS Modelling模块由一个长短期记忆(Long Short-Term Memory,LSTM)网络组成,用于捕获不同时间步学生答题情况之间的关系,得到不同时间步的KHS。

在此基础上,我们基于注意力机制设计了KHS Attention模块来自适应地聚合不同历史时间步的KHS信息同时强调当前时间步的KHS信息,从而实现更准确的预测。

3. Response Prediction

该部分由全连接层与Sigmoid函数组成,其作用是将由Attentive-LSTM得到的综合表征映射为指示答对下一题目的概率值。


4.2

对抗训练




图4 协同训练示意图

对抗训练作为一种有效的正则化方式,被广泛应用于图像与自然语言处理领域。受此启发,本文探索利用对抗训练来提升知识追踪模型的泛化能力。为此,首先需要构造对抗样本。利用Ian Goodfellow等人提出的快速梯度符号法(Fast Gradient Sign Method, FGSM)来产生对抗扰动,并将其添加至原始样本(embedding)上生成对抗样本;在此基础上,联合原始样本与对抗样本进行协同训练(如图4所示),从而提升模型泛化能力,增强追踪效果。


5

实验分析

本文在四个公共测评数据集上进行了实验,定量结果列于表1。从中可以看出,所提方法与六种当前主流方法相比在所有数据集上均取得了最高的AUC得分,显示了本文算法的优越性。



表1 不同算法AUC得分

进一步地,本文进行了消融研究来验证对抗训练和所提KHS Attention模块的有效性。首先,比较了有无对抗训练时验证集的损失曲线,结果如图5所示。可以看出,当加入对抗训练时,模型在四个数据集的验证集上的损失值均有明显下降趋势,一定程度上缓解了模型过拟合风险。



图5 训练集和验证集损失曲线对比

有无对抗训练时的定量结果列于表2中。从中可以看出,当加入对抗训练时,模型在所有数据集上的表现均有提升,显示了对抗训练对于提升模型泛化能力的有效性。



表2 有无对抗训练的模型性能对比

有无KHS Attention模块的定量结果列于表3中。从中可以看出,当加入KHS Attention模块时,模型在所有数据集上的表现均有提升,显示了聚合不同历史时间步的KHS信息同时强调当前时间步的KHS信息对于提升最终预测准确率的有效性。



表3 有无KHS Attention模块的模型性能对比

利用本文算法还可对学生做题过程中的知识点掌握度进行可视化,如图6所示。做题前后知识点掌握度对比见图7。通过可视化展示,学生可直观地了解自身存在的薄弱知识点,方便后续有针对性练习的开展。



图6 学生做题过程中知识点掌握度可视化展示


图7 学生做题前后知识点掌握度对比

6

总结

本文针对知识追踪任务,提出了一种基于对抗训练的知识追踪增强方法。与六种主流算法相比,所提算法在四个公共测评数据集均取得了最高的AUC得分,显示了算法的优越性。此外,利用本文所提出的算法还可对学生做题过程中的知识点掌握度进行可视化,具有良好应用前景。


王选所2021年度优秀成果推介

近期发布

—   版权声明  —

本微信公众号刊载的所有内容,由北京大学王选计算机研究所微信自身创作、收集的文字、图片和音视频资料,版权属北京大学王选计算机研究所所有;从公开渠道收集、整理及授权转载的文字、图片及音视频资料,版权属原作者。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存