[发明专利]一种基于神经网络的第二语言习得模型有效
申请号: | 201811025138.1 | 申请日: | 2018-09-04 |
公开(公告)号: | CN109033088B | 公开(公告)日: | 2023-05-30 |
发明(设计)人: | 陆勇毅;秦龙;徐书尧 | 申请(专利权)人: | 北京先声智能科技有限公司 |
主分类号: | G06F40/284 | 分类号: | G06F40/284;G06N3/0442;G06N3/049;G06N3/08 |
代理公司: | 北京三友知识产权代理有限公司 11127 | 代理人: | 汤在彦 |
地址: | 100096 北京市海淀区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 神经网络 第二语言 习得 模型 | ||
本发明公开了一种基于神经网络的第二语言习得模型,其技术方案要点是包括上下文语境编码器、语言学特征编码器、用户信息编码器和题目形式编码器,所述的上下文语境编码器的输入特征为单词与字母,所述的语言学特征编码器的输入特征为相应单词的词性与依存标签,所述的用户信息编码器的输入特征为学生ID信息、学习时长和学生的国籍,所述的题目形式编码器的输入特征为答题状态、习题的类型、答题时间和答题的方式。本发明能够根据学生的实际需求推荐学习资料的自适应学习系统具有广泛的运用前景,能够极大地提高学生学习效率和减轻教师的负担。
技术领域
本发明涉及一种基于神经网络的第二语言习得模型。
背景技术
第二语言习得建模(Second Language Acquisition,SLA)是一种在外语学习领域的根据学生答题历史预测学生对于未来的习题能否正确应答的任务。研究SLAM对于构建外语学习领域的智能自适应学习系统具有重要的意义。
Bayesian Knowledge Tracing(BKT)是一种对学生的知识进行建模隐马尔可夫模型。该模型以二元隐状态(Binary State)来表述学生对于某个概念的掌握情况。BKT已经被成功地运用于像数学、编程等概念与知识点数量较少、可以预定义的课程。然而在语言学习领域中,如英语学习,单词是非常重要的知识点,与其它科目如数学相比,知识点数量太多,构成的二元隐状态矩阵会非常地稀疏。利用该方法对学生的语言学习过程建模会面临挑战。
Deep Knowledge Tracing(DKT)则是一种利用循环神经网络(Recurrent NeuralNetworks,RNN)对学习过程进行建模的方法。然而实际应用中,学生的学习历史会非常长,即使是RNN或它的变体LSTM(Long Short-Term Memory)、GRU(Gated Recurrent Units)也很难记住这么长的历史。并且,常规的DKT模型通常是把所有的特征拼接,作为输入一起输入到RNN模型中,然而对于语言学习而言,这样扁平地把所有信息如单词的嵌入表述(Embeddings)、语言学特征(词性、依存关系等)、学生的个人信息等一起输入到网络中,很可能导致模型过于密集而难以学习。
BKT与DKT是用于对学生的学习历史进行建模的常用模型。然而在外语学习领域,对于SLA而言,直接地运用这两种模型,效果并不理想。。
发明内容
针对现有技术存在的不足,本发明的目的在于提供一种能够根据学生的实际需求推荐学习资料的自适应学习系统具有广泛的运用前景,能够极大地提高学生学习效率和减轻教师的负担的基于神经网络的第二语言习得模型。
为实现上述目的,本发明提供了如下技术方案:一种基于神经网络的第二语言习得模型,包括上下文语境编码器、语言学特征编码器、用户信息编码器和题目形式编码器,所述的上下文语境编码器的输入特征为单词与字母,所述的语言学特征编码器的输入特征为相应单词的词性与依存标签,所述的用户信息编码器的输入特征为学生ID信息、学习时长和学生的国籍,所述的题目形式编码器的输入特征为答题状态、习题的类型、答题时间和答题的方式。
本发明进一步设置为:所述的上下文语境编码器由单词级别编码器与字母级别编码器构成。
本发明进一步设置为:所述的单词级别编码器的结构为双向的LSTM结构。
本发明进一步设置为:所述的字母级别编码器的结构为层级式的双向LSTM结构。
本发明进一步设置为:所述的语言学特征编码器的结构为LSTM结构,通过将词性与依存标签的嵌入表述拼接作为输入。
本发明进一步设置为:所述的用户信息编码器和题目形式编码器的结构均为全连接的神经网络结构。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京先声智能科技有限公司,未经北京先声智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811025138.1/2.html,转载请声明来源钻瓜专利网。