[发明专利]一种基于神经网络的第二语言习得模型有效
申请号: | 201811025138.1 | 申请日: | 2018-09-04 |
公开(公告)号: | CN109033088B | 公开(公告)日: | 2023-05-30 |
发明(设计)人: | 陆勇毅;秦龙;徐书尧 | 申请(专利权)人: | 北京先声智能科技有限公司 |
主分类号: | G06F40/284 | 分类号: | G06F40/284;G06N3/0442;G06N3/049;G06N3/08 |
代理公司: | 北京三友知识产权代理有限公司 11127 | 代理人: | 汤在彦 |
地址: | 100096 北京市海淀区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 神经网络 第二语言 习得 模型 | ||
1.一种自适应学习系统,其特征在于:所述自适应学习系统包括基于神经网络的第二语言习得模型,所述基于神经网络的第二语言习得模型包括上下文语境编码器、语言学特征编码器、用户信息编码器、题目形式编码器和解码器,所述上下文语境编码器的输入特征为单词与字母,所述语言学特征编码器的输入特征为相应单词的词性与依存标签,所述用户信息编码器的输入特征为学生ID信息、学习时长和学生的国籍,所述题目形式编码器的输入特征为答题状态、习题的类型、答题时间和答题的方式,所述解码器的输入包括上下文语境编码器的输出、语言学特征编码器的输出、用户信息编码器的输出和题目形式编码器的输出,所述解码器的输出包括单词的预测概率;
其中,所述上下文语境编码器包括单词级别编码器与字母级别编码器,所述单词级别编码器的结构为双向的LSTM结构,所述字母级别编码器的结构为层级式的双向LSTM结构,所述语言学特征编码器的结构为LSTM结构,通过将词性与依存标签的嵌入表述拼接作为输入,所述用户信息编码器和题目形式编码器的结构均为全连接的神经网络结构。
2.根据权利要求1所述的一种自适应学习系统,其特征在于:所述单词级别编码器的结构表述为将句子中的各个单词(w1,w2,...,wN)的词嵌入表述作为输入,输入到前向与后向LSTM模型中,将前后向LSTM最后一层的输出拼接得到单词级别编码器的输出gt:
其中K0表述LSTM的层数;
所述字母级别编码器的结构表述为将各个单词(w1,w2,...,wN)的字母嵌入表述输入到一个LSTM中,对各个单词做编码,然后把各个单词的编码输出通过Mean over Time层,得到(hw1,hw2,...,hwN),其中K1为LSTM的层数,M为该单词的字母数量,把(hw1,hw2,...,hwN)输入到前向与后向LSTM中,然后把前后向LSTM的输出拼接得到字母级别编码器的输出
其中K2表述该LSTM层的层数,
上下文编码器最后输出为:O=(o1,o2,...,oN),其中
3.根据权利要求1所述的一种自适应学习系统,其特征在于:所述语言学特征编码器结构表述为将词性与依存标签的嵌入表示拼接作为输入:
其中K3为该LSTM层的层数。
4.根据权利要求1所述的一种自适应学习系统,其特征在于:所述用户信息编码器结构表述为:
u0=[u,s,days]
其中u是用户的嵌入表示,s是用户国籍的嵌入表示,days是用户的学习时长,j=1,2,...,K4,K4为神经网络的层数,Wu,bu是参数,由训练得到。
5.根据权利要求1所述的一种自适应学习系统,其特征在于:所述题目形式编码器表述为:
f0=[m,sess,c,t]
其中m是题型的嵌入表示,sess表示答题状态的嵌入表示,c表示答题方式的嵌入表示,t是答题花费的时间,j=1,2,...,K5,K5是题型编码器的层数,Wf、bf是训练得到的参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京先声智能科技有限公司,未经北京先声智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811025138.1/1.html,转载请声明来源钻瓜专利网。