[发明专利]一种融合自动编码器和知识图谱语义信息的推荐方法有效
申请号: | 201910293428.2 | 申请日: | 2019-04-12 |
公开(公告)号: | CN109992674B | 公开(公告)日: | 2023-04-07 |
发明(设计)人: | 陈涛;刘学军;孙鑫 | 申请(专利权)人: | 南京工业大学 |
主分类号: | G06F16/36 | 分类号: | G06F16/36;G06F16/9535;G06F18/2413;G06F18/214;G06N3/048 |
代理公司: | 南京知识律师事务所 32207 | 代理人: | 朱少华 |
地址: | 210009 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 融合 自动 编码器 知识 图谱 语义 信息 推荐 方法 | ||
1.一种融合自动编码器和知识图谱语义信息的推荐方法,其特征在于,包括以下步骤:
获取项目数据集,并对其进行预处理;所述项目数据集包括用户、主题、评分和项目名称;所述预处理包括过滤无用数据,使用查询语句从知识库中获取项目的相关联主题;
训练自动编码器,并利用训练后的自动编码器对预处理后的项目数据集进行训练,构建初始用户特征表示;所述训练自动编码器包括以下步骤:
使用矩阵M来训练自动编码器,其中的行和列分别代表项目名称i和特征f;
其中aij∈M,
计算自动编码器的隐藏层h和输出层o,具体计算公式为:
h=g(X×(W·M))
o=g(h×(R·MT))
其中,g为Sigmoid函数,X是评分矩阵,W是输入层与隐藏层之间的权值矩阵,R是隐藏层与输出层之间的权值矩阵;
将预处理后的项目数据集通过训练后的自动编码器训练后得到输出评分矩阵Y,具体训练步骤包括:
所述用户用u表示;
对W和R按照均方误差损失计算梯度E:
其中xl为评分矩阵X中第l个评分,yl为输出评分矩阵Y中的第l个评分,l表示评分的个数,E是最小平方差损失函数;
计算每个用户u的输入相关权重W′和输出相关权重R′,其计算公式如下:
其中,r表示学习率;
将同一用户评价的项目的相关联的主题作为特征f,计算同一用户对特征f的输入相关权重W′的累加值ω(f),其公式如下:
其中|In(f)|是进入特征f的隐藏节点的边集合,W′t(f)为与进入特征f相应隐藏节点的边的输入相关权重;
所述构建初始用户特征表示,具体为:
Q(u)={f,ωu(f)}
其中,Q(u)表示初始用户特征表示,ωu(f)表示用户u对特征f的输入相关权重W′的累加值ω(f);
利用word2vec模型训练后的数据获得用户的缺失主题的权重,计算用户特征的强化表示,具体包括以下步骤:
计算标准化的用户特征表示Qnorm(u),具体公式为:
Qnorm(u)={f,norm(ωu(f))|f,ωu(f)∈Q(u)}
其中,f,norm(ωu(f))是根据输入相关权重W′和输出相关权重R′为用户u创建的相关对,norm是ωu(f)的映射函数,Q(u)为初始用户特征表示;
对每个标准化的用户特征表示Qnorm(u)建立用户的特征序列s(u),s(u)根据用户u对各特征的输入相关权重W′的累加值从大到小的顺序排序,具体表达为:
s(u)=[...,fm,norm(ωu(fm)),...,fn,norm(ωu(fn)),...],ωu(fm)≥ωu(fn)
其中,ωu(fm)表示用户u对排序为第m个特征fm的输入相关权重W′的累加值,ωu(fn)表示用户u对排序为第n个特征fn的输入相关权重W′的累加值;
将每个用户u的特征序列s(u)作为训练的Word2vec模型的输入,获得多个以缺失特征f′作为第一个元素的元素对f′,ωu(f)′,计算用户特征的强化表示Q+(u),具体公式为:
其中,Q(u)为用户初始特征,argmaxp(f′,ωu(f)′|s(u))为经过word2vec模型训练后的最大概率缺失特征与权值;
从用户中任选一用户作为目标用户,基于用户特征的强化表示采用KNN算法获得与目标用户的相似用户进行推荐。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京工业大学,未经南京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910293428.2/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种知识图谱生成方法、装置、设备及可读存储介质
- 下一篇:信息处理方法和装置