[发明专利]面向隐式推荐的可解释高效自编码器系统及方法在审
申请号: | 202111526795.6 | 申请日: | 2021-12-14 |
公开(公告)号: | CN114139062A | 公开(公告)日: | 2022-03-04 |
发明(设计)人: | 杨梓;沈艳艳 | 申请(专利权)人: | 上海交通大学 |
主分类号: | G06F16/9535 | 分类号: | G06F16/9535;G06N3/04;G06N3/08 |
代理公司: | 上海汉声知识产权代理有限公司 31236 | 代理人: | 胡晶 |
地址: | 200240 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 面向 推荐 可解释 高效 编码器 系统 方法 | ||
本发明提供了一种面向隐式推荐的可解释高效自编码器系统及方法,包括:步骤S1:基于所有用户和所有物品的交互记录建立交互矩阵;步骤S2:对交互矩阵进行预处理得到预处理后的交互矩阵;步骤S3:利用预处理后的交互矩阵对线性编码器模型进行训练得到训练后的线性编码器模型;步骤S4:基于用户和物品的交互记录利用训练后的线性编码器模型进行个性化推荐。
技术领域
本发明涉及推荐系统技术领域,具体地,涉及面向隐式推荐的可解释高效自编码器系统及方法,更为具体地,涉及面向隐式推荐的可解释高效自编码器模型。
背景技术
在隐式推荐中,如何利用用户和物品的交互记录来提高推荐的精确性,是研究的主要研究核心。
潜在因子分解模型奇异值分解(SVD),该模型学习左奇异向量和右奇异向量矩阵来表示用户和物品。矩阵分解(MF)是最流行的协作过滤方法之一,它可以将用户和商品映射到低维嵌入空间,此外,神经网络矩阵分解(NNMF)通过将特征输入神经网络来模拟更复杂的交互,从而增强了以前的矩阵分解方法。
自动编码器模型经典自编码模型AutoRec将用户或项目的评分向量作为编码器的输入,由解码器对其进行重构。同样,变分自动编码器(VAE)也已经应用于推荐。基于用户的AutoRec和基于物品的AutoRec是互补的,联合协作两个AutoRec可以同时学到用户和用户之间的关系以及物品和物品之间的关系。
图网络模型新起之秀的GCN比其他协同过滤模型更具优势。先进的图方法将用户和物品视为二分图中的节点,并利用图的自然优势来约束用户和物品之间的关系。为了明确捕获用户项目图中的高阶交互,将协作信号嵌入到消息传播过程中。一种简化的图模型的LightGCN通过删除非线性运算符简化了模型,实现更好的性能,这表明只有节点ID或评分矩阵可用时,线性模型比非线性模型能更好地完成CF任务。因此,CF图模型的发展表明协作过滤本质上是一个二部图链接预测任务,其中捕获用户和物品之间的内部结构关系非常重要。然而更复杂的图模型不仅让训练困难,而且削弱了模型的鲁棒性和泛化能力。
专利文献CN112347362A(申请号:202011283015.5)公开了一种基于图自编码器的个性化推荐方法,利用用户与物品的交互行为,构建邻接矩阵,并对其进行归一化处理,使用图卷积网络进行卷积操作,获取节点的隐层表示;利用用户评论文本和物品描述文本作为节点信息的来源,得到每个节点的初始特征向量,再使用图注意力网络聚合邻居节点特征,更新节点信息;利用用户和物品的属性特征,构建全连接网络计算得到隐层特征;将隐层特征进行拼接得到新的节点信息,构建全连接网络,进行编码,使用双线性解码器重构用户对物品的评分作为预测评分,针对得到的预测评分采用Top-N推荐生成推荐物品列表。
本发明涉及到推荐中的协同过滤问题,在只有用户和物品的交互记录情况下,如何提高推荐质量。现有自动编码器在隐式推荐中的应用过于依赖复杂的非线性网络,本发明主要在于简化自动编码器成为更具可解释性的高效推荐模型,提高推荐的归纳和泛化能力。
本发明自动编码器简化为线性编码器只含两个参数,并对输入进行dropout,把解码器当作带权重的矩阵分解,从理论上统一上述三大模型,并进一步引入联合线性自编码器结合hinge-loss用于加强推荐效果。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种面向隐式推荐的可解释高效自编码器系统及方法。
根据本发明提供的一种面向隐式推荐的可解释高效自编码器系统,包括:
模块M1:基于所有用户和所有物品的交互记录建立交互矩阵;
模块M2:对交互矩阵进行预处理得到预处理后的交互矩阵;
模块M3:利用预处理后的交互矩阵对线性编码器模型进行批量并行训练,得到训练后的线性编码器模型;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海交通大学,未经上海交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111526795.6/2.html,转载请声明来源钻瓜专利网。