[发明专利]一种基于深度学习的个性化推荐方法有效
申请号: | 201910456019.X | 申请日: | 2019-05-29 |
公开(公告)号: | CN110196946B | 公开(公告)日: | 2021-03-30 |
发明(设计)人: | 郭炜强;平怡强;张宇;郑波 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06F16/9535 | 分类号: | G06F16/9535;G06Q30/02 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 冯炳辉 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 个性化 推荐 方法 | ||
本发明公开了一种基于深度学习的个性化推荐方法,根据用户的观影时序行为序列,预测用户下一部会观看电影,包括用户观看电影的历史行为特征数据预处理、个性化推荐模型建模、使用用户时序行为特征序列进行模型训练和测试三个阶段。用户观看电影的历史行为特征数据预处理阶段,使用用户与电影交互的隐性反馈,将每个用户与电影的交互数据按照时间戳进行排序,相应的电影观看时间序列。随后对电影数据进行编码表示。个性化推荐模型建模包括:嵌入层设计、一维卷积网络层设计、自注意力机制、分类输出层与损失函数设计。本发明结合一维卷积神经网络技术和自注意力机制,训练效率更高,参数相对较少。
技术领域
本发明涉及推荐系统的技术领域,尤其是指一种基于深度学习的个性化推荐方法。
背景技术
推荐系统是人与信息的连接器,用已有的用户特征以及用户过往的交互去预测用户与信息内容未来可能的交互行为。推荐系统根据不同的用户的历史行为、用户的兴趣偏好或者用户的人口统计学特征来选择推荐算法,或建立推荐模型,使用推荐算法或模型来产生用户可能感兴趣的项目列表,并最终推送给用户。
近些年,随着深度学习的研究不断发展,基于深度学习的推荐算法模型大量提出。基于深度学习的推荐模型具有许多优点:与线性模型不同,深度神经网络能够使用诸如relu、softmax、tanh等非线性激活函数对数据进行建模;深度神经网络能够从输入数据中有效地学习潜在的表示因子和高阶的特征交互,减轻了特征工程的工作;另外,深度神经网络在一些序列的模型任务中成果显著。
卷积神经网络中的一维卷积,常用于序列模型中。一维指的是卷积核的维度,其尺寸为k×1,k为卷积核在时间序列上滑动的时域窗口大小。一维卷积操作经常使用在信号处理中,用于计算信号的延迟累积。假设一个信号发生器每个时刻t产生一个信号xt,其信息的衰减率为wk,即在k个时间步长后,信息为开始时的wk倍。对于要处理序列的问题,还要考虑时间的因素,不能使用普通的CNN网络,引入一种称为因果卷积的技术。因为时间序列上的一维卷积,具有输入序列到输出序列的结构,输入与输出根据时间步一一对应。因果卷积,就是对于时间序列中第t时间步的输出只能依赖于前t步的输入,为防止信息泄露,不能使用未来的信息。具体的表现就是在填充补零的方式上,在序列起始处填充(k-1)个值全为0的输入信息,其中k为卷积核窗口长度。
注意力机制的基本思想是,从大量信息中有选择地提取出部分重要信息,并将焦点集中在到这些重要信息上,忽略掉其他不相关的的信息。而这种对于重要信息和不重要信息的区分,是通过不同的权重来表达的。权重越大则越重点关注对应的值。一般地,给定一个与任务相关的查询向量q,以及序列中的键值对[k,v],计算q与k的相关性或匹配程度,将这种相关性信息送入softmax函数,得到注意力分布,也就是权重系数。随后附加在各个值v上,加权求和,得到输出结果。
自注意力机制是对注意力机制的改进,其减少了对外部信息的依赖,更擅长捕捉自身数据或特征的内部相关性。传统的注意力机制,是利用源数据和隐藏层传递的隐藏状态来计算的,得到的是目标和数据之间的依赖关系,而自注意力是计算源数据或者输出数据本身之间的依赖关系。
发明内容
本发明的目的在于克服现有技术的不足,提出了一种基于深度学习的个性化推荐方法,用于电影的推荐任务,任务目标为根据用户的观影时序行为序列,预测用户下一部会观看电影。基本过程为使用一维卷积来获取不同时刻的用户的兴趣特征,再通过自注意力机制根据不同时刻兴趣特征信息之间的相互关系,加权求和从全局角度来做出最终的推荐预测结果。
为实现上述目的,本发明所提供的技术方案为:一种基于深度学习的个性化推荐方法,包括以下步骤:
1)用户观看电影的历史行为特征数据预处理;
2)个性化推荐模型建模
2.1)嵌入层设计;
2.2)一维卷积网络层设计;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910456019.X/2.html,转载请声明来源钻瓜专利网。