[发明专利]贝叶斯协同过滤推荐方法有效
申请号: | 201910112719.7 | 申请日: | 2019-02-13 |
公开(公告)号: | CN109840833B | 公开(公告)日: | 2020-11-10 |
发明(设计)人: | 王邦军;戴欣;李凡长;张莉 | 申请(专利权)人: | 苏州大学 |
主分类号: | G06Q30/06 | 分类号: | G06Q30/06;G06F16/9535;G06K9/62 |
代理公司: | 苏州市中南伟业知识产权代理事务所(普通合伙) 32257 | 代理人: | 郭磊 |
地址: | 215000 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 贝叶斯 协同 过滤 推荐 方法 | ||
本发明公开了一种贝叶斯协同过滤推荐方法。本发明一种贝叶斯协同过滤推荐方法,包括:模型的输入为协同过滤推荐系统的评分矩阵分解为两个潜在矩阵其中对于M×K的矩阵Uik表示用户i属于组k的概率,Uik∈(0,1);对于N×K的矩阵Vjk表示用户组k喜欢商品j的证据,即预测评分矩阵R'=UVT;由于数据集R比较稀疏,所以观察的条目可以用集合Ω={(i,j)|Rij is observed};对这个问题采取概率方法;对观测数据表示一个似然函数,并将潜在矩阵作为随机变量来处理;当假设R的每个值来自U和V的乘积时,加上一些高斯噪声本发明的有益效果:用户的喜好多种多样,不会像小数据集中体现出口味较为一致。现实数据集中存在大量数据缺失问题,如果对证据不足难以预测的值,都预测为中值或者为平均值就失去了推荐的意义。
技术领域
本发明涉及互联网领域,具体涉及一种贝叶斯协同过滤推荐方法。
背景技术
联网的出现和普及,我们可以轻松地获得大量的数据,但是大量的数据使得用户在搜索信息难以直接地获得有效信息,这样我们对信息的使用率是降低的。因此,使用推荐系统可以有效解决信息过载问题的方法是非常重要的,推荐系统往往会根据使用者的要求、爱好等等,来推荐内容。目前,推荐系统已经在诸如电影,音乐,购物,社交,书籍等很多领域中得到了广泛的应用。而其中应用最广泛,最有效的个性化推荐技术之一就是协同过滤推荐算法。协同过滤主要分为基于内存的方法和基于模型的方法这两类:
1.基于内存的方法:主要分为基于用户的协同过滤和基于项目的协同过滤,一般是通过目标用户(或目标项目)的相似用户(或相似项目)进行预测。
2.基于模型的方法:使用模型来预测用户评分,即先构建模型训练参数,一旦训练结束,基于模型的推荐系统就可以非常快速的预测用户的喜好。所以当存在大量用户和大量项目时,使用基于模型的推荐可扩展性强、预测速度快。基于模型的方法主要包括:决策树,基于规则的模型,贝叶斯方法和潜在因子模型。
使用基于内存的方法虽然提供了可靠的建议,但是对于用户完全未接触过的关键字信息和新用户无法推荐,需要大量评级才可以做出可靠的预测,而现实数据往往非常稀疏。为此许多学者在基于模型的推荐系统上进行了更加深入的研究,提出了一些改进方法并取得了一些成就,例如在问答网站中使用基于概率潜在语义分析(PLSA)进行自动问题推荐的增量推荐算法,使推荐系统的实时性不足的问题得到了改善;在博客中使用一种基于文档主题生成模型(LDA)的推荐算法,提高了用户推荐的精度;在电子商务推荐系统中使用一种将聚类算法和SVD算法结合的推荐算法,有效解决了数据稀疏问题等等。
传统技术存在以下技术问题:
在现有的诸多模型中,矩阵分解技术对稀疏矩阵有较高的准确率。在经典矩阵分解的模型中,把用户集对项目集的评分表示成一个评分矩阵Rm×n,其中rij表示用户ui对物品vj的偏好,将矩阵分解为两个矩阵:一个与用户相关Um×k,另一个与项目相关Vk×n,使得它们的乘积近似于原始矩阵:Rm×n≈Um×k×Vk×n。其核心思想是通过隐含的特征联系用户和项目,利用降维的方法来填充缺失的条目,该方法在推荐算法上已经证明优于传统的最近邻技术。该方法中每个物品不是硬性地被分到一个类目中,而是通过统计用户行为来决定物品在每个类中的权重,如果喜欢某个类的用户都喜欢某个物品,那么这个物品在这个类中的权重就可能较高。经典矩阵分解应用在协同过滤中,很好的解决了数据过于稀疏的问题。
经典矩阵分解有两个主要缺点,其中一个为没有将分解的矩阵分量约束为非负,这就导致难以理解每个分量的预测含义,推荐系统没有可解释性。另一个缺点是一般的矩阵分解为非概率的,求解方法为最小化原始矩阵与近似矩阵之间的误差,即:这种方法会更容易导致过度拟合和忽略其不确定性,推荐效果不佳。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州大学,未经苏州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910112719.7/2.html,转载请声明来源钻瓜专利网。