[发明专利]基于行为数据的理财推荐方法及装置、设备在审
申请号: | 201910983508.0 | 申请日: | 2019-10-16 |
公开(公告)号: | CN110598120A | 公开(公告)日: | 2019-12-20 |
发明(设计)人: | 魏爽;林路;郏维强 | 申请(专利权)人: | 信雅达系统工程股份有限公司 |
主分类号: | G06F16/9535 | 分类号: | G06F16/9535;G06Q40/06;G06N3/08;G06F16/28;G06F16/215 |
代理公司: | 33289 杭州裕阳联合专利代理有限公司 | 代理人: | 姚宇吉 |
地址: | 310000 浙江省杭州市*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 多维属性 预处理 历史行为数据 理财产品 强化学习 理财 历史浏览 模型网络 目标用户 信息输入 行为数据 行为序列 点击率 构建 捕获 筛选 清晰 购买 | ||
1.一种基于行为数据的理财推荐方法,其特征在于,包括:
获取多维属性信息和历史行为数据,所述多维属性信息包括理财产品多维属性信息及其对应的用户多维属性信息;
对所述多维属性信息和所述历史行为数据进行预处理,所述预处理包括筛选、清晰、缺失值处理和奇异值处理中的一个或多个;
将预处理后的多维属性信息输入所构建的强化学习模型网络中进行训练得到推荐知识;
根据所述推荐知识向目标用户推荐理财产品。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
定义强化学习模型中的状态模块、动作模块和奖励模块;
对所述强化学习模型中的策略函数、策略梯度和值函数模块进行算法优化设计;
按照设计的算法构建强化学习模型网络。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
对所述多维属性信息进行规范化处理,得到符合预设格式的量化数据。
4.根据权利要求3所述的方法,其特征在于,所述规范化处理为布尔型规范化处理。
5.根据权利要求2所述的方法,其特征在于,所述定义强化学习模型中的状态模块,包括:
基于所述历史行为数据抽取状态特征;
将预设时间段内所述历史行为数据对应的理财产品多维属性信息作为当前模型所处的状态;
基于所述状态特征和所述状态构建所述定义强化学习模型中的状态模块。
6.根据权利要求2所述的方法,其特征在于,所述定义强化学习模型中的动作模块,包括:
构建排序向量,以所述排序向量定义强化学习模型中的动作模块。
7.根据权利要求2所述的方法,其特征在于,所述定义强化学习模型中的奖励模块,包括:
结合所述多维属性信息和系统排序策略对理财产品进行排序;
为所述强化学习模型中的奖赏函数引入先验知识;
基于引入先验知识的奖赏函数定义强化学习模型中的奖励模块。
8.根据权利要求2所述的方法,其特征在于,所述对所述强化学习模型中的策略函数、策略梯度和值函数模块进行算法优化设计,包括:
采用参数化的函数对策略进行表达,通过优化参数完成策略函数的学习;
基于确定的策略在所有状态上获得目标函数,并根据梯度策略优化更新所述目标函数,所述目标函数为长期积累奖赏期望之和;
引入优势函数,基于所述优势函数设计所述强化学习模型中的值函数。
9.一种基于行为数据的理财推荐装置,其特征在于,包括:
数据获取单元,用于获取多维属性信息和历史行为数据,所述多维属性信息包括理财产品多维属性信息及其对应的用户多维属性信息;
数据预处理单元,用于对所述多维属性信息和所述历史行为数据进行预处理,所述预处理包括筛选、清晰、缺失值处理和奇异值处理中的一个或多个;
模型训练单元,用于将预处理后的多维属性信息输入所构建的强化学习模型网络中进行训练得到推荐知识;
产品推荐单元,用于根据所述推荐知识向目标用户推荐理财产品。
10.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至8任一项所述的基于深度学习的文本摘要自动生成方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于信雅达系统工程股份有限公司,未经信雅达系统工程股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910983508.0/1.html,转载请声明来源钻瓜专利网。