[发明专利]基于深度神经网络的电子产品异步自适应价值评估方法在审
申请号: | 201911117324.2 | 申请日: | 2019-11-14 |
公开(公告)号: | CN110852808A | 公开(公告)日: | 2020-02-28 |
发明(设计)人: | 杜永萍;王陆霖;韩红桂;甄琪;郐晓丹;吴玉锋 | 申请(专利权)人: | 北京工业大学 |
主分类号: | G06Q30/02 | 分类号: | G06Q30/02;G06N3/04;G06N3/08 |
代理公司: | 北京思海天达知识产权代理有限公司 11203 | 代理人: | 吴荫芳 |
地址: | 100124 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 神经网络 电子产品 异步 自适应 价值 评估 方法 | ||
1.基于深度神经网络的电子产品异步自适应价值评估方法,其特征在于:包括估计产品本身价值的估价模块和为应对市场变化进行定价调整的自适应调价模块,自适应调价模块使用双深度Q网络,其模型结构由两个结构相同、参数不同的深度Q学习网络构成,即行为网络和目标网络;估价模块根据影响电子产品价格的内部属性得到t时刻的产品基本估价由估价模块输出的估计价格经过自适应调价模块选择的调价动作at调整之后得到最终价格具体如下:
其中,调价动作at由行为网络得到,具体为:行为网络根据t时刻接收输入的数据st,得到每个调价动作的Q值,调价动作at即为最优的Q值对应的调价动作,即:
at=argmaxaQ(st,a;θt)
其中,
数据st包括根据影响电子产品价格的内部属性、产品估价模块的预测价格、当前时间以及产品一周内回收量和销量,
θt为行为网络t时刻的参数,且在每次进行调价动作之后都会进行更新,双深度Q网络使用了经验回溯机制并使用目标网络参与行为网络参数的更新,所述的经验回溯机制指利用t时刻之前的信息调整第t+1时刻的行为网络参数θt+1,进而调整第t+1时刻的产品基本估价
Q(st,a;θt)为行为网络输入数据st通过参数θt计算出来的各个调价行为a的Q值,argmaxa为求最优Q值Q(st,a;θt)对应的调价行为a的操作。
2.根据权利要求1所述的基于深度神经网络的电子产品异步自适应价值评估方法,其特征在于:
所述的行为网络中的参数θt的更新过程如下:
1)将t时刻的输入信息st,做出的调价动作at,执行动作后获得的反馈rt+1和t+1时刻获得的输入信息st+1组合成一个样本St={st,at,rt+1,st+1}存储在回放空间中,其中,
其中,EBp代表正反馈的误差边界,EBn代表负反馈的误差边界,
Yt表示市场成交价;
所述的回放空间由各时刻样本St构成,表示为{S1,...,St,...,SN};
2)从回放空间中随机选取j时刻的样本Sj=(sj,aj,rj+1,sj+1),将其中的sj+1输入行为网络并计算出调价动作aj,t-,具体表示如下:
aj,t-=argmaxaQ(sj+1,a;θt)
3)同时将sj+1输入目标网络并得到调价动作aj,t-对应的Q值,具体表示为Q(sj+1,aj,t-;θ-),其中θ-表示此时目标网络的参数;
4)计算yj,具体如下:
yj=rj+1+γQ(sj+1,aj,t-;θ-)
其中,γ是用来调节网络学习程度的常量,
5)从回放空间中随机选取多个时刻的样本Sj,j≤t,将这些样本中的sj输入行为网络,选择Adam优化器对行为网络进行优化,优化后的参数即为第t+1时刻行为网络的参数θt+1,其中损失函数L的计算公式如下:
L=(yj-Q(sj,aj;θt))2。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911117324.2/1.html,转载请声明来源钻瓜专利网。